Archiv verlassen und diese Seite im Standarddesign anzeigen : Programm zum laden kompletter homepages
Chronicle
2005-04-25, 21:15:25
Hi
Ich suche ein Programm um eine komplette Homepage, samt Bildern, sounds und videos aus dem Internet herunter zu laden.
MEin Problem:
Ich hatte bis jetzt ein paar, jedoch waren die irgendwie alle nicht fähig, die hinter thumbnails verlinkten bilder zu laden.
weiß jemand ein programm mit dem das geht?
danke schonmal im vorraus
Und wie hießen die Programme die du schon hattest und damit ausschließen kannst?
Bringt ja nix wenn jemand nun genau die wieder nennt.
Chroni@mithandy
2005-04-26, 07:34:34
oh ja sorry^^
-teleport pro
-web dumper (o.ä.)
und irgendwas ala offline explorer
bin grad net daheim.
ich schau nachher nach
WinHTTrack ist ein ganz netter Webreader.
oh ja sorry^^
-teleport pro
-web dumper (o.ä.)
und irgendwas ala offline explorer
bin grad net daheim.
ich schau nachher nach
Offline Explorer kann es aber.
mußt halt die Link depth (oder so ähnlich) höher setzen, und eventuell einstellen, daß auch Files, die in anderen Ordnern sind, geladen werden.
Schau dir da mal die Einstellungen an, dann kriegtst du alles geladen (Hinter Thumbnails verlinkte Bilder klappt auf jeden fall).
skamikaze
2005-04-26, 07:50:34
hmm, mit firefox geht das afaik ohne probleme. Datei => Seite speichern unter...
aber wenn du ne php seite runterladen willst kannst du es vergessen, das geht net da der browser nur das compilierte ergebnis ders php codes anzeigt!
darph
2005-04-26, 07:51:43
Ja, also die Einstellungsprameter beim OE sind ja schier erdrückend.
Wenn der was nicht richtig lädt, kann es eigentlich nicht am Programm liegen, sondern an seiner konfiguration. Du mußt halt in den Projekten schon sehr genau spezifizieren, was genau du haben willst...
chroni@schule
2005-04-26, 10:54:25
ok probier ich den nachher nochmal aus.
man... hab kein bock uf schule XD
naja danke schomma ich meld mich später.
Senior Sanchez
2005-04-26, 12:11:14
also ich benutze dafür immer wget.
wget -rl2 URL
wget downloaded so die seite und ruft rekursiv alle links auf, dabei geht er 2 level in die tiefe, das heißt findet er auf der startseite nen link zu ner anderen seite, geht er auch auf diese seite und zieht alles was direkt erreichbar ist. findet er dann wieder ne seite zieht er die zwar auch, folgt dann aber dort den links nicht mehr, weil eben level 2 eingestellt ist.
Ich habe aber auch ne Firefox-Extension dafür *g* Irgendwo jedenfalls.
mfg Senior Sanchez
darph
2005-04-26, 13:11:31
also ich benutze dafür immer wget.
wget -rl2 URL
wget downloaded so die seite und ruft rekursiv alle links auf, dabei geht er 2 level in die tiefe, das heißt findet er auf der startseite nen link zu ner anderen seite, geht er auch auf diese seite und zieht alles was direkt erreichbar ist. findet er dann wieder ne seite zieht er die zwar auch, folgt dann aber dort den links nicht mehr, weil eben level 2 eingestellt ist.
Ich habe aber auch ne Firefox-Extension dafür *g* Irgendwo jedenfalls.
mfg Senior Sanchez
Auch von fremden Servern? Werbebanner und den ganzen Scheiß?
Chronicle
2005-04-26, 14:37:28
hmm also der offline explorer beendet sich immer von selbst...
woran kann das liegen?
Senior Sanchez
2005-04-26, 14:55:32
Auch von fremden Servern? Werbebanner und den ganzen Scheiß?
Japs, das sollte eigentlich so sein. Das ist leider nen Nachteil.
mfg Senior Sanchez
Oblivion
2005-04-26, 22:42:42
Ich hab das mal mit den verschieden Browsern ausprobiert
IMO geht das mit Opera am besten
Henrik
2005-04-26, 23:45:01
hmm, mit firefox geht das afaik ohne probleme. Datei => Seite speichern unter...
aber wenn du ne php seite runterladen willst kannst du es vergessen, das geht net da der browser nur das compilierte ergebnis ders php codes anzeigt!
Dann musst du aber jede Seite einzeln speichern ;)
Das Problem mit der PHP-Datei sehe ich jetzt nicht. Was willst du denn noch mit den Scripts?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.