Beiträge: 16.060
Themen: 2.152
Registriert seit: Aug 2004
Wer eine gute Webseite mit vielen Informationen gefunden hat, möchte vielleicht sicherstellen, daß diese nicht "verschwinden" - Server schaltet ab, Seite wird umprogrammiert und dergleichen.
Dafür gibt es Website-Grabber.
Meine Wahl ist WinHTTrack -
http://www.httrack.com/
Gefunden übrigens auf der unter
http://www.opensourcecd.de - und dort gibt es noch viele interessante Programme.
GMT
Mehr als 90 Datenbanken - und Platz für noch mehr...
Beiträge: 3.382
Themen: 302
Registriert seit: Jul 2004
Das Programm kann ich auch wirklich nur empfehlen. Ich nutze es schon seit einigen Jahren. Außerdem ist es kostenlos und auf deutsch (für einige Einstellungen nicht unpraktisch :wink: ).
Beiträge: 1.178
Themen: 50
Registriert seit: Apr 2005
Beiträge: 4.417
Themen: 851
Registriert seit: Jun 2005
Danke für den ausgezeichneten Tipp!
Dies erspart mir einige Ängste und Bauchschmerzen. denn meine Lieblings-Webside mit einer Fülle von Daten war für ca . vier Wochen nicht mehr zu erreichen und ich befürchtete schon das Schlimmste. Jetzt nachdem sie wieder im Netz ist und nach der Spiegelung kann sie meinetwegen im Nirwana verschwinden.
Beiträge: 16.060
Themen: 2.152
Registriert seit: Aug 2004
Nur eins muß man bedenken: Suchfunktionen z.B., die mit Programmen auf dem Server laufen, funktionieren in der gespiegelten Variante nicht.
GMT
Mehr als 90 Datenbanken - und Platz für noch mehr...
Hallo GMT,
nutze das Programm auch. Ist gut. Mal ne Frage an den Experten: Gibt es so einen HTTP Sauger auch für Foren, also den Inhalt des Forums? Oder kann ich HTTrack auch dafür nutzen.
Wenn du nach der Geburtstagsfeier Zeit findest ... Vielleicht kannst du mir helfen.
Mylow
Beiträge: 16.060
Themen: 2.152
Registriert seit: Aug 2004
Also probiert habe ich das nicht - kann mir allerdings auch nicht vorstellen, daß das problemlos funktioniert:
Grund: Das Forum hier z.B. ist mit PHP programmiert. Das siehst Du z.B. in der aktuellen Adreßzeile - da steht irgendwo ".php"
Also laufen da Routinen auf dem Server ab, die nicht einfach mitkopiert werden können. Und selbst wenn Du einige kopieren kannst, laufen sie auf Standard-Windows nicht.
GMT
Mehr als 90 Datenbanken - und Platz für noch mehr...
Beiträge: 7.438
Themen: 697
Registriert seit: Jul 2004
Und des weiteren laufen solche Foren mit SQL-Datenbanken, an die man von außen nicht heran kommt.
Beiträge: 751
Themen: 118
Registriert seit: Jan 2005
Zitat:Hallo GMT,
nutze das Programm auch. Ist gut. Mal ne Frage an den Experten: Gibt es so einen HTTP Sauger auch für Foren, also den Inhalt des Forums? Oder kann ich HTTrack auch dafür nutzen.
Mylow
You can use curl (curl.haxx.se) to download a series of Web pages with contiguous filenames. For example
Zitat:curl http://www.foo.com/page[1-10].htm -O
downloads all pages from page1.htm to page10.htm and saves everything under its own name.
You can also do the following trick if pages are implemented as directories:
Zitat:curl http://www.foo.com/[1-10]/page -o #1
This saves each page as a file named 1.htm to 10.htm, if you're not particular about the name conventions.
Read the curl manual to know more. Combine this and wget and you can download almost any page, including those dynamically generated and protected by passwords/cookies.