Dienstag, 11. September 2007, 22:15 Uhr

Mit wget ganze Sites abräumen

wget -r -nd -np -erobots=off "http://server.tld/"
  • -r recursive (= folge und Downloade alle verlinkten Dokumente wie HTML-Dateien und Bilder)
  • -nd nodirectories (= lege Downloads nicht in Unterordner ab)
  • -np noproblem … eh … noparent (= folge keinen Links, die eine Ordner-Ebene höher liegen)
  • -erobots=off evaluate robots.txt (= beachte robots.txt)

Im Netz habe ich auch noch diese Version gefunden:

wget -m -k -K -E "http://server.tld/"

Hat ebenso gut geklappt.

Labels: Linux, Web

Kommentar erfassen