Mit wget komplette Webseite offline speichern, inklusive Linkanpassung
Für alle, die wie ich immer wieder mal Webseiten komplett offline speichern müssen, weil der Kunde leider den FTP-Zugang mehr weiß, aber irgendso eine Frickelsoftware zum Datenabgleich den gespeichert hat (und somit das Resetten nicht in Frage kommt…).
Entweder, Ihr snifft mit Wireshark oder dem Programm Eurer Wahl den Netzwerktraffic, oder aber, wenn SFTP verwendet wird, mittels wget:
wget -E -k -K -r -p http://www.example.org/