Ich seh' schon, dass mir das zu teuer ist ($200, das andere gibt's noch gar nicht, den "HTML Explorer" gibt's nicht mehr auf der Website - FvG?)
Ist aber schon erstaunlich, was da alles geboten wird.
Bleibt also nur Handarbeit... :)
Schnapp dir doch einen dieser Website-Sauger, hol dir die komplette Site damit auf die Platte, hol sie dir nochmal mit FTP auf Platte, und vergleiche die Verzeichnisinhalte. Dafür gibts bestimmt auch Tools, die Verzeichnisse vergleichen. Notfalls mit DIR > dir1.txt in eine Textdatei packen und mit FC vergleichen.
Oder du programmierst dir was - dürfte aber aufwendiger werden, als du dir spontan vorstellst.
Das Problem ist ja: Woran erkennt man, daß eine Datei nicht mehr benötogt wird?
Wenn kein einziger Link auf sie zeigt? Bei Grafiken ist der Fall dann klar. Aber bei HTML-Seiten? Kann ja sein, daß es z.B. zusätzliche Framesets sind, die den Link auf Unterseiten erleichtern - dann werden die von der gesamten Seite nicht verlinkt, sondern nur von außerhalb. Löschen wäre in so einem Fall fatal.
Die interessantere Lösung wäre also eigentlich, die Logfiles durchzusehen. Alles, was der Webserver ausgeliefert hat, wird gebraucht. Und natürlich alles, was von ausgelieferten Seiten aus verlinkt ist. Wenn einigermaßen viel Traffic auf der Seite ist, und die Leute nicht nur einen Bereich stürmen, sondern sich gleichmäßiger verteilen, dann kriegt man so einen einigermaßen korrekten Überblick.
Aber die Sache ist trotzdem diffizil. Ich würde persönlich keine Maschine dransetzen und auf der Website ohne Backup und anschließender ständiger 404-Kontrolle vermeintlich unnötige Files löschen.
Vermutlich genau wegen dieser Einstellung sammelt sich auf Webservern soviel Müll an. ;)
- Sven Rautenberg