droomdre: crawler für Dokumente auf einer Webseite

Beitrag lesen

Lass doch mal den Pipe zu wget weg und schau nach, was kommt.

Lass doch mal den Pipe zu grep weg und schau nach, was kommt.

Jörg Reinholz

Ich bekomme das:
wget -r --spider http://www.klinikamrosengarten.de/ 2>&1
--13:39:17--  http://www.klinikamrosengarten.de/
           => `www.klinikamrosengarten.de/index.html'
Resolving www.klinikamrosengarten.de... 46.30.58.110
Connecting to www.klinikamrosengarten.de|46.30.58.110|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
200 OK

www.klinikamrosengarten.de/index.html: No such file or directory

FINISHED --13:39:17--
Downloaded: 0 bytes in 0 files

Die Seite ist in php und durch simulate statics wird ein html am Ende eingefügt.