Jens Holzkämper: Wie verbietet man, das Websiten "gegrabbt" werden können

Beitrag lesen

Tach,

beispielhaft sei dieses Forum genannt. Wenn man es mit Winhttrack kopieren will, so wird nichts kopiert.

winhttrack wird sich vermutlich an die robots.txt bzw. die robots-Angaben in den Meta-Elementen halten, so wie jeder gute Robot es defaultmäßig tun sollte; wie bei den meisten anderen entsprechenden Tools wird es aber eine Option geben, das zu ändern.

Wie programmiert man es, das Websiten nicht "gespeichert" werden können, also mit solchen Programmen wie winhttrack?

Du kannst versuchen die Robots von den Browsern zu unterscheiden, das wird allerdings einen fähigen User nur bedingt lange aufhalten. CAPTCHAs wären eine (wenn auch unschöne) Lösung; man kann auch versuchen das Weiterverarbeiten zu erschweren, falls es eigentlich darum geht, indem die Struktur und CSS der Seite mehr oder wenig zufällig erzeugt werden, aber auch das ist eher unschön.

mfg
Woodfighter