Thomas Luethi: Kein Link für Spider oder Crawler

Beitrag lesen

Hallo,

gibt es eine Möglich Links so zu programmieren, dass Sie  nur durch
einen realen Mausklick geöffnet werden können, so dass spider und
crawler die Links nicht benutzen könne.

Was hast Du denn so wichtiges/schuetzenswertes?

Es ist unmoeglich, herauszufinden, ob der Client ein Browser oder
ein Crawler/Spider/wasauchimmer ist.
Der User-Agent-String in HTTP kann beliebig "gefaelscht" werden...

Einige Methoden, welche die Chance erhoehen, dass nur menschliche
"Benutzer" an gewisse Inhalte kommen:

1. Passwortgeschuetztes Verzeichnis, wobei die
  Benutzername/Kennwort Kombination auf der
  Seite, von der aus der Link geht, im Klartext steht.
  (IMHO die beste Methode.)

2. Kein Link, sondern URL, welche der Benutzer
  abtippen oder mit Copy-Paste in die Adresszeile
  kopieren soll.
  Muehsam, aber akzeptabel.

3. Bild, in welchem eine Buchstaben-/Zahlenkombination
  enthalten ist, welche der Benutzer abtippen muss
  (in Formular oder Adresszeile).
  Schlecht, weil Blinde und andere Benutzer mit
  speziellen Browsern damit keine Chance haben.

4. Formular statt Link.

Kommt halt darauf an, wie gross Du den Aufwand
fuer Dich und vor allem fuer die Benutzer machen willst,
und auch, was Du auf dem Server fuer Moeglichkeiten hast.

Sicher ist: Mit HTML alleine kommst Du nicht weit (ausser 4.) ...
Und alle Methoden haben so ihre Nachteile.

Gruesse,

Thomas

--
Bitte keine Mails mit Fachfragen - dafuer gibt es das Forum!
Ich mag es, wenn URLs verlinkt sind (</faq/#Q-19>).
Oft gestellte PHP-Fragen beantwortet die dclp-FAQ bestens: http://www.dclp-faq.de/