Stefan Einspender: Ein technisches Konzept zum juristisch sicheren Setzen von Links

Beitrag lesen

Hallo Michael,

  1. Wäre es für solche Firmen, die deep linking verbie-
       ten, nicht schädlich, wenn als Reaktion darauf die
       Betreiber der großen Suchmaschinen deren Sites auf
       ihre schwarze Liste setzen (um das Risiko eines
       Rechtsstreites zu vermeiden)?

aus Betreiber-Sicht mag sowas sinnvoll sein, für mich als Nutzer
ist es ein Verlust, wenn zum Teil sehr hochwertige Angebote nicht
mehr erreichbar sind, weil der Betreiber Deep-Links verbietet
und/oder die Websites bei den Suchmaschinen auf einer Blacklist
stehen. Natürlich ist es auch zum Schaden des Anbieters (worüber
die sich scheinbar überhaupt nicht bewußt sind), aber meiner als
potentieller Besucher eben auch.

Umgekehrt: Wenn eine Suchmaschine deep links setzen
   darf, weil sie dynamische Seiten verwendet, dann
   verwende ich eben auch nur noch dynamische Seiten.

Wenn die Begründung so ist, dann wäre es in der Tat eine Möglich-
keit, allerdings befürchte ich, die Begründungen fallen weniger
technisch aus, da geht es mehr um juristische Spitzfindigkeiten.

  1. Sollte das W3C oder wer auch immer nicht mal eben
       ein Format spezifizieren, über welches ein Rechner
       via HTTP die Link-Politik eines anderen Servers
       abfragen kann?

Schöne Idee, nur leider praktisch nicht umsetzbar. Eine mögliche
Lösung des "Problemes" weiß ich leider auch nicht, vielleicht
fällt mir ja bei Gelegenheit etwas ein ;-)

  1. Man könnte so etwas ggf. sogar in den Sprachumfang
       von HTML aufnehmen - ein zusätzlicher Parameter
       für Tags wie "<a>" etc., welcher den Browser zwingt,
       einen zusätzlichen HTTP-Request auf eine entweder
       per definiertem Namen (wie "robots.txt" oder
       "favicon.ico") oder angebbarem Parameterwert
       (schlechter, denn das könnte der Anbieter ändern)
       spezifizierte Datei durchzuführen und den Link im
       Browserfenster nur dann zu enablen, wenn er von
       der deeplink-Strategie des Ziel-Servers erlaubt
       wird.

Diesen Ansatz finde ich schon besser, allerdings würde es Jahre
dauern, bis sich sowas durchsetzt und dann auch funktioniert.

Die einfachste Lösung ist es imho, wenn die Betreiber, die kein
Deep-Linking wünschen, einfache technische Massnahmen einsetzen,
die es zweifellos gibt, um es zu verhindern. Warum muß eine un-
bekannte Anzahl von Website-Betreibern etwas ändern (Parameter
einfügen, Links überprüfen), weil ein einzelner Anbieter etwas
nicht möchte? So etwas ist Unfug.

Referrer überprüfen und gegebenenfalls bei falschen Referrer auf
die Startseite umleiten ist sehr schnell realisiert. Und wenn
jemand meint, er müßte immer einen falschen Referrer ausliefern,
dann hat er eben ein Problem. Die paar Leute, die den Referrer
unterdrücken, die haben eben Glück und können Deep-Links weiter-
hin nutzen.
Ansonsten dann eben Sachen wie Cookies oder Session-IDs usw.

In letzterem Falle wären die Homepage-Anbieter aus
dem Schneider, und die Verantwortung läge bei den
Browser-Herstellern.

Es muß auf jeden Fall dazu kommen, dass die Homepage-Anbieter aus
der Verantwortung in diesem Zusammenhang genommen werden. Es ist
einfach nicht zumutbar, dass man ständig die Links überprüft und
es ist auch nicht praktikabel, generell nur Links auf die Homepage
eines Angebotes zu setzen.

Viele Grüße,
Stefan