Michael Schröpl: Ein technisches Konzept zum juristisch sicheren Setzen von Links

Beitrag lesen

Hi Stefan,

Sollte es allerdings wirklich dazu kommen, dass es
idR unzulässig ist, Unterseiten direkt zu verlinken,
dann sehe ich schwarz für das WWW in der bisherigen
Form.

Ich nicht. Wer ist denn darauf angewiesen, auf seiner
Homepage Links auf kommerzielle Seiten zu setzen? Die
setzt man dann einfach nicht mehr.

Was mich interessieren würde, des ist eher folgendes:

1. Wäre es für solche Firmen, die deep linking verbie-
   ten, nicht schädlich, wenn als Reaktion darauf die
   Betreiber der großen Suchmaschinen deren Sites auf
   ihre schwarze Liste setzen (um das Risiko eines
   Rechtsstreites zu vermeiden)?
   Wer deep links verbietet, würde dann einfach von den
   Suchmaschinen nicht mehr gefunden - selber schuld.
   Da Suchmaschinen ja schon Spammer ausschließen,
   würden sie Firmen, die ihnen mit juristischem Ärger
   drohen, noch viel eher ausschließen.
   Umgekehrt: Wenn eine Suchmaschine deep links setzen
   darf, weil sie dynamische Seiten verwendet, dann
   verwende ich eben auch nur noch dynamische Seiten.

2. Sollte das W3C oder wer auch immer nicht mal eben
   ein Format spezifizieren, über welches ein Rechner
   via HTTP die Link-Politik eines anderen Servers
   abfragen kann?
   Ich denke da an etwas Ähnliches wie das Robots-
   Format; in diesem Falle _könnte_ Dein Server einen
   deep link nur nach vorheriger Abfrage dieser Link-
   Politik setzen, d. h. via SSI oder ähnlicher ser-
   verseitiger Intelligenz dynamisch einbinden.
   Auf diese Weise könnte sich der Anbieter juristisch
   absichern - er _kann_ den Link dann ja nicht gegen
   den Willen des Link-Ziels gesetzt haben, selbst
   wenn sich dieser Wille überraschend ändert (was ja
   bisher das Problem des Link-Setzers ist, der nicht
   ständig prüfen kann, ob seine Links noch legal sind).

3. Man könnte so etwas ggf. sogar in den Sprachumfang
   von HTML aufnehmen - ein zusätzlicher Parameter
   für Tags wie "<a>" etc., welcher den Browser zwingt,
   einen zusätzlichen HTTP-Request auf eine entweder
   per definiertem Namen (wie "robots.txt" oder
   "favicon.ico") oder angebbarem Parameterwert
   (schlechter, denn das könnte der Anbieter ändern)
   spezifizierte Datei durchzuführen und den Link im
   Browserfenster nur dann zu enablen, wenn er von
   der deeplink-Strategie des Ziel-Servers erlaubt
   wird.

In letzterem Falle wären die Homepage-Anbieter aus
dem Schneider, und die Verantwortung läge bei den
Browser-Herstellern.

Viele Grüße
      Michael