frankx: copy() mit Wildcard

Beitrag lesen

Hellihello

Es gibt doch auch Browsertools, die Webseiten komplett mit Unterordnern runterladen. Für die private Abspeicherung (das macht der cache ja auch) gibt das doch kein Problem, oder?

Ja, aber die greifen nur auf die in den seiten selber verlinkten Ressourcen zu. Dabei können bei schlecht gepflegten Webseiten zwar auch etliche Fehlversuche entstehen, aber normalerweise sollten die schon zu vorhandenen Ressourcen führen.

Grabben aber trotzdem, gelle?

Unter "Grabben" versteht man i.d.R. den nicht bestimmungsgemäßen, möglichst vollständigen (organisierten) Abgriff aller vorhandenen Daten in strukturierten Datensammlungen, die nicht als Gesmatangebot (verlinkt) vorliegen, also Datenbanken.

Wenn ich alle Google-Ergebnisse zu einem Suchewort mittels eines Scriptes (statt das mit der Hand durchzuklicken) "abgreife", wäre das so ein Fall?

Kann ein Veröffentlicher denn den User auf eine "Bestimmungsmäßigkeit" festlegen. Ich könnte ja auch mit eine bild-Zeitung Dinge tun, die so von der Bild-Zeitung nicht gedacht waren.

Das fällt dann bereits unter Computer-Kriminalität und kann zum Offizialdelikt gereichen.

Wo fängt die denn an? Beim Abgreifen wirklich? Oder erst beim wiederveröffentlichen? Also liegt bereits eine Straftat vor, wenn die Angebote meiner Datenbank - die dann ja irgendwie schon komplett verlinkt irgendwie vorliegen, fragt sich nur, wie und auf welchem weg man sich durch die komplette Seite klickt - anders als durch Browserclients systematisch abgesucht werden? Wo ist der Unterschied zu robots dann? Klar ist mir, dass Datenbanken als Gesamtwerk auch urheberrechtlichen Schutz genießen können. Aber gerade da bezieht sich das ja vermutlich weniger auf das komplette Abgreifen/Abspeichern sondern vielmehr auf ein (unerlaubtes) Wiederveröffentlichen.

Dank und Gruß,

frankx

--
tryin to multitain  - Globus = Planet != Welt