Hi,
Ist in AT nichts neues. In AT arbeiten in der Nationalbibliothek schon seit einem guten Jahr ein paar Leute an dem Thema. Es soll ein Suchroboter verwendet werden um die ganzen Seiten abzugrasen und zu archivieren.
die haben wenigstens nachgedacht und eine sinnvolle Lösungsmöglichkeit ins Auge gefasst.
Google oder archive.org zeigen doch bereits, dass eine Archivierung ohne Aufwand für die Bürger/Webseitenbetreiber möglich ist. Eine Pflicht zur Meldung der URL zum Seitenangebot sollte mMn völlig ausreichen und würde sogar für die Nationalbibliohek von Vorteil sein, denn die könnte ab sofort die URLs speichern und in Ruhe einen Spider und Archivierungsprogramme erstellen, ohne sich Gedanken über Auswertung der diversen Mitteilungsformate machen zu müssen.
Davon abgesehen verstehe ich die Verordnung auch so, dass sogar serverseitige Scripts abgeliefert werden sollen, die ja öffentlich gar nicht einsehbar sind, sondern lediglich deren Funktionalitäten. Ob das wirklich rechtens ist?
freundliche Grüße
Ingo