Erhard_Rainer: Informationen "Parsen" & Dateien Downloaden automatisieren

Beitrag lesen

Hej Forum,

mich bewegen gerade zwei Fragen, wo ich mir nicht ganz sicher bin, ob ich das darf oder nicht.

[x] mir ganz privat
  [] z.B. Besuchern auf meiner Seite
privat kannst du mit den Informationen machen, was du willst (naja fast). Sofern du aber die Daten anderen zur Verfügung stellst, schlägt jedenfalls das Urheberrecht zu. Ob das im konkreten Fall erlaubt ist, hängt einerseits davon ab, in welchem Verhältnis du zum Urheber steht (eventuell Wettbewerbsverzerrung - dann wird's teuer) und wie du die Daten aufbereitest. Ist der eigentliche Urheber noch ersichtlich usw. Wenn du beispielsweise Informationen von Google oder Amazon parsen willst ist es weitaus unproblematischer als wenn du beispielsweise die Informationen der Encyclopedia Britannica aufbereitest. Jedenfalls muß die eigentliche Quelle ersichtlich sein. Das ist sogar bei GNU-Lizenzen (zB wikipedia) erforderlich.

  1. Darf ich mit einem selbstgeschriebenen Programm ein Serververzeichnis durchsuchen und mir alles runterladen was ich finde?

Warum denn selbst programmieren? Mit einer Batch-Datei und wget
ist das in ein paar Zeilen erledigt.

Darf ich das auch nach einer BruteForce-Methode tun?

meines Ermessens nach schon, sofern du die Urheberrechte bewahrst
spricht eigentlich nichts dagegen. Ungern gesehen und rechtlich nicht ganz klar ist die Sache, wenn du die robot.txt umgehst. Du solltest dich aber nicht wundern, wenn du - auch wenn es legal ist - schnell mal gesperrt wirst. Ich würde da sehr vorsichtig sein, und vielleicht beim eigenen Server anfangen.

ich sehe da kein Problem dabei, sofern du die Urheberrechte beachtest. Es spricht auch nichts dagegen, häufig besuchte Webseiten lokal zu spielgel. Das muß nicht zwangsweise mehr Traffic verursachen, als wie wenn du die HP oft besuchtst. Schlussendlich ist es nur eine Frage, was du damit machst - ob du offline oder online browst ist da zweitrangig. Theoretisch kannst du dir deine eigene "private" Suchmaschine bauen, wenn du tausende Seiten spiegelst und volltextindizierst. Ich persönlich habe einige GB mit gespiegelten und volltextindizierten Seiten auf meinem Computer. Im Zuge einer wissenschaftlichen Arbeit darfst du sogar im Rahmen des "Großzitats" diese Quellen weitergeben, wenn diese beispielsweise nicht mehr in dieser Form in Netz vorhanden sind. Wie sonst kannst du beweisen, daß du richtig zitierst. Es muß jedenfalls der Urheber ersichtlich sein. Sicherheitshaber würde ich sogar das Datum der Spiegelung vermerken. Ich lasse mir das mit wget in ein Log-File schreiben. Ich weiß das auf der Uni viele so arbeiten, denn wer weiß ob ein paar Tage später die Informationen überhaupt noch im Netz sind. Denn nichts ist blöder als wenn man Fußnoten in der Diplomarbeit hat, die auf nicht mehr existente Seiten verweisen.