Hallo Meike,
"Sie hätte durch die Verwendung so genannter "robots.txt“-Dateien im Quellcode ihrer Webseite verhindern können, das ihre Inhalte von Suchmaschinen gefunden werden. "
Aha, programmieren muss man können, sonst darf man nicht ins Internet
oder ist selbst schuld ? Wer von den ganzen Upload, commumity usern weiss das denn?Also wenn ich zuhause kein Schild an der Türe mache,
"Klauen nicht erlaubt", kommen die Einrecher und nehmen alles mit
und bekommen vor Gericht soagr nooh recht?
Du vergleichst hier Dinge, die nicht zu vergleichen sind.
1. Die Präsentation deiner Daten auf deiner Webseite gleicht einer Veröffentlichung.
2. Suchmaschinen (da gibt es ja nicht nur Google, habe ich gehört) veröffentlichen nur die Daten, die du auf deiner Webseite freigibst.
3. Wenn du verhindern willst, dass diese (von dir veröffentlichten Daten!) in einer Suchmaschine auftauchen, kannst du dies durch eine robots.txt verhindern. Dazu ist im Übrigen keine Programmierung notwendig - es ist eine einfache Textdatei in einem bestimmten Format.
Ein besserer Vergleich wäre der folgende:
"Hier ist meine Wohnung. Kommt ruhig und schaut euch alle Räume an, die ich aufgeschlossen habe. Es ist aber verboten, etwas zu fotografieren oder mitzunehmen."
Der letzte Punkt entspricht der 'robots.txt'. Er ist aber gerade deshalb erforderlich, weil du zuvor _deine Inhalte veröffentlicht_ (hier: die offenen Räume) hast.
Aber dieser Vergleich hinkt ziemlich.
Grüße
Marc Reichelt || http://www.marcreichelt.de/
Linux is like a wigwam - no windows, no gates and an Apache inside!
Selfcode: ie:{ fl:| br:> va:} ls:< fo:} rl:( n4:( ss:) de:> js:| ch:? sh:| mo:) zu:)