Websiete sperren
Theo
- html
Hi Alle,
ich habe eine Webseite die nur für interne Präsentationen dient. Trotz:
<meta name="robots" content="noindex, nofollow">
<meta name="robots" content="noarchive">
<meta name="cache-control" content="no-cache">
immer wieder bei den Suchmaschienen erscheint.
Kann mir jemand eine sichere Methode nennen, das die Webseite Gesperrt wird (egal wie)?
Danke
Hi.
robots.txt ist dein Stichwort. Wirkt auch bei archive.org.
vg Bud
nein, sorry aber die robots.txt habe ich schon.
Ich meine, es muss doch etwas geben, damit man gesperrt wird (richtig böse) oder so in der Art.
Danke Theo
Hallo Theo,
nein, sorry aber die robots.txt habe ich schon.
seltsam, wie lange ist die Seite schon per robots.txt und Meta-Angaben für die Suchmaschinen gesperrt?
Ich meine, es muss doch etwas geben, damit man gesperrt wird (richtig böse) oder so in der Art.
Passwortschutz.
Gruß, Jürgen
Hallo Theo,
nein, sorry aber die robots.txt habe ich schon.
seltsam, wie lange ist die Seite schon per robots.txt und Meta-Angaben für die Suchmaschinen gesperrt?
Ich meine, es muss doch etwas geben, damit man gesperrt wird (richtig böse) oder so in der Art.
Passwortschutz.
Gruß, Jürgen
sorry, aber es werden jeden Tag Webseiten gesperrt, was muss mann dafür machen.
Danke, für deine Tipps aber es sollte doch einfacher sein um Ärger bei den Suchmaschienen zu bekommen :)
Hi,
sorry, aber es werden jeden Tag Webseiten gesperrt,
aber nicht _global_, sondern nur in einzelnen Suchmaschinen. Das sind übrigens tendenziell auch die, die eine robots.txt etc. respektieren.
Danke, für deine Tipps aber es sollte doch einfacher sein um Ärger bei den Suchmaschienen zu bekommen :)
Wieso muss es eigentlich Ärger sein? Warum gehst Du nicht einfach zur jeweiligen Suchmaschine und schaust nach, ob sie Dir als Webmaster die Möglichkeit gibt Deine Website austragen zu lassen?
Cheatah
Gar nicht.
Ich kann doch deine Seite indizieren wie es mir passt - voellig unabhaengig von irgendwelchen Dateien oder Tags. Warum auch nicht?
Wenn Du das nicht willst, mach sie nicht oeffentlich zugaenglich.
Hi.
nein, sorry aber die robots.txt habe ich schon.
Ich meine, es muss doch etwas geben, damit man gesperrt wird (richtig böse) oder so in der Art.
Ich betreibe seit über einem Jahren zwei private Projekte und trotz einiger Links auf meine Seiten listet keine einzige Suchmaschine oder Archive.org auch nur ein einziges Wort.
vg Bud
Hi,
Ich meine, es muss doch etwas geben, damit man gesperrt wird (richtig böse) oder so in der Art.
sperre den HTTP-Zugriff, so dass HTTP-Clients wie Suchmaschinen-Robots und Browser die Inhalte nicht mehr erreichen können.
Cheatah
Hi,
ich habe eine Webseite die nur für interne Präsentationen dient.
Warum zum Geier ist die dann im *Inter*net verfuegbar?
MfG ChrisB