no follow link
jeannie61
- html
Guten Morgen, an meine Seite habe ich ein Ordner der übungspass heisst. Dies ist der Bereich der Bezahlbar und und nur mit Passwörter zugängig ist. Auf alle meine Seiten führen links zu verschiedener Übungen innerhalb des übungspasses. Alle andere Übungen sind kostenlos. Nun möchte ich nicht, dass "google" diese Links folgt, weil er sieht sie als "401" an. Kann ich in mein robot.txt etwas schreiben damit er das nicht folgt und diese "401§ nicht mehr auftauchen?
Zum Beispiel:
<a href="http://www.website.com/" rel="nofollow">Link Text</a>
Allerdings mit meine Seite und übungspass link din? Würde das was bringen?
Vielen Dank, Jeannie
Guten Morgen,
Google und die anderen Suchmaschinen können sich dran halten, was sie in der Regel auch machen, müssen aber sich nicht dran halten.
Um auf Nummer sicher zu gehen schützt du die Seiten, die nicht aufgerufen werden sollen mit einem Passwort.
Moin,
dazu 2 Links:
Information von Google zu "nofollow"-Links
und
noindex, disallow über die robots.txt-Datei
Gruß Bobby
Hallo
an meine Seite habe ich ein Ordner der übungspass heisst. Dies ist der Bereich der Bezahlbar und und nur mit Passwörter zugängig ist. Auf alle meine Seiten führen links zu verschiedener Übungen innerhalb des übungspasses. Alle andere Übungen sind kostenlos.
Nun möchte ich nicht, dass "google" diese Links folgt, weil er sieht sie als "401" an. Kann ich in mein robot.txt etwas schreiben damit er das nicht folgt und diese "401§ nicht mehr auftauchen?
Klar. Du kannst in der robots.txt Dateien oder ganze Verzeichnisse bestimmen, die die Robots oder ein ganz bestimmter Robot nicht indizieren soll. Bedenke aber, dass das eine Empfehlung ist, der ein Roboter nicht folgen muss. Der GoogleBot tut das aber.
Zum Beispiel:
<a href="http://www.website.com/" rel="nofollow">Link Text</a>
Das hier hat mit der robots.txt bis auf den gemeinsamen Zweck, einen Roboter aufzufordern, dem Link nicht zu folgen, nichts zu tun. Damit das Attribut seinen Zweck erfüllt, muss es aber an jedem Link zu diesem Ziel verwendet werden. Sonst folgte der Roboter nicht diesem, aber einem anderen Link zu diesem, selben Ziel.
Tschö, Auge
Hallo Ihr Beiden, Also, wenn ich es richtig verstehe, musste ich diesen LInk:
<a href="http://www.website.com/" rel="nofollow">Link Text</a>
an jeden von meine Links tun, die in den Passwortbereich geht?
hallo
Hallo Ihr Beiden, Also, wenn ich es richtig verstehe, musste ich diesen LInk:
<a href="http://www.website.com/" rel="nofollow">Link Text</a>
an jeden von meine Links tun, die in den Passwortbereich geht?
Im Grunde kannst du in robots.txt gerade dieses directory explizit verbieten.
Wer die Regel im robots.txt nicht respektiert, wird auch rel="nofollow" nicht respektieren.
Du kannst sicher sein, dass alle Bots ab und zu ganz bewusst respektlos handeln. Und das ist nicht deine Schuld.
Ich verwende rel="nofollow garbage" mehr um den Leser zu orientieren (Link-Gestaltung via CSS).
Hallo
Also, wenn ich es richtig verstehe, musste ich diesen LInk:
<a href="http://www.website.com/" rel="nofollow">Link Text</a>
an jeden von meine Links tun, die in den Passwortbereich geht?
Das kannst und solltest du tun, um Programmen zu empfehlen, diesen Links nicht zu folgen. Das Gleiche tust du in der robots.txt, am besten für den ganzen nicht zu scannenden Bereich. Das ändert aber nichts daran, dass diese Angaben nicht mehr als Empfehlungscharakter haben. Wenn du den Zugriff wirksam regulieren willst, brauchst du, wie hier zumindest schon angedeutet wurde, einen Login oder einen Autorisierung per .htaccess.
Tschö, Auge
ja, das habe ich ja. Die Passwörter sind in meine htacces drin. Also theoretisch durfte google diese Links nicht mehr folgen??!!
Hallo
ja, das habe ich ja. Die Passwörter sind in meine htacces drin. Also theoretisch durfte google diese Links nicht mehr folgen??!!
Selbst, wenn der Googlebot oder irgendein anderer Robot dem Link folgt, bekommt er in Unkenntnis der passenden Zugangsdaten das zurück, was auch ein menschlicher Besucher deiner Seite ohne die passenden Zugangsdaten zurückbekommt. Er bekommt als Antwort den HTTP-Status „403 Forbidden“.
Du kannst also mit den diskutierten Maßnahmen die Wahrscheinlichkeit senken, dass ein Roboter einen 403-er Status auslöst; und das ist gut so [edit](Vermeidung unnötigen Traffics)[/edit] [1]. Wenn nun aber doch jemand/etwas dem Link folgt, ohne sich einloggen zu können, geht dabei per se nichts kaputt.
Tschö, Auge
[edit]Für's Archiv: Erklärung für „und das ist gut so“ eingefügt.[/edit] ↩︎
Recht vielen Dank 😉