Robert B.: Suchmaschinen-Management

Beitrag lesen

Moin fietur,

Aber es gibt Fallstricke. Ich habe beispielsweise für manche Beiträge eine Bewertungsfunktion in Form zweier als Buttons getarnter Links.

Buttons sollten auch Buttons sein und Aktionen, die etwas auf dem Server ändern, sollten niemals per GET ausgeführt werden können. Mit anderen Worten: Mach aus den „Links“ echte Buttons in einem Formular, das einen POST-Request absendet und verhindere auf dem Server CSRF.

Nicht immer ist das was soll auch das Sinnvollste. Ein Formular kann nicht überall eingebunden werden (zB. nicht in einer Tabelle.

Es darf aber auch in einer Tabelle enthalten.

Die benötigten Parameter aus meinen Links werden nicht mittels GET-Schema übermittelt, sondern werden aus dem URL extrahiert.

Und wie sieht der Request an den Server aus? Richtig, HTTP GET. GET ist die HTTP-Methode und da spielt die komplette URL eine Rolle und ich kann diese URL einfach aufrufen, sogar aus der Adresszeile des Browsers.

GET sind nicht ausschließlich die URL-Parameter!

Sollte ein Robot einen dieser Links anwählen (und sich für das voten des anderen disqualifizieren), verfälscht das die Bewertung und Beteiligung. Hier wäre ein rel="nofollow" im <a href=...> das Mittel der Wahl, oder?

Nein, denn es ist immer noch nur eine Bitte an einen Client.

An die sich die zahlenmäßig meisten Suchmaschinen halten. Aber danke, wieder ein Brett vorm Kopf entfernt; die Buttons werden also in ein Formular gepackt. Damit sollte das Voten durc Crawler der Vergangenheit angehören.

Und die Formulare werden per HTTP POST übertragen. Damit zählt nicht jeder Besuch der Seite als Stimme.

Und hier lautet meine Frage: Wie kann ich für solche <article> ein Finetuning vornehmen, so dass Google und Co einzelne davon indizieren, andere aber links liegen lassen?

Hast du einmal eine Suchmaschine deiner Wahl danach befragt?

Mein Verhältnis zu "intelligenten" Suchmaschinen ist eher gespalten. Meine Prompt-Fähigkeiten sind grottig.

Ein guter Anfang ist schon einmal, sein Anliegen passend zu formulieren, optimal ist Englisch, also z.B. nach robot index only part of page oder exclude part of page from robots. Und damit finde ich z.B. bei Duckduckgo vieles, aber nichts was darauf hindeutet, dass dein Anliegen funktioniert (außer mit Iframes). Bei Startpage sieht es ähnlich aus.

Ich finde immer nur Antworten, die sich auf die Indexierung ganzer Seiten beziehen. Ich suche allerdings eine Lösung dafür, von einer Seite nur bestimmte Bereiche auszunehmen. Das muss nicht vollständig wasserdicht sein.

Hm, wenn es keine Dokumente für dein Anliegen gibt, dann könnte das daran liegen, dass es nicht vorgesehen ist. „Geht nicht“ ist zwar keine zufriedenstellende, aber valide Antwort.

Von allein kommen mir zwar ein paar kreative Ideen, aber die haben andere Nachteile. Eine Lösung wäre z.B. die entsprechenden Beiträge als SVG einzubinden und die Indexierung von SVG-Content als unerwünscht zu kennzeichnen.

Und Screenreader gehen dann auch leer aus.

Irgendwelche Ideen?

Inhalte, die nicht indiziert werden sollen, auf eigene Seiten auslagern. Wenn du mehrere article auf einer Seite hast, ist eh die Frage, wie viel Inhalt da auf einer Seite angeboten werden soll.

Viele Grüße
Robert