Robert B.: Suchmaschinen-Management

Beitrag lesen

Moin fietur,

Alternativer Textinhalt wird auch von (Suchmaschinen-) Bots gefunden 😉
Noch einmal: Wenn Inhalte nur von Menschen gelesen werden können sollen, sorge dafür, dass nur Menschen den Zugang haben, z.B. über einen Account.

Mache ich auch so. Aber interessant sind auch die Grauzonen, und da kann es Alternativen geben. Nicht immer muss es eine Totalsperre sein. Beispiel Email oder Telefonnummern; hier machen schon von Menschen einfach zu überwindende Hürden, die aber von Bots nicht zu bewältigen sind, einen großen Unterschied. Und da gibt es auch viele Lösungen: Daten ohne Text als Grafik, CSS/Javascript-Tricks, Captchas... Nichts absolutes (außer vlt. "absolut bescheuerte Lösung" 😅), aber eben hilfreich.

Hürden sind Hürden und es gibt auch Menschen mit Beeinträchtigungen, für die diese Hürden zu hoch sind. Bots kann man nicht „110%ig“ aussperren, aber Menschen; Zugänglichkeit sollte trotz allem immer an erster Stelle stehen.

(Bots können z.B. Captchas mittlerweile besser und zuverlässiger lösen als Menschen.)

Da das Bild im Teaser jeweils das Interesse einfängt (die Wahrnehmungspsychologie und Lese-bereitschaft/-fähigkeit hat sich stark geändert) und den Löwenanteil an Bandbreite ausmacht, bringt es wenig, den Text-Inhalt nicht auch gleich mitzuliefern.

Das kommt auf die Bedeutung der Grafik an: Eine Vorschaugrafik kommt mit wenigen 10 Kilobyte aus, während eine große Artikelgrafik (z.B. ein Foto) auch deutlich größer sein kann. Wenn es SVG sind, wären die gleich groß.

Und da viele Beiträge nur wenige Wochen aktuell sind, werden auch keine eigenen URL's benötigt. Indirekt existieren diese allerdings schon (zugangsbeschränkt) als archivierte PDF's.

Kann es sein, dass du eigentlich so etwas wie „Fernsehen“ haben möchtest (im Idealfall noch ohne Videorecorder, aber zugangsbeschränkter Mediathek)? Dafür ist das Web konzeptionell nicht gedacht und gemacht.

Wenn es für das Publikum in Ordnung ist, nur die summary zu haben und dann ggf. alle details aufzuklappen, dann wird das wohl so sein.

Ja, komischerweise werden diese Klicks nicht als solche wahrgenommen, während schon die Auswahl in einem Untermenu das Interesse deutlich verringert.

Wenn ich Äpfel mag, interessieren mich Birnen vielleicht auch weniger 😉

Mit den von mir angeführten Beispiel-Suchbegriffen findest du mit jeder relevanten Suchmaschine (Beispiele habe ich ebenfalls aufgeführt) die Antworten auf beide Fragen – bzw. die Antwort auf die zweite Frage taucht ja schon in deinem Ausgangspost.

Und dort bin ich jetzt auch fündig geworden. Ein Lösungsvorschlag ist die Nutzung von (robots.txt-"gesperrten") iframes, ein weiterer spielt mit dem nachträglichen Javascript-gesteuertem, Einblenden des mit display:none ausgeblendeten Inhalts (was nicht mehr funktioniert, da Google z.B. jetzt auch JS ausführen soll).

Joah, Google führt JavaScript aus, hält sich aber an die robots.txt – das sollte ja nun keine schwierige Entscheidung sein. Und wer sich nicht an die robots.txt hält, ignoriert auch display: none, ja sogar HTML-Kommentare (Beweis: in einem HTML-Kommentar eine URL notieren und dann beobachten, wer diese abfragt).

Und dann die reine CSS-Lösung, bei der die Bereiche ebenfalls mit display:none herausgenommen werden. In einem externen CSS, das via robots.txt gegen die Einsicht durch Crawler geschützt ist, wird der display-Wert wieder überschrieben. Für mein Ziel (bestimmte Inhalte nicht bei Google oder Bing wiederzufinden) könnte das ausreichend sein, ich werde es mal so versuchen.

Ich wage zu bezweifeln, dass das von Erfolg gekrönt ist. CSS-Dateien werden ja nicht wegen textueller Information abgefragt, sondern zur Darstellung. Wenn da jetzt aber „sehr viel“ versteckter Inhalt ist, könnten das Suchmaschinen als Täuschungsversuch auffassen und sehr zuverlässig deine Seite ignorieren: durch Ausschluss wegen Täuschung. Aber das könntest du auch billiger haben:

User-Agent: *
Disallow: /

Viele Grüße
Robert