Alternativer Textinhalt wird auch von (Suchmaschinen-) Bots gefunden 😉
Noch einmal: Wenn Inhalte nur von Menschen gelesen werden können sollen, sorge dafür, dass nur Menschen den Zugang haben, z.B. über einen Account.
Mache ich auch so. Aber interessant sind auch die Grauzonen, und da kann es Alternativen geben. Nicht immer muss es eine Totalsperre sein. Beispiel Email oder Telefonnummern; hier machen schon von Menschen einfach zu überwindende Hürden, die aber von Bots nicht zu bewältigen sind, einen großen Unterschied. Und da gibt es auch viele Lösungen: Daten ohne Text als Grafik, CSS/Javascript-Tricks, Captchas... Nichts absolutes (außer vlt. "absolut bescheuerte Lösung" 😅), aber eben hilfreich.
Ohne die Seite zu kennen, kann ich dazu nicht mehr sagen, stelle aber die Frage, ob das eine sinnvolle Usability ist. „Typisch“ wäre ja eher eine Übersicht á la
Titel [mit Artikellink] ======================= (ggf. Meta-Daten wie Datum, Autor, Kategorien, … Teaser/Zusammenfassung ggf. mit kleinem Vorschau-/Teaser-Bild … (ggf. noch ein Link zum „Weiterlesen“)
Und genau das - mit Ausnahme eines festen Links - ist auch bei mir der Fall. Da das Bild im Teaser jeweils das Interesse einfängt (die Wahrnehmungspsychologie und Lese-bereitschaft/-fähigkeit hat sich stark geändert) und den Löwenanteil an Bandbreite ausmacht, bringt es wenig, den Text-Inhalt nicht auch gleich mitzuliefern. Und da viele Beiträge nur wenige Wochen aktuell sind, werden auch keine eigenen URL's benötigt. Indirekt existieren diese allerdings schon (zugangsbeschränkt) als archivierte PDF's.
Wenn es für das Publikum in Ordnung ist, nur die
summary
zu haben und dann ggf. alledetails
aufzuklappen, dann wird das wohl so sein.
Ja, komischerweise werden diese Klicks nicht als solche wahrgenommen, während schon die Auswahl in einem Untermenu das Interesse deutlich verringert.
Mit den von mir angeführten Beispiel-Suchbegriffen findest du mit jeder relevanten Suchmaschine (Beispiele habe ich ebenfalls aufgeführt) die Antworten auf beide Fragen – bzw. die Antwort auf die zweite Frage taucht ja schon in deinem Ausgangspost.
Und dort bin ich jetzt auch fündig geworden. Ein Lösungsvorschlag ist die Nutzung von (robots.txt-"gesperrten") iframes, ein weiterer spielt mit dem nachträglichen Javascript-gesteuertem, Einblenden des mit display:none
ausgeblendeten Inhalts (was nicht mehr funktioniert, da Google z.B. jetzt auch JS ausführen soll).
Und dann die reine CSS-Lösung, bei der die Bereiche ebenfalls mit display:none
herausgenommen werden. In einem externen CSS, das via robots.txt gegen die Einsicht durch Crawler geschützt ist, wird der display
-Wert wieder überschrieben. Für mein Ziel (bestimmte Inhalte nicht bei Google oder Bing wiederzufinden) könnte das ausreichend sein, ich werde es mal so versuchen.
Auf jeden Fall danke ich dir für den Schubs in die richtige Richtung.