Sven Rautenberg: Url abfangen

Beitrag lesen

Moin!

ich sitze gerade an einem Relaunch eines Webprojekt, bei dem die alten Seiten nicht mehr verhanden sein werden. Ich möchte aber alles Google links mitnehmen. Ich habe bereits eine htaccess mit einer rewriteRule 301. Die bezieht sich allerdings auf die domain an sich und verweist alle "gegoogelten" Einträge auf ne 404. Und jetzt kommts.
Ich möchte dem Besucher im Text dieser Seite die URL anzeigen, die er in Google angeklickt hat und ihn auf die Startseite verweisen.

Wie "fange" ich die Url ab und gebe sie aus?

Bsp.: Sie haben domain.tld/unterverzeichnis_eins/unterverzeichnis_zwei ausgewählt. Leider existiert.....

Dadurch dürften die Einträge erstmal in Google bleiben und die 404 Seite nicht als double content angezeigt werden. Das ist der Grund für die Maßnahme.

Wird nicht funktionieren. Der Google-Bot wird die alten URLs auch irgendwann wieder aufrufen. Dann bemerkt er eine Weiterleitung auf eine Seite mit Status 404 - die Seite gibts also nicht mehr. Und dementsprechend wird sie aus dem Index geworfen.

Wenn du dem Besucher einen guten Service bieten willst, dann bietest du für sämtliche alten URLs, die inhaltlich weiterbestehen, einen permanenten Redirect auf die neue URL an (das nutzt Google dann auch zum Update der URL in dem Suchergebnis, unter Beibehaltung der Pageranks etc.), und für alle Seiten, die nicht mehr weiter bestehen, lieferst du keinen Status 404, sondern Status 410 - auf der Seite kannst du dann dem menschlichen Besucher erklären, dass die von ihm aufgerufene Seite nicht mehr da ist (die URL an dieser Stelle zu nennen hielte ich für überflüssig - die interessiert ihn nicht wirklich, und wenn er sie wissen wollte, könnte er zurück zu Google und sie nochmal angucken) und er auf die Startseite gehen könnte. Und die Suchmaschinenbots erkennen am Status 410, dass dieses Suchergebnis absichtlich vom Server entfernt wurde, und löschen es noch deutlich schneller aus dem Index.

Double Content ist übrigens kein Problem für Suchmaschinen. Er führt auch zu keinerlei Bestrafung. Suchmaschinen möchten lediglich keine inhaltlich identischen, doppelten Seiten in den Suchergebnissen anzeigen, und filtern deshalb die Duplikate heraus. Relevant wird das Thema dann, wenn man als Anbieter beeinflussen möchte, welches Ergebnis übrig bleiben soll.

- Sven Rautenberg