Hi Jannes!
ist meiner Erfahrung nach totaler Humbug. In den Errorlogs meiner Webseite finden sich in hübscher Regelmäßigkeit Googlebots, die URLs suchen, die zum Teil seit 7 Jahren nicht mehr existieren. Soviel zum Thema: werden jetzt bei unserem nächsten Web-Durchgang aus dem Index meistens "entfernt"
Wie Google seinen Index erstellt und "aufräumt" bleibt nunmal ihre Sache und man kann sich diesbezüglich nur auf das verlassen, was sie einem an Informationen geben.
Es gibt aber auch einige Dinge, die man selber tun kann, bzw. in jedem Fall machen sollte:
- robots.txt für die relevanten Verzeichnisse erstellen
- passende HTTP-Header senden (z.B. 410 Gone)
Ich würde aktuell mal stark davon ausgehen, dass Google solche Informationen in geeigneter Weise "auswertet/ berücksichtigt".
Und wenn alles nichts hilft, könnte man auch noch versuchen, sich hilfesuchend an Google selber zu wenden (keine Ahnung, ob das was bringt, aber einen Versuch sollte es wert sein).
Gruß Gunther