Tote Links zu meiner Seite aufspüren mit Google Search Console
oxo888oxo
- links
Hallo
Ich meine mich zu erinnern, dass man mit der Google Search Console kaputte Links zu meiner Webseite aufspüren konnte.
Also ich meine Links irgendwo im Web, die zu einer meiner nicht mehr existierenden Unter-Seiten verlinken.
Ich suche hier in der Google Search Console schon eine ganze Weile herum, kann es aber nicht mehr finden? Könnte Ihr mir evtl. helfen, wo diese "Funktion" versteckt ist?
Gruß Ingo
Ich suche hier in der Google Search Console schon eine ganze Weile herum
Wenn es sowas gibt, dann im Menü links: Index → Abdeckung. Hast du links kein Menü, dann verwende ein „Nicht-Hosentaschen-Anzeigegerät“.
Scrabbeln:Raketensuchmaschinengeneralinspektor:58Punkte
Die andere Lösung ist übrigens, statt einer statischen 404er Fehlerseite z.B. ein PHP-Skript einzurichten, welches die aufgerufene URL - und, so lange es den noch gibt, den Referer loggt.
Die „Search Console“ betreffs 404ern zu befragen ist ungefähr die schlechteste Idee.
Die andere Lösung ist übrigens, statt einer statischen 404er Fehlerseite z.B. ein PHP-Skript einzurichten, welches die aufgerufene URL - und, so lange es den noch gibt, den Referer loggt.
- Allerdings solltest Du nicht vergessen, für das Logfile eine Größenbeschränkung einzubauen (z.B. nach Zeilen?).
- Ebenso kann man das Skript verwenden um die Angriffen vorausgehenden Scans nach verletzbaren Skripten automatisch zu detektieren (und z.B. die verwendete IP temporär (1h reicht regelmäßig) zu sperren). Komm aber nicht auf die Idee, Dir jedes Mal ein Mail senden zu lassen, das macht nur nervös.
- Ferner kannst Du in dem Skript auch eine von der angeforderten URL abhängige Weiterleitung oder Suche in der Webseite integrieren.
Die „Search Console“ betreffs 404ern zu befragen ist ungefähr die schlechteste Idee.
Wunderbar. genau so habe ich das jetzt auch umgesetzt. Danke Dir.
Die andere Lösung ist übrigens, statt einer statischen 404er Fehlerseite z.B. ein PHP-Skript einzurichten, welches die aufgerufene URL - und, so lange es den noch gibt, den Referer loggt.
- Allerdings solltest Du nicht vergessen, für das Logfile eine Größenbeschränkung einzubauen (z.B. nach Zeilen?).
... oder es Logrotate überlassen, das File zu kappen, zu komprimieren und später zu löschen.
LG Ralf
... oder es Logrotate überlassen
Ja ... meine Antwort war „für das Massenhosting optimiert“. Da fehlen halt Rechte für sowas.
... Denn sonst könnte ja man einfach das existierende Logfile nach den 404ern greppen.
Die „Search Console“ betreffs 404ern zu befragen ist ungefähr die schlechteste Idee.
Soweit man die „Search Console“ ohnehin verwendet, ist es eine sehr bequeme Option.
Soweit man die „Search Console“ ohnehin verwendet, ist es eine sehr bequeme Option.
Ja, ich verwende die immer wieder mal. Dort werden dann aber ja nur die toten URLs erfasst, die Google auch versucht hat zu crawlen.
Mit der Script Lösung in der 4040-Seite erfasse ich ja auch die Klicks auf toten Links, die Google vielleicht noch garnicht kennt.
Und aufgrund hon https gibt es ja leider eh kaum noch Referrer, wo ich damals immer schön erkennen konnte, wo der Link sich befindet.
Hallo,
Die andere Lösung ist übrigens, statt einer statischen 404er Fehlerseite z.B. ein PHP-Skript einzurichten, welches die aufgerufene URL - und, so lange es den noch gibt, den Referer loggt.
aber nur, wenn die alte Domain noch existiert und man noch Zugriff auf den damit verbundenen Server hat. Ich hatte Ingos Frage aber so verstanden, dass das eben nicht der Fall ist. Denn sonst könnte man als Triviallösung ja auch die Logfiles anschauen[1].
Live long and pros healthy,
Martin
Ein Hoster, der seinen Kunden nicht wenigstens lesenden Zugriff auf die Logfiles ihres eigenen Hosting-Pakets gewährt, sollte sich schämen. ↩︎
Hallo @Martin
Doch doch. Ich habe Zugriff. Das mit den Logfiles werde ich auch mal checken. Danke für den Hinweis.
Gruß aus Münster Ingo Siemon