Guten Morgen Wolf,
wie hab ich das zu verstehen. Beim Aufruf der URL ist der Zugang korrekt und nur beim Zugriffsversuch uber eine SuMa kommt 404? Interessant. Bitte um Antwort.
Der Weg ist an sich nicht mal schlecht. Suchrobots haben die Freundlichkeit sich durch einen User-Agent auszuzeichen. Daran kann man sie also identifizieren. Du solltest Dich also bei den einzelnen Suchmaschinen erkundigen, wie ihr aktueller User-Agent-String aussieht und mit einem serverseitigem Script im Falle, daß der Zugriff von einem Robot erfolgte einfach einen Status 404 ausgeben lassen.
Auch der Einsatz der robots.txt kann hilfreich sein http://de.selfhtml.org/diverses/robots.htm, sowie <meta name="robots" content="noindex"> http://de.selfhtml.org/html/kopfdaten/meta.htm#robots.
Jedoch wird Dein Problem am gründlichsten gelöst durch Kontakt zu den Suchmaschinenbetreibern.
Eddies Vorschlag (https://forum.selfhtml.org/?t=89532&m=535345) dagegen zieht auf die Besucher ab, die von Suchmaschienen kommen. Wenn ich Dich aber richtig verstanden haben, willst Du die Einträge an sich gelöscht wissen.
Gruß aus Berlin!
eddi
at, wie er leibt und lebt auf ein Posting
> > Nein, ich denke nicht.
gepromptet
> Das empfiehlt sich aber.
:))))