3vi1: robots.txt

Beitrag lesen

echo ($light == true) ? 'Guten Tag,' : 'Guten Abend,';

ich hatte mal das Problem das durch Force Download bei PDF Dokumenten in Verbindung mit mit relativen Links auf der Seite sehr seltsame Linkkonstrukte von den Suchmaschinen indiziert wurden.

Dadurch kam z.B. sowas zustande:
http://www.sudoku-space.de/sudoku-drucken.php/pdf/3-4-2008/pdf/13-4-2008/sudoku-hilfe.php

Mein Webserver (Lighttpd, k.a. ob das beim Apache auch so ist) hält alles hinter http://www.sudoku-space.de/sudoku-drucken.php/ für Parameter und gibt sudoku-drucken.php aus. Dadurch wurde die Datei X-Mal in den Suchmaschinenindex aufgenommen.

Kann man per Robots.txt es irgendwie hinbekommen, dass die Datei sudoku-drucken.php zwar erlaubt ist, aber sobald da noch irgendwas danach kommt verboten?

Ich habe das Problem schon durch das umstellen auf absolute Links gelöst aber wüsste es trotzdem gerne für die Zukunft ;)

Grüße

Markus

--
Langeweile? Sudoku online spielen ;)