hallo natascha,
du musst mit der robots.txt arbeiten.
dann einen ordner anlegen, wo alle html seiten drin stehen, die nicht vom spider durchsucht werden sollen
und in der robots. txt schreibst du dann disallow: /ordner
beispiel:robots.txt zu http://www.mein-name.de/
User-agent: UniservalRobot/1.0
User-agent: mein-Robot
Disallow: /quellen/dtd/
Allow: /quellen/dtd/index.html
User-agent: *
Disallow: /unsinn/
Disallow: /temp/
Disallow: /newsticker.shtml
mehr dazu kannst du im selfhtml-forum nachlesen
Vielen Dank, aber werden beim ausschliessen der Dateien auch noch die Inhalte von den Suchmaschinen-robots berücksichtigt. Ich hatte noch die Idee alle Text-Inhalte in einem noframe-Bereich in der index.html zu kopieren, sozusagen als "robot-Futter" - macht das überhaupt Sinn?
die Natascha