Natascha: Framesets und Suchmaschinen

Beitrag lesen

hallo natascha,
du musst mit der robots.txt arbeiten.
dann einen ordner anlegen, wo alle html seiten drin stehen, die nicht vom spider durchsucht werden sollen
und in der robots. txt schreibst du dann disallow: /ordner
beispiel:

robots.txt zu http://www.mein-name.de/

User-agent: UniservalRobot/1.0
User-agent: mein-Robot
Disallow: /quellen/dtd/
Allow: /quellen/dtd/index.html

User-agent: *
Disallow: /unsinn/
Disallow: /temp/
Disallow: /newsticker.shtml

mehr dazu kannst du im selfhtml-forum nachlesen

Vielen Dank, aber werden beim ausschliessen der Dateien auch noch die Inhalte von den Suchmaschinen-robots berücksichtigt. Ich hatte noch die Idee alle Text-Inhalte in einem noframe-Bereich in der index.html zu kopieren, sozusagen als "robot-Futter" - macht das überhaupt Sinn?

die Natascha