Hallo,
ich würde gerne wissen, wie sich diverse suchmaschinen (insbesondere
google) zu erkennen geben, wenn sie eine seite "besuchen".
Das erkennst du am UserAgent.
sinn und zweck der sache: der spider der suchmaschine soll nicht
alles zu lesen bekommen. und dafür möchte ich gerne einen filter
programmieren.
Für solche Sachen fliegst du bei Google aus dem Index,
verwende stattdessen die robots.txt, wenn du darauf keinen
Zugriff hast, vergiss es.
Gruß
Alexander Brock
--
SelfCode: sh:( fo:) ch:? rl:( br:> n4:? ie:{ mo:} va:) de:> zu:| fl:{ ss:( ls:[ js:(
http://emmanuel.dammerer.at/selfcode.html
Deshalb können Pinguine nicht fliegen:
Was nicht fliegt kann auch nicht abstürzen
<img src="http://www.againsttcpa.com/images/AgainstTCPA-Log01Small.gif" border="0" alt="">
http://againsttcpa.com
SelfCode: sh:( fo:) ch:? rl:( br:> n4:? ie:{ mo:} va:) de:> zu:| fl:{ ss:( ls:[ js:(
http://emmanuel.dammerer.at/selfcode.html
Deshalb können Pinguine nicht fliegen:
Was nicht fliegt kann auch nicht abstürzen
<img src="http://www.againsttcpa.com/images/AgainstTCPA-Log01Small.gif" border="0" alt="">
http://againsttcpa.com