dave: robots.txt wird von Google ignoriert

Beitrag lesen

Hi,

Mach dich nicht lächerlich

Ich mach mich lächerlich wenn _ich_ will! :-P

Also ich wäre dankbar für einen Link.

Es gibt sogar ein offizielle Statements von Google daz:
http://googlewebmastercentral-de.blogspot.com/2008/06/duplicate-content-aufgrund-von-scraper.html

http://googlewebmastercentral-de.blogspot.com/2007/03/duplicate-content-best-practice-bei_08.html

Bei welchem der Links wird jetzt gesagt dass duplicate content nicht abgestraft wird?
Das steht nur dass sich google recht sicher ist die Seite zu finden, die den original-Inhalt hat.

Vielleicht bin ich nicht zu doof zum Suchen, sondern zum Lesen?

~dave