Hallo,
Gibt es eine möglichkeit per robots.txt den Suchmaschinen zu Verbieten diese Subdomain aufzunehmen??
Weil Google bei mir auch anfing, die Dokumente unter einer
"falschen" Subdomain anzuzeigen, habe ich mit PHP folgende
Loesung gebastelt:
Zeilen in der .htaccess im Hauptverzeichnis
--------------------------
RewriteEngine on
ReWriteRule ^robots.txt$ http://www.example.com/robots.php [L]
--------------------------
Datei robots.php im Hauptverzeichnis:
--------------------------
<script language="php">
$gmt_mtime = gmdate('D, d M Y H:i:s', getlastmod()) . ' GMT';
$lastmod_header = "Last-Modified: " . $gmt_mtime;
@header($lastmod_header);
@header("Content-Type: text/plain; charset=iso-8859-1");
$serververlangt=$_SERVER["HTTP_HOST"];
$urlrest=$_SERVER["REQUEST_URI"];
$kompletturl=$serververlangt.$urlrest;
if ($kompletturl=="www.example.com/robots.txt")
{
print ("\n");
print ("User-agent: *\n");
print ("Disallow: /bilder\n\n");
print ("# Alles andere darf von allen besucht werden... \n");
}
else
{
print ("\n");
if ($urlrest=="/robots.txt")
{
print ("User-agent: *\n");
print ("Disallow: /\n\n");
}
print ("# Nur Seiten unter http://www.example.com/ sollen durchsucht\n");
print ("# und indiziert werden.\n\n");
}
print ("# Verlangt: http://$kompletturl\n");
print ("\n");
</script>
--------------------------
Ich will, dass die Seiten nur mit URLs indiziert werden,
die mit dem Server "www.example.com/..." beginnen,
obwohl sie auch mit "example.com/..."
und "subdomain.example.com/..." aufgerufen werden koennen.
Somit sollte es bei Suchmaschinen, die sich an die robots.txt
halten, keine "Dubletten" geben. Lies auch:
http://www.kso.co.uk/de/tutorial/7-6.html
Gruesse,
Thomas