Hallo,
sollte es so funktionieren??
Wie schon cheatah schrieb: Probier es einfach aus.
Bzw was muss ich tun, wenn ich mehrere Domains habe und all diese Domains gelistet werden sollen bis auf die Subdomains.
Statt nur zu schauen, ob die URL genau mit einem String
identisch ist, musst Du schauen, ob sie in einer Menge
von "erlaubten" URLs enthalten ist oder nicht.
Wenn ja, gibst Du die "erlaubt" Variante der robots.txt aus,
wenn nein, die "verboten" Variante.
Das geht z.B. mit einer SWITCH/CASE Konstruktion,
oder auch mit einem assoziativen Array, z.B. so:
unset($ok);
$ok["www.example.org/robots.txt"]=true;
$ok["www.example.net/robots.txt"]=true;
$ok["www.example.com/robots.txt"]=true;
$ok["tests.example.com/robots.txt"]=true;
if (isset($ok[$kompletturl]))
{ /* "Erlaubt" Variante */ }
else
{ /* "Verboten" Variante */ }
---
Du solltest in Beispielen nicht www.meinedomain.de verwenden,
sondern www.example.com.
meinedomain.de kann jemandem gehoeren, example.com/.org/.net
sind explizit fuer Beispiele vorgesehen.
Gruesse,
Thomas
P.S. Wie Du aus einer URL einen klickbaren Link machen kannst,
steht in der FAQ: </faq/#Q-19>