Schon versucht, die Header von den Seiten einzulesen und evtl die Informationsmetas durchzuforsten.
if(is_file("http://www.irgendneseite.de/index.html"))
$datei = fopen("http://www.irgendneseite.de/index.html","r")
elseif(is_file("http://www.irgendneseite.de/index.php"))
$datei = fopen("http://www.irgendneseite.de/index.php","r")
for($i=0;$i<20;$i++)
{
$zeilen[i] = fgets($datei,200000000)
}
Anstatt der Url kannst du ja auch die Variable, die vorher einen Link abgefangen hat, eintragen. Solltest dann nur zwischen html-Index und PHP-index switchen.
Sollte das funktionieren (habs noch nie probiert), kannst du nach <meta angaben suchen, die die Stichwörter der Seite beinhalten. Somit kannst du das alles abfangen.
Sher gerne wird da aber auch so getrennt: Info , nächste Info , nächste Info
Sodass man nach dem Splitten ggf. noch mit trim() nachgreifen muss.
MFG
Griever