Ferdinand: Wie alle Http-Links aus Datei extrahieren?

Hallo,

für einen Kunden soll ich eine vorgegebene HTML-Datei x.html, die
über ein ASP-Script dynamisch erzeugt wird, übernehmen und

1. Alle externen http://wwww.... Links aus x.html extrahieren

und diese

2. nach vorgegebenen Kriterien gruppieren und

3. Daraus wieder eine neue HTML-Datei zusammenschrauben.

Verwendbar sind PHP 4 und/oder Javascript, auf den ASP-Server habe
ich keinen Zugriff.

Dumme Frage, wie mach ich das am Geschicktesten?

Habe JS und relationale Ausdrücke probiert, z.B.

s=dateiinhalt_von_x_html;
Suchausdruck.exec(s);

Die Parameter RegExp.$1 etc. geben aber meines Wissens nur die
ersten 9 Suchergebnisse zurück. x.html kann aber bis zu 50 externe
Linkadressen haben.

Hat jemand eine Idee wie das Extrahieren der externen Links
auf elegante Art und Weise zu lösen ist?

Danke

Ferdinand

  1. Hi,

    Die Parameter RegExp.$1 etc. geben aber meines Wissens nur die
    ersten 9 Suchergebnisse zurück.

    die ersten 9 _Klammern_ innerhalb _eines_ Suchergebnisses. Du musst die Suche mit Parameter /g wiederholen, bis es kein Ergebnis mehr gibt.

    Cheatah

    --
    X-Will-Answer-Email: No