Robbe: Spider Problem

Hallo selfer :],

Ich möchte mit einem irdendeinem Spider-Programm folgendes realisieren:

  • Druchlaufe eine URL und checke alle vorhanden internen Links auf bel. vielen Unterseiten..
  • Dabei soll nur der Title der generierten HTML-Seiten in einer Liste (am besten csv) sowie der Link selber als ein Datensatz in der Datei gespeichert werden.

Kennt da jmd. ein Programm mit dem man dieses Problem realisieren kann - ich wäre euch sehr dankbar - habe den ganzen Tag heut nach so einem Programm gschaut - mit negativem ergebniss :((?

cya =),
Robbe.

  1. hi,

    Kennt da jmd. ein Programm mit dem man dieses Problem realisieren kann - ich wäre euch sehr dankbar - habe den ganzen Tag heut nach so einem Programm gschaut - mit negativem ergebniss :((?

    Nun, wennscho SELF, dann richtig ;-)

    In PERL gibt es die Module

    use LWP::UserAgent;
    use HTML::LinkExtor;

    aus der Library f WWW Access in PERL (libwww), damit könntest Du Dein Vorhaben z.B. in PERL verwirklichen.

    Gruss, Rolf

    1. ich wollte eigentlich nicht das rad neu erfinden ;), nee mal im ernst, kennt zufällig jmd. so ein Tool?

      cya, RObbe.