Stephan Huber: Automatisierte Auswertung von Internetseiten

Beitrag lesen

Hallo Beatrix,

Am einfachsten geht das mit Perl und dem LWP-Modul, daß darauf spezialisiert ist, Internetseiten zu 'grabben' und dann zu analysieren (mit Javascript geht es sicher nicht). Die erste Aufgabe, neue Links zu finden, ist noch recht einfach, man extrahiert mit LWP einfach alle Links, vergleicht sie mit den Links, die beim letzten Mal gefunden wurden (und die damals am besten in einer Datenbank gespeichert wurden), und holt sich die Seiten hinter den neuen Links, und speichert sie. Soweit ist das mit LWP wohl kein großer Aufwand, Beispiele findest Du unter:
http://webreview.com/wr/pub/97/12/12/bookshelf/index.html
Die Frage ist dann, was Du auswerten willst: wenn die entsprechenden Zahlen irgendwie in der Seite eindeutig indentifiziert sind (z.B.: Inhalt der ersten Tabellenzelle) ist auch das kein Problem, aber meistens ist es wohl so, daß die Inhalte in jeder Seite irgendwo stehen, und sich das bei einem Redesign auch ändern kann, deshalb wäre in einem solchen Fall wohl wirklich besser, es 'zu Fuss' zu machen.

Grüße
Stephan