Dennis_B: Linux: Werte aus dem Web holen und verarbeiten

Beitrag lesen

Hey @ all,

ich habe da eine sehr sehr nette Idee aber irgendwie finde ich keinen Weg zur Unsetzung.

Nachdem ich nun gemerkt habe wie viele geniale Werkzeuge Linux schon an Board hat und was man damit alles anstellen kann, ist mir eine Idee gekommen.

Ich habe zwar keine Ahnung ob es geht daher frage ich mal hier nach.

Mein Plan, ich möchte die aktuelle Temperatur meines Wohnortes von einer Webseite auslesen (stündlich oder täglich ist einfacher :)  "Cronjob").
Dazu lade ich die Webseite mit "wget" herunter und versuche die Webseite (oder Quellcode?) mit Hilfe von awk zu analysieren bzw. das Feld finde wo sich die Temperatur befindet.
Dann soll der Wert an sqlite übergeben werden und in einer Datenbank geschrieben werden.
Dann (z.B der am ende der Woche) übergebe ich die Werte die gesammelt wurden zur Visualisierung an gnuplot weiter.

Am Ende soll ein ein Diagramm enstehen mit Datum und Temperatur der letzten Woche...

Das alles ist nur eine kleine Spinnerei von mir aber ist sowas wirklich irgendwie möglich? Okay.. ich habe schon gemerkt das awk verdammt mächtig ist...

Wie kann man sowas realisieren? Welche Probleme habe ich zu erwarten und gibt es evtl. eine bessere Methode (ausschließlich Linux-Werkzeuge)?

Würde mich sehr über mehrere Lösungwege freuen bzw. sehr gerne wissen wie ihr an sowas rangehen würdet :)

Danke!