Hm. Ich will jetzt nicht den Giga-Thread wieder hoch holen, damit das Forum lesbar bleibt.
Deshalb statt hier:
eben als neuer Beitrag.
Also:
-
Die Hopkins-Universität stellt die COVID-19-Daten als CSV ins Web. Leider in äußerst instabilen (im Aufbau volatilen) und wohl von einem Praktikant(*) ohne Rücksicht auf die Weiterverarbeitung mit Excel erstellten CSV-Dateien ins Web.
-
Das hat mich geärgert.
-
Deshalb finden sich nun unter https://home.fastix.org/Tests/COVID-19/data/ die - originalen CSV-Dateien, aber auch die (hoffentlich) zeitnah aus diesen merkwürdigen Datenzusammenstellungen mit insgesamt nicht ganz trivialen Methoden erzeugten JSON-Dateien (als Array, bzw. Objekt formuliert) und eine Datei mit serialisierten Daten für/von PHP: [un]serialice()
Ich versuche (ein Erfolg ist auf Grund der merkwürdigen Vorarbeit nicht garantierbar) diese Dateien automatisch aktuell zu halten.
Falls jemand die Resultate dieses Bemühens automatisch herunterladen will: Im Verzeichnis ist eine Datei „LastUpdate.txt“. Die enthält den Zeitpunkt des letzten erfolgreichen Updates im Format YYYYMMDDhhmmss. date('Ymdhis'). Es wäre nett, statt einem Dateidownload ins Blaue hinein, diese herunterzuladen und ggf. mit einer vorhandenen zu vergleichen.
*) Oder meinetwegen ein Professor für „was ganz anderes“, den es offenbar absolut nicht kümmert, dass oder wie seine Daten verarbeitet werden können.
Hinweis. Möglicherweise muss Tools wie wget und Co. mitgeteilt werden, dass es die robots.txt ignorieren soll. Ich will dort aber keine Suchmaschinen.