MF: periodisch automatisierte Backups von diversen Webseiten

Beitrag lesen

Hi Horst,

meine Backups der DBs, die bei meinem Provder liegen, mache ich komplett per HTTP (.htaccess ist hier möglich).

Prinzip: Auf dem Webserver liegt ein CGI-Script, was die Daten aus den einzelnen Tabellen holt und als Text/plain zum UserAgent (UA, zu mir schickt).

Jede Tabelle wird in eine TextDatei vom folgenden Format umgewandelt, die Struktur eines Records:
[primary_key_1]
col_1 = val_1
col_2 = val_2

usw. Eine solche Datei lässt sich gut parsen (bei mir mit Perl). Flat-Files (CSV) oder XML geht natürlich auch. Das CGI-Script kriegt im Request einen Parameter mitgegeben und schickt mir, je nach Parameter die entsprechende Tabelle.

Auf der Backup-Maschine, also bei mir ist der UA ein recht einfaches Script, was die Backups der Tabellen rotierend über die Woche speichert. Somit habe ich 7 Backups für jede Tabelle, am Tag 0 (Sonntag) wird das letzte (Backup.0) wieder überschrieben.

Hotte

Manuell gestartete Backups über HTTP mache ich momentan auch noch, aber die Datenbanken wachsen und wachsen und in absehbarer Zeit wird bei Shared Hosts die maximale Ausführzeit für so ein Skript überschritten sein.
Es sollte also ein flexibles Web-Backup-System wie der MySQLDumper in die Architektur integriert sein und was natürlich besonders gut wäre, wäre die verschlüsselte Übertragung der Daten, wenn schon nicht HTTPS (was die einzelnen Webserver ja dann alle bereitstellen müssten), dann vielleicht über ein Routenverteilungsverfahren.

Gruß MF