Hallöle,
durch einen Fachartikel komme ich zu der Frage, ob parallele Verarbeitungverfahren auch meinem Programmsystem von Nutzen sein könnten.
Für die Datensicherung fordere ich bis zu 11 Tabellen als CSV- Dateien an, speichere sie und arbeite sie dann ab, also:
A1: ein PHP- Programm auf Server abc.de fordert Tabelle A als CSV- Datei beim Server def.de an.
A2: Server def.de erzeugt die Datei und sendet sie an abc.de
A3: abc.de speichert die Datei ab.
A4: abc.de arbeitet die Datei zeilenweise ab und macht INSERTs, UPDATEs und DELETEs für die Datenbank MySQL davon.
B1: Schritt 1 für Tabelle B
...
K4: Schritt 4 für Tabelle K
4 Schritte für jede Tabelle mal 11 Tabellen, zur Zeit seriell (nacheinander).
Wie wäre es, wenn ich für jede Tabelle das anfordernde und verarbeitende Programm extra starte? Also:
Starte auf Server abc.de je ein Programm für Tabelle A, B, C, D, E, F, G, H, I, und K.
Geht Server def.de jetzt in die Knie? Oder arbeitet er 11 Parallel- Anfragen schneller ab, als wenn sie nacheinander kommen würden? Es ist ja dieselbe Datenbank, in der jetzt 11 Programme rumrödeln.
Und Server abc.de muss dann zeitgleich 11 Tabellen in die Datenbank einspeisen.
Es ist zuviel Arbeit, das nur aus Jux und Tollerei auszuprobieren. Deshalb die Frage: Kann parallele Arbeit meine Datensicherung verkürzen?
Lieben Gruß, Kalle