GZ in mehrere kleinere Teile
Alexander, W.
- webserver
1 Christian Kruse1 wahsaga
0 Reiner
Hallo,
ich habe eine Tar Datei, die ca. 6GB gross ist und ich möchte diese in mehrere GZ Dateien umwandeln, wobei jede neue GZ-Datei max. 2GB gross sein muss.
Kennt jemand eine Lösunt?
Daaaanke!
Gruss Alex.
你好 Alexander,,
ich habe eine Tar Datei, die ca. 6GB gross ist und ich möchte diese in
mehrere GZ Dateien umwandeln, wobei jede neue GZ-Datei max. 2GB gross
sein muss.
Ich denke, du suchst sowas wie split:
http://www.hmug.org/man/1/split.html
再见,
CK
hi,
Ich denke, du suchst sowas wie split:
http://www.hmug.org/man/1/split.html
wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine "funktionierenden" gz-archive merh wären, sondern erst wieder zusammengesetzt werden müssten, bevor sie wieder entpackt werden können - k.A., ob dies im sinne des fragers ist.
gruß,
wahsaga
Hallo,
wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine "funktionierenden" gz-archive merh wären, sondern erst wieder zusammengesetzt werden müssten, bevor sie wieder entpackt werden können - k.A., ob dies im sinne des fragers ist.
Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu komprimieren.
Gruß,
Severin
Hallo,
wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine "funktionierenden" gz-archive merh wären, sondern erst wieder zusammengesetzt werden müssten, bevor sie wieder entpackt werden können - k.A., ob dies im sinne des fragers ist.
Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu komprimieren.
Glaube nicht, daß er das meinte. Der Aufwand wäre auch rel. hoch.
Gruß
Reiner
你好 Reiner,
wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine
"funktionierenden" gz-archive merh wären, sondern erst wieder
zusammengesetzt werden müssten, bevor sie wieder entpackt werden
können - k.A., ob dies im sinne des fragers ist.Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu
komprimieren.Glaube nicht, daß er das meinte. Der Aufwand wäre auch rel. hoch.
Doch, das meinte ich ;-) Und nein, der Aufwand ist nicht hoch:
tar -cf - files/ | split -b1000m - files.tar.
for file in files.tar.*; do
gzip -9 $file;
done
Eventuell noch mit -a arbeiten (suffix length), je nachdem wieviele Daten
es sind.
再见,
CK
Hi,
Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu
komprimieren.Glaube nicht, daß er das meinte. Der Aufwand wäre auch rel. hoch.
Doch, das meinte ich ;-) Und nein, der Aufwand ist nicht hoch:
tar -cf - files/ | split -b1000m - files.tar.
for file in files.tar.*; do
gzip -9 $file;
doneEventuell noch mit -a arbeiten (suffix length), je nachdem wieviele Daten
es sind.再见,
CK
Sorry, ich habe das völlig falsch verstanden. Ich dachte, es wäre gemeint gewesen, jedes File _vor dem tar_ so zu behandeln.
Gruß
Reiner
Hallo,
ich habe eine Tar Datei, die ca. 6GB gross ist und ich möchte diese in mehrere GZ Dateien umwandeln, wobei jede neue GZ-Datei max. 2GB gross sein muss.
Kennt jemand eine Lösunt?
Daaaanke!
Ich nehme an, Du willst backups machen, die nicht auf Dein Medium passen, oder?
Falls es das treffen sollte und Du das z.B. auf CD/DVD brennen willst, gibt es ein - wie ich finde - sehr tolles Tool mit dem Namen http://scdbackup.webframe.org/main_ger.html|title=SCDBackup.
Momentan gibt es einen kleines Problem, was z.B. verhindert große Datenbanken zu sichern:
Zwar kannst Du riesige Datenmengen (sprich unbegrenzt) sichern, aber dabei darf eine einzelne Datei nicht größer als ein einzelnen Backupmedium sein (also ca. 700MB bei CD, 4.7GB bei DVD).
Da der Quellcode aber vorliegt, könnte man dazu vielleicht eine Unterroutine einbinden, die das macht, was Christian vorgeschlagen hat (Split)?
Gruß
Reiner
Sorry, falsche Taste, der SCDBackup findest Du hier.
Gruß
Reiner