Alexander, W.: GZ in mehrere kleinere Teile

Hallo,

ich habe eine Tar Datei, die ca. 6GB gross ist und ich möchte diese in mehrere GZ Dateien umwandeln, wobei jede neue GZ-Datei max. 2GB gross sein muss.

Kennt jemand eine Lösunt?
Daaaanke!

Gruss Alex.

  1. 你好 Alexander,,

    ich habe eine Tar Datei, die ca. 6GB gross ist und ich möchte diese in
    mehrere GZ Dateien umwandeln, wobei jede neue GZ-Datei max. 2GB gross
    sein muss.

    Ich denke, du suchst sowas wie split:

    http://www.hmug.org/man/1/split.html

    再见,
     CK

    --
    Fortune: Whatever you do will be insignificant, but it is very important that you do it.
      -- Gandhi
    http://wwwtech.de/
    1. hi,

      Ich denke, du suchst sowas wie split:
        http://www.hmug.org/man/1/split.html

      wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine "funktionierenden" gz-archive merh wären, sondern erst wieder zusammengesetzt werden müssten, bevor sie wieder entpackt werden können - k.A., ob dies im sinne des fragers ist.

      gruß,
      wahsaga

      --
      "Look, that's why there's rules, understand? So that you _think_ before you break 'em."
      1. Hallo,

        wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine "funktionierenden" gz-archive merh wären, sondern erst wieder zusammengesetzt werden müssten, bevor sie wieder entpackt werden können - k.A., ob dies im sinne des fragers ist.

        Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu komprimieren.

        Gruß,
        Severin

        --
        They that can give up essential liberty to obtain a little temporary safty deserve neither liberty nor safty.
        -- Benjamin Franklin
        1. Hallo,

          wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine "funktionierenden" gz-archive merh wären, sondern erst wieder zusammengesetzt werden müssten, bevor sie wieder entpackt werden können - k.A., ob dies im sinne des fragers ist.

          Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu komprimieren.

          Glaube nicht, daß er das meinte. Der Aufwand wäre auch rel. hoch.

          Gruß
          Reiner

          1. 你好 Reiner,

            wobei natürlich anzumerken wäre, dass die einzelnen teile dann keine
            "funktionierenden" gz-archive merh wären, sondern erst wieder
            zusammengesetzt werden müssten, bevor sie wieder entpackt werden
            können - k.A., ob dies im sinne des fragers ist.

            Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu
            komprimieren.

            Glaube nicht, daß er das meinte. Der Aufwand wäre auch rel. hoch.

            Doch, das meinte ich ;-) Und nein, der Aufwand ist nicht hoch:

            tar -cf - files/ | split -b1000m - files.tar.
            for file in files.tar.*; do
              gzip -9 $file;
            done

            Eventuell noch mit -a arbeiten (suffix length), je nachdem wieviele Daten
            es sind.

            再见,
             CK

            --
            Unsere Vorstellungen von der Ewigkeit sind genauso nuetlich wie die Mutmassungen eines Kuehkens ueber die Aussenwelt bevor es die Eierschale aufbricht.
            http://wwwtech.de/
            1. Hi,

              Ich denke CK hat gemeint das tar Archiv zu zerlegen und dann einzeln zu
              komprimieren.

              Glaube nicht, daß er das meinte. Der Aufwand wäre auch rel. hoch.

              Doch, das meinte ich ;-) Und nein, der Aufwand ist nicht hoch:

              tar -cf - files/ | split -b1000m - files.tar.
              for file in files.tar.*; do
                gzip -9 $file;
              done

              Eventuell noch mit -a arbeiten (suffix length), je nachdem wieviele Daten
              es sind.

              再见,
              CK

              Sorry, ich habe das völlig falsch verstanden. Ich dachte, es wäre gemeint gewesen, jedes File _vor dem tar_ so zu behandeln.

              Gruß
              Reiner

  2. Hallo,

    ich habe eine Tar Datei, die ca. 6GB gross ist und ich möchte diese in mehrere GZ Dateien umwandeln, wobei jede neue GZ-Datei max. 2GB gross sein muss.

    Kennt jemand eine Lösunt?
    Daaaanke!

    Ich nehme an, Du willst backups machen, die nicht auf Dein Medium passen, oder?
    Falls es das treffen sollte und Du das z.B. auf CD/DVD brennen willst, gibt es ein - wie ich finde - sehr tolles Tool mit dem Namen http://scdbackup.webframe.org/main_ger.html|title=SCDBackup.

    Momentan gibt es einen kleines Problem, was z.B. verhindert große Datenbanken zu sichern:
    Zwar kannst Du riesige Datenmengen (sprich unbegrenzt) sichern, aber dabei darf eine einzelne Datei nicht größer als ein einzelnen Backupmedium sein (also ca. 700MB bei CD, 4.7GB bei DVD).
    Da der Quellcode aber vorliegt, könnte man dazu vielleicht eine Unterroutine einbinden, die das macht, was Christian vorgeschlagen hat (Split)?

    Gruß
    Reiner

    1. Sorry, falsche Taste, der SCDBackup findest Du hier.

      Gruß
      Reiner