LanX!: Iso-Images ausliefern

Hi

ich soll ein kleine projekt auf einen privat aufgesetzten Server realisieren, und bekomme gerade die auskunft ich müsse einen Webserver
namens Thy benutzen weil dass Apache der Debiandistribution keine
Dateien größer als 2 gig ausliefern könne. (es gäne einen Patch, aber das wäre halt nicht Debian ...)

Ein FTP-Demon will man auch nicht drauf haben, um die Administration schlank zu halten.

  1. hallo,

    ist ja nett, daß du uns über deine Aufgabenstellungen informierst. Hast du eigentlich auch eine Frage?

    Grüße aus Berlin

    Christoph S.

    --
    Visitenkarte
    ss:| zu:) ls:& fo:) va:) sh:| rl:|
    1. Hi

      ist ja nett, daß du uns über deine Aufgabenstellungen informierst. Hast du eigentlich auch eine Frage?

      Gemach, kannst dir doch denken dass ich vorzeitig auf den falschen Knopf gekommen bin ...

      naja jetzt Antworten aber zack, zack ;)

      Gruß
        LanX

      PS: Sonst beschwer ich mich bei der Telekom und der dänischen Regierung und der iranischen Fusballmanschaft!!!

  2. UPS, sorry,... ein vorzeitiger literarischer Erguss ...

    Hi

    ich soll ein kleine projekt auf einen privat aufgesetzten Server realisieren, und bekomme gerade die auskunft ich müsse einen Webserver
    namens Thy benutzen weil dass Apache der Debiandistribution keine
    Dateien größer als 2 gig (Filme) ausliefern könne. (es gäne einen Patch, aber das wäre halt nicht Debian ...)

    Ein FTP-Demon will man auch nicht drauf haben, um die Administration schlank zu halten.

    nun die Fragen:
    a) Wie kann ich den Apache doch noch schmackhaft machen?
    b) Ich erinnere mich dass man mit "split" unter Linux große Dateien aufbrechen und wieder zusammenbauen konnte... wisst ihr ob gängige Zip-Tools auf Win und Mac sowas suporten???

    Tschö
      LanX

    1. hallo,

      Wie kann ich den Apache doch noch schmackhaft machen?

      Auf einem Gemüsebett mit Zwiebeln, Paprika, Knoblauch, Möhren, Topinambur und vielen Kräutern anrichten.

      Die Frage ist, was das für ein Server ist, den du da bedienen sollst. Und was das für ein ISO-File sein soll, wenn es über 2 GB groß ist. Und was damit passieren soll - vermutlich sollen sich andere Leute das downloaden können, das weiß man aber nach deiner bisherigen Beschreibung noch nicht genau.

      Im übrigen ist mir nicht bekannt, daß der Apache irgendeine "Größenbegrenzung" für downloadbare Dateien hätte. Aber er ist nunmal ein HTTP-Server, und bei dieser Dateigröße wäre schon zu fragen, ob es unbedingt HTTP als Transportmittel braucht oder nicht vielleicht doch FTP geeigneter wäre.

      Grüße aus Berlin

      Christoph S.

      --
      Visitenkarte
      ss:| zu:) ls:& fo:) va:) sh:| rl:|
      1. Hi

        Auf einem Gemüsebett mit Zwiebeln, Paprika, Knoblauch, Möhren, Topinambur und vielen Kräutern anrichten.

        Läääcker, er lade mich ein!!! :)

        Die Frage ist, was das für ein Server ist, den du da bedienen sollst. Und was das für ein ISO-File sein soll, wenn es über 2 GB groß ist. Und was damit passieren soll - vermutlich sollen sich andere Leute das downloaden können, das weiß man aber nach deiner bisherigen Beschreibung noch nicht genau.

        ehm, selbstgedrehte Filme runterladen, ist das wischtisch?

        Im übrigen ist mir nicht bekannt, daß der Apache irgendeine "Größenbegrenzung" für downloadbare Dateien hätte. Aber er ist nunmal ein HTTP-Server, und bei dieser Dateigröße wäre schon zu fragen, ob es unbedingt HTTP als Transportmittel braucht oder nicht vielleicht doch FTP geeigneter wäre.

        Ganz deiner Meinung, ich kenne Thy auch nicht und fürchte den Einarbeitungsaufwand!

        Tschau
          LanX

      2. Hi

        Im übrigen ist mir nicht bekannt, daß der Apache irgendeine "Größenbegrenzung" für downloadbare Dateien hätte.

        habs gefunden:

        http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=241223

        cu
          LanX

        1. hallo,

          habs gefunden: http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=241223

          Interessant. Da scheint aber eher irgendwas bei Debian "defekt" zu sein. Ich müßte das erstmal auf einer Debian-Kiste testen.

          Grüße aus Berlin

          Christoph S.

          --
          Visitenkarte
          ss:| zu:) ls:& fo:) va:) sh:| rl:|
          1. Hallo,

            Interessant. Da scheint aber eher irgendwas bei Debian "defekt" zu sein. Ich müßte das erstmal auf einer Debian-Kiste testen.

            Nein, das Problem haben viele Distris:
            Suse: http://lists.suse.com/archive/suse-linux/2005-Mar/1295.html
            Fedoa: http://linux.derkeiler.com/Mailing-Lists/Fedora/2005-07/5854.html

            und vermutlich jede andere Distri, die das Funktionieren von Modulen von Drittanbietern garantieren moechte.

            Kann es sein, dass Du Dir bisher einfach immer den Apache komplett selber gebaut hast?

            Gruss
            Thomas

            1. hallo,

              Kann es sein, dass Du Dir bisher einfach immer den Apache komplett selber gebaut hast?

              Nein, nicht immer, aber meistens mache ich das. Andrerseits habe ich bisher nie vor der Frage gestanden, eine so große Datei mit über 2 GB von ihm ausliefern zu lassen. Man lernt halt immer was dazu.

              Grüße aus Berlin

              Christoph S.

              --
              Visitenkarte
              ss:| zu:) ls:& fo:) va:) sh:| rl:|
      3. Hallo Christoph.

        Aber er ist nunmal ein HTTP-Server, und bei dieser Dateigröße wäre schon zu fragen, ob es unbedingt HTTP als Transportmittel braucht oder nicht vielleicht doch FTP geeigneter wäre.

        Oder Bittorrent.

        Einen schönen Mittwoch noch.

        Gruß, Ashura

        --
        sh:( fo:} ch:? rl:( br: n4:~ ie:{ mo:| va:) de:> zu:} fl:( ss:) ls:[ js:|
        mathbr:del.icio.us/ mathbr:w00t/
        1. Hallo Ashura,

          Oder Bittorrent.

          ähm, der Gedanke ist mir auch schon gekommen, aber Bittorrent war für mich immer ein Verfahren über Peer-To-Peer die Last vom zentralen Server wegzuleiten.

          Wenn die Anzahl der gleichzeitigen Downloads vernachlässigbar ist, wo liegt dann der Vorteil gegenüber dem trivialeren ftp?

          Gut, Das Chunks ausgeliefert werden, könnte bei Abbrüchen und Wiederaufnahmen relevant sein... und sonst???

          Gruß
            LanX

          1. Hallo LanX!.

            ähm, der Gedanke ist mir auch schon gekommen, aber Bittorrent war für mich immer ein Verfahren über Peer-To-Peer die Last vom zentralen Server wegzuleiten.

            Richtig, das ist ein Vorteil dieses Protokolls.

            Wenn die Anzahl der gleichzeitigen Downloads vernachlässigbar ist, wo liegt dann der Vorteil gegenüber dem trivialeren ftp?

            Gut, Das Chunks ausgeliefert werden, könnte bei Abbrüchen und Wiederaufnahmen relevant sein... und sonst???

            Es findet sich nahezu immer und jederzeit jemand, der ein bestimmtes Gesuch anbietet. Wenn dieses auf dem FTP-Server gelöscht wurde, ist es einfach nicht mehr da.

            Zudem wird die Verbreitung enorm gesteigert, da nicht einfach jeder für sich lädt, sondern gleichzeitig mit unzähligen anderen Usern teilt. Es tritt ein kaskadenartiger Effekt auf.

            Einen schönen Mittwoch noch.

            Gruß, Ashura

            --
            sh:( fo:} ch:? rl:( br: n4:~ ie:{ mo:| va:) de:> zu:} fl:( ss:) ls:[ js:|
            mathbr:del.icio.us/ mathbr:w00t/
            1. Hallo Ashura, Rolf,

              Es findet sich nahezu immer und jederzeit jemand, der ein bestimmtes Gesuch anbietet.

              Nicht wirklich. Der Vorteil von BitTorrent liegt natürlich in den Lastspitzen und in der Trafficverteilung, man gucke sich nur zu Forschungszwecken eine beliebige TV-Serien-Raubkopierseite an. Ist die gesuchte Datei aber nicht mehr aktuell, geht die Anzahl von Peers (der Schwarm) sehr stark nach unten bis eben Null. Es hat also seine Stärke dann, wenn man einen Schwarm von Downloadern erwartet.

              Nur stellen sich dann für Rolf zwei Fragen:
              • Erwartest Du einen Schwarm von Leechern?
              • Was ist, wenn der Großteil des Schwarms befriedigt ist und eigennützig, wie wir Menschen oft sind, auch das Seeden beendet?

              Die erste Frage kann nur Rolf beantworten, so wie er bisher klang, ist das eher eine Spezialapplikation für einen eingeschränkten Nutzerkreis.

              Die zweite Frage ist schwieriger. Man braucht einen hauptamtlichen Seeder, ein Programm, das auf dem Server läuft und unabhängig vom Schwarm der Leecher die Datei auslagert. Als wir mit SELFHTML 8.1 erstmals die Datei mit BitTorrent auslieferten, hatten wir auch zwei Seeder am laufen, um es ans laufen zu kriegen (Plus ein paar Devs, die schon seedeten[1]). Ich glaube, für 8.1.1 laufen die immer noch. Das heisst, Rolf bräuchte um Download-Sicherheit zu erreichen auch einen ständig erreichbaren Seeder. Was natürlich wieder den Administrationsaufwand erhöht – zusätzlich zu Webserver und BT-Tracker, den man wohl immer noch braucht, auch wenn BT inzwischen auch trackerlos funktionieren kann. Es gibt schon eine nicht offizielle Erweiterung von BT namens WebSeeding, in der ein einfacher HTTP-Download als ursprünglicher Seed existieren kann. Aber eben keine offizielle, ich glaube, die funktioniert nur in BitTornado.

              Dazu kommt das Problem der Lastverteilung, für einen beliebigen BT-Client ist es natürlich bequemer und wahrscheinlich schneller von einem offiziellen Seed zu laden. Das ist im Interesse des Clients, aber nicht im Interesse des offiziellen Anbieters. Klar, das BT-Protokoll hat da schon gerechtere Feinheiten, aber im Prinzip kann man mit einem unhöflichen Client so etwas aushebeln. Also noch mehr Administrationsarbeit.

              Klar. Spaßiger ist es eine BT-Infrastruktur aus Webserver, Tracker und Seeder aufzubauen, am besten noch wegen Metadaten mit Skripten untereinander verknüpft,  und Sperenzchen wie auf RSS basierenden Seedcasts (Gibt es das Wort schon?). Aber es ist auch Arbeit. Je nach Aufgabenstellung ist Rolf dann mit einem einfachen HTTP-Server besser bedient. Muss ja kein Apache sein, es gibt ja auch Alternative, lighthttp, comanche und so.

              [1] Man verzeihe mir das gar fürchterbare Denglisch, aber BT lässt sich wohl besser in BT-Termen erklären, anstatt etwaige sinnig passende aber vielleicht doch irreführende Übersetzungen zu nehmen.

              Tim

              1. Hallo Tim

                danke für die Ausführungen, aber wie ich mir dachte wäre in diesem Fall Bittorrent mit Kanonen auf Spatzen geschossen.

                LG
                 LanX

    2. Hallo,

      Ein FTP-Demon will man auch nicht drauf haben, um die Administration schlank zu halten.

      Naja, die Administration eines FTP-Daemon, der nur anonyme Downloads ermoeglicht, ist jetzt nicht wirklich der grosse Aufwand (meine Erfahrung: einmal einrichten und gut ist).

      nun die Fragen:
      a) Wie kann ich den Apache doch noch schmackhaft machen?

      Unter Umstaenden kommt der 1.3 in Frage. Da ihr ja den Apache scheinbar problemlos austauschen koennt, werden wohl kaum spezielle Eigenschaften des 2.0 benutzt.

      b) Ich erinnere mich dass man mit "split" unter Linux große Dateien aufbrechen und wieder zusammenbauen konnte... wisst ihr ob gängige Zip-Tools auf Win und Mac sowas suporten???

      Keine Ahnung, allerdings wuerde ich gesplittete zip-Dateien nehmen. Das zip-Format kann sowas von Hause aus.

      Gruss
      Thomas

      1. Hi

        Keine Ahnung, allerdings wuerde ich gesplittete zip-Dateien nehmen. Das zip-Format kann sowas von Hause aus.

        Kann es dass? Vielleicht ist meine Version von Winzip zu alt, aber ich bekomme es nicht hin dass ein split ....

        Arghhhh......

        Danke, hab den fehler gemacht .ZIPs mit 'split' zu bearbeiten, unter Linux gibts aber 'zipsplit' dafür!

        Tschau
          LanX

        1. Hi

          Danke, hab den fehler gemacht .ZIPs mit 'split' zu bearbeiten, unter Linux gibts aber 'zipsplit' dafür!

          Kleiner Nachtrag fürs Archiv, offensichtlich geht linux zip bei 2 GB in die Knie!

          Tschau
            LanX