Benz: Fileserver

Hallo,

wie stark müsste denn ein Computer sein, um einen Fileserver darauf zu betreiben? Ich hätte hier Ubuntu Linux 7.10 Server Edition, könnte aber auch ressourcenschonenderes nehmen.
Es sollte SSH,SAMBA/NFS,(FTP), und evtl. DNS,Mail und für den Eigengebrauch Web können.
Vielleicht ist Ipcop da sogar geeigneter?

Hätte einen PC mit 200+ Via CPU und 32 MB Ram im Ausblick, schätze mal man könnte ihn auf 128 MB erweitern, würde das ausreichen?

Würde auch gern mit Gigabit-Geschwindigkeit darauf zugreifen.

Dank und Gruß,
Jens

  1. hallo,

    wie stark müsste denn ein Computer sein, um einen Fileserver darauf zu betreiben?

    Kommt darauf an, was du unter einem "Fileserver" verstehen möchtest.

    Ich hätte hier Ubuntu Linux 7.10 Server Edition

    7.10 scheint immerhin die aktuelle Version zu sein.

    Es sollte SSH,SAMBA/NFS,(FTP), und evtl. DNS,Mail und für den Eigengebrauch Web können.

    Das sind verscheidene Dienste und unterschiedliche Protokolle. Nicht alle haben etwas mit einem "Fileserver" zu tun.

    Vielleicht ist Ipcop da sogar geeigneter?

    Und was ist das?

    Hätte einen PC mit 200+ Via CPU und 32 MB Ram im Ausblick, schätze mal man könnte ihn auf 128 MB erweitern, würde das ausreichen?

    Hängt von deinen Anforderungen ab. 32 MB RAM ist extrem wenig. Einigermaßen aktuelle Hardware hat zur Zeit meist 1 oder oft auch 2 GB RAM.

    Würde auch gern mit Gigabit-Geschwindigkeit darauf zugreifen.

    Dann brauchst du erstens eine Rechner-Hardware, die das ermöglicht, und zweitens eine Netzwerkanbindung, die das auch verkraftet.

    Grüße aus Berlin

    Christoph S.

    --
    Visitenkarte
    ss:| zu:) ls:& fo:) va:) sh:| rl:|
    1. Moin Moin!

      Vielleicht ist Ipcop da sogar geeigneter?

      Und was ist das?

      Eine Firewall, die besser *NICHT* als Server dient.

      Alexander

      --
      Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
      1. hallo,

        Vielleicht ist Ipcop da sogar geeigneter?
        Und was ist das?
        Eine Firewall, die besser *NICHT* als Server dient.

        Eine Firewall hat sowieso nichts mit dem "Serven" zu tun, die hat gänzlich andere Aufgaben. Und wenn man schon Ubuntu (oder ein anderes Linux) hat, empfiehlt sich als Firewall immer noch iptables. Das gehört zu jeder Distribution dazu, man muß höchstens einenen neuen Kernel bauen, um es in Betrieb nehmen zu können.

        Grüße aus Berlin

        Christoph S.

        --
        Visitenkarte
        ss:| zu:) ls:& fo:) va:) sh:| rl:|
        1. Moin Moin!

          hallo,

          Vielleicht ist Ipcop da sogar geeigneter?
          Und was ist das?
          Eine Firewall, die besser *NICHT* als Server dient.

          Eine Firewall hat sowieso nichts mit dem "Serven" zu tun, die hat gänzlich andere Aufgaben.

          Richtig. Genau das ist der Job vom IPcop. Firewall, Masquerading Gateway, Routing, VPN-Zugang, DNS, DHCP, HTTP-Proxy  (ja, streng genommen sind die letzten drei Server).

          Und wenn man schon Ubuntu (oder ein anderes Linux) hat, empfiehlt sich als Firewall immer noch iptables.

          Das ist nur ein Portfilter. Eine kleine, aber wichtige Komponente einer Firewall. Aber eben nicht alles.

          Alexander

          --
          Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
  2. Hallo,

    Hätte einen PC mit 200+ Via CPU und 32 MB Ram im Ausblick, schätze mal man könnte ihn auf 128 MB erweitern, würde das ausreichen?

    Ich weiß nicht, in wie fern sich die Server Edition von der normalen unterscheidet. Bei dieser reichen 128MB RAM auf jeden Fall nicht aus.

    Schöne Grüße,
    Willi

  3. Moin.

    Hätte einen PC mit 200+ Via CPU und 32 MB Ram im Ausblick, schätze mal man könnte ihn auf 128 MB erweitern, würde das ausreichen?

    Laut kurzem Googeln braucht die Ubuntu Server Edition mindestens 64MB Arbeitsspeicher.

    Eine andere Linux-Distro (oder vielleicht sogar ein *BSD - NetBSD läuft angeblich auch mit 4MB Arbeitsspeicher) wären eventuell bessere Kandidaten...

    Christoph

    1. hallo,

      Eine andere Linux-Distro (oder vielleicht sogar ein *BSD - NetBSD läuft angeblich auch mit 4MB Arbeitsspeicher) wären eventuell bessere Kandidaten...

      Nicht für diesen Einsatzzweck. Wenn es tatsächlich darum geht, einen "Server" zu betreiben - und sei es auch nur im eigenen kleinen privaten Netzwerk - sollten schon erheblich mehr als 128 MB RAM zur Verfügung stehen.

      NetBSD ist eigens für "Server"-Aufgaben konzipiert und verfügt über alle nötige Software. Aber mit 128 MB RAM kann auch die ausgefeilteste Software die gewünschte "Gigabit-Geschwindigkeit" nicht einlösen.

      Grüße aus Berlin

      Christoph S.

      --
      Visitenkarte
      ss:| zu:) ls:& fo:) va:) sh:| rl:|
  4. Moin Moin!

    wie stark müsste denn ein Computer sein, um einen Fileserver darauf zu betreiben?

    386SX16, 4 MB RAM hat mir als Fileserver mal völlig ausgereicht -- zu Zeiten, als DOS ein Betriebssystem und Windows nur eine grafische Oberfläche war.

    Was hast Du vor? Die Dateien eines Haushalts irgendwo zentral ablegen? Dann reicht ein Pentium-100 oder schneller ab 64 MB RAM. Ein Firmennetzwerk für 100 oder 10.000 Leute aufbauen? Dann reden wir über ernsthafte Server in großen Racks.

    In beiden Fällen wäre ein RAID zu empfehlen -- Zuhause ein einfaches RAID-1 (Mirror) auf Software-Basis (mdadm & friends), damit ein ausgefallener, nicht mehr beschaffbarer RAID-Controller nicht gleich einen Totalverlust aller Daten bedeutet, im Firmenumfeld typischerweise ein RAID-5 in Hardware, je nach Anforderungen auch mal andere RAID-Level. Dazu ein Backup-System, privat eine externe Festplatte, professionell ein Tape-Roboter.

    Ich hätte hier Ubuntu Linux 7.10 Server Edition, könnte aber auch ressourcenschonenderes nehmen.
    Es sollte SSH,SAMBA/NFS,(FTP), und evtl. DNS,Mail und für den Eigengebrauch Web können.

    DNS und DHCP macht Dein DSL-Router wahrscheinlich zuverlässiger, auf jeden Fall mit weniger Energiebedarf. Web hostest Du besser in einem Rechenzentrum, und wenigstens dem Empfang von Mails auch. Warum willst Du FTP haben? SSH kann auch Dateien übertragen, unter Unixen mit sftp und scp, unter Windows mit WinSCP.

    Vielleicht ist Ipcop da sogar geeigneter?

    Nein! IPcop ist ausschließlich eine Firewall. Du willst auf der Firewall keine Server laufen lassen. Die Langform der Erklärung findest Du z.B. im deutschen IPcop-Forum und sicherlich auch im Archiv dieses Forums.

    Hätte einen PC mit 200+ Via CPU und 32 MB Ram im Ausblick, schätze mal man könnte ihn auf 128 MB erweitern, würde das ausreichen?

    Für drei bis vier Privatanwender und ein oder zwei Mini-Webanwendungen sehr wahrscheinlich. Die meisten Via-Systeme kannst Du bis auf 512 MB aufrüsten, manche auch noch weiter, das würde ich auch empfehlen. Viel RAM hilft viel, RAM-Zugriff kostet Nanosekunden, Festplattenzugriff Millisekunden. Daher ist Swapping möglichst zu vermeiden, gerade bei langsamen CPUs und langsamen Chipsätzen.

    Würde auch gern mit Gigabit-Geschwindigkeit darauf zugreifen.

    Dann sollten Mainboard, Chipsatz und Festplatten auch die entsprechende Geschwindigkeit liefern können. Und genau daran wird es bei den Low-Power-Via-Chips fürchterlich scheitern. Warum meinst Du, Gigabit Ethernet zu benötigen? Ich boote regelmäßig Rechner über ein geswitchtes Fast Ethernet, das ist schnell genug.

    Ein paar Zahlen:

    Mein alter Home-Server unter Slackware 8 lief sehr lange auf einem Dell Precision Workstation 400 mit zwei Pentium-II 233 MHz, 256 MByte RAM, eine kleine IDE-Platte für Boot, Root und Swap, zwei große IDE-Platten (100 GByte, später 250 GByte) als RAID-1 für Daten.

    Davor diente ein Pentium-90 auf einem AT-Board als Server, mit irgendwelchen alten Platten bis 100 GByte.

    Aktuell langweilt sich hier ein geerbter HP NetServer E800 unter Slackware 10.2 mit 2x Pentium-III 733 MHz, 2 GByte RAM, zwei 9 GByte-SCSI-Platten als Boot (RAID-1) und Root (RAID-1) sowie Swap, außerdem vier gut belüftete 400 GByte-Platten an zwei unterschiedlichen IDE-Controllern als RAID-5 (1,1 TByte) für Daten.

    Der Netserver ist völlig unterfordert, die meiste Zeit ist die Load bei knapp über Null, nur bei gelegentlichen Compiler-Läufen kommt die Maschine mal auf Temperatur. Mails einsammeln, zum Thunderbird schaufeln, und gelegentlich mal nächtliche Downloads größerer Datenmengen lastet die Kiste nicht mal ansatzweise aus, und weil die Kiste nur ein 250W-Netzteil hat (ja, ich hab auch gestaunt), läuft sie jetzt seit 505 Tagen ununterbrochen. Mit einer USV wäre die Uptime deutlich höher. Danke, EON! ;-)

    Der Dell ist gerade aus dem wohlverdienten Ruhezustand zurückbeordert worden, um die Vertretung für einen noch nicht gelieferten Server zu spielen, frei nach dem Motto "besser den als gar nichts". Eine größere Web-Anwendung im Larven-Stadium mit Rose::DB::Object, HTML::Template::Compiled bzw. Template::Toolkit, einigen anderen größeren Modulen sowie PostgreSQL 8.2 ist im CGI-Modus gerade noch so zu ertragen, mit Ladezeiten von zwei bis drei Sekunden. FastCGI ist deutlich schneller, beim Entwickeln aber eher hinderlich.

    Alexander

    --
    Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".