Andreas Korthaus: Ist hier eigentlich ein Paket Filter installiert?

Hallo!

ich weiß jetzt nicht ob das wirklich was bringt bei den DoS Atacken, aber habe gerade folgendes in einer RedHat Mailingliste aufgeschnappt:

  • Lasse keine Pakete heraus, die nicht Deine IP als Absender haben
      (Würden das alle tun, gäbe es kaum ein Spoofing-Problem)
  • Lasse keine Pakete herein, die Deine IP als Absender haben
  • Lasse keine Pakete herein, die vorgeben aus dem RFC1918 Bereich
      (private IP-Adressen) zu stammen
  • Lasse keine Pakete heraus, die in den RFC1918 Bereich wollen
  • Blocke nmap-Portscans (Nullscan, Xmas-Scan) anhand der TCP-Flags
  • Blocke unmögliche Pakete, die z.B. SYN und FIN gleichzeitig gesetzt
      haben (wie auch in der CERT-Meldung erwähnt)
  • Lasse keine Pakete herein, die aus den diversen reserved-IP Blöcken
      kommen (vorsicht: pflegeintensive Regel)

Nur mal so interessehalber, nutzt Ihr sowas, und würde es überhaupt was bringen?

Viele Grüße
Andreas

  1. Moin,

    Addressfilterung ist OK

    • Blocke nmap-Portscans (Nullscan, Xmas-Scan) anhand der TCP-Flags

    Nein, jedenfalls nicht blind. Es gibt zum Beispiel einen Internetstandard zu Explicit Congestion Notification (RFC 3168) der vormals unbenutzte Flags benutzt und es gibt einen Haufen fehlkonfigurierter Paketfilter die solche Pakete einfach wegschmeissen, mit dem Effekt, dass viele Linux 2.4-Benutzer nicht mehr durch diese Filter kommunizieren können. -> RFC 3360

    • Blocke unmögliche Pakete, die z.B. SYN und FIN gleichzeitig gesetzt
        haben (wie auch in der CERT-Meldung erwähnt)

    Diese Kombination ist möglich und gehört zu einem experimentellen Standard namens T/TCP. -> RFC 1644

    Nur mal so interessehalber, nutzt Ihr sowas, und würde es überhaupt was bringen?

    Wenn man es falsch macht: Ärger.

    --
    Henryk Plötz
    Grüße aus Berlin

    1. Hi!

      Nein, jedenfalls nicht blind. Es gibt zum Beispiel einen Internetstandard zu Explicit Congestion Notification (RFC 3168) der vormals unbenutzte Flags benutzt und es gibt einen Haufen fehlkonfigurierter Paketfilter die solche Pakete einfach wegschmeissen, mit dem Effekt, dass viele Linux 2.4-Benutzer nicht mehr durch diese Filter kommunizieren können. -> RFC 3360

      • Blocke unmögliche Pakete, die z.B. SYN und FIN gleichzeitig gesetzt
          haben (wie auch in der CERT-Meldung erwähnt)

      Diese Kombination ist möglich und gehört zu einem experimentellen Standard namens T/TCP. -> RFC 1644

      Ja - und? Nur weil es das gibt, warum soll man es erlauben? Man kann doch sehr genau definieren welche Requests hier Sinn machen, und welche nicht, und dem entsprechend filtern! Naja, vermutlich machen derartige Requests keien probleme, also hat es keinen Sinn und kostet Performance, habe ja gesagt das ich merh oder weniger ins blaue gerragt habe ;-)

      Nur mal so interessehalber, nutzt Ihr sowas, und würde es überhaupt was bringen?

      Wenn man es falsch macht: Ärger.

      Wovon ich bei dem hier verfügbaren know-how mal nicht davon ausgehen würde ;-)

      Viele Grüße
      Andreas

  2. Moin!

    ich weiß jetzt nicht ob das wirklich was bringt bei den DoS Atacken, aber habe gerade folgendes in einer RedHat Mailingliste aufgeschnappt:

    • Lasse keine Pakete heraus, die nicht Deine IP als Absender haben
        (Würden das alle tun, gäbe es kaum ein Spoofing-Problem)

    Das ist hier kein Thema, weil der Server allein ist und dieses Problem (IP-Spoofing) nicht produziert.

    • Lasse keine Pakete herein, die Deine IP als Absender haben

    Naja, wie wahrscheinlich ist das denn?

    • Lasse keine Pakete herein, die vorgeben aus dem RFC1918 Bereich
        (private IP-Adressen) zu stammen

    Die kommen hier mit 99,9% Sicherheit nie am Server an, weil sie schon am übergeordneten Router vom Provider rausgeworfen werden.

    • Lasse keine Pakete heraus, die in den RFC1918 Bereich wollen

    Das dürfte auch nur den Router des Providers betreffen - der Self-Server macht sowas nicht.

    • Blocke nmap-Portscans (Nullscan, Xmas-Scan) anhand der TCP-Flags
    • Blocke unmögliche Pakete, die z.B. SYN und FIN gleichzeitig gesetzt
        haben (wie auch in der CERT-Meldung erwähnt)

    Das beides betrifft nur Scans des Servers. nmap kann anhand der Verhaltensweise bei gewissen undefinierten Flagkombinationen das Betriebssystem des Servers raten. Das allein ist aber noch kein Sicherheitsrisiko - der Server selbst muß dann Sicherheitslücken aufweisen, die man nutzen könnte - und Christian pflegt den Server doch erstklassig, da würde ich von Sicherheitslücken erstmal nicht ausgehen - außer es entdeckt jemand eine neue, und Christian ist gerade im Urlaub...

    • Lasse keine Pakete herein, die aus den diversen reserved-IP Blöcken
        kommen (vorsicht: pflegeintensive Regel)

    Bringt auch kaum was. Alle IPs im Internet können potentiell eine Anfrage an den Server stellen. Also muss man alles zulassen: Alle Adressen dürfen anfragen, an alle Adressen wird geantwortet.

    Nur mal so interessehalber, nutzt Ihr sowas, und würde es überhaupt was bringen?

    Die derzeitige Problematik liegt darin, dass ein Client eine rechenintensive Operation (Anforderung der Forumshauptseite oder eine Suche) anstößt, dann aber die Verbindung sofort trennt, ohne auf den Inhalt zu warten. Dadurch wird der Server immer gut ausgelastet, und manchmal ist dadurch eben die Suche unzugänglich (das Forum zum Glück nicht). Gegen solche Attacken kann man sich eigentlich kaum wehren, denn es wird einfach ausgenutzt, dass der Rechner ab einer gewissen Last nicht mehr reagiert. Dann müssen alle anderen Clients eben warten, bis wieder Ressourcen frei sind.

    Theoretisch könnte man natürlich programmieren, dass die Suche sofort aufhört, wenn die Verbindung gekappt wurde. Aber das dürfte einen tiefen Eingriff in den Kernel und den Netzwerkcode sowie in den Apache bedeuten. Außerdem wäre dem aus Angreigersicht ganz schnell begegnet, indem die Verbindung erst dann gekappt wird, wenn der Server HTML ausliefern will, bzw. die Suchergebnisse.

    Im Prinzip hilft dagegen nur Rechenpower und effiziente Programmierung der Serverskripte (bzw. man nimmt dann lieber doch keine Skriptsprache mehr, sondern etwas kompiliertes). Aber auch diese Bemühungen bringen die Performance nicht unbegrenzt nach vorn - im Zweifel gewinnt der Angreifer, spätestens dann, wenn er eine DDoS oder DRDoS-Attacke fährt. Da hilft dann zwar unter Umständen ein Paketfilter, aber der muss _vor_ dem Flaschenhals sitzen, sofern die xDoS-Attacke die verfügbare Bandbreite überlastet.

    - Sven Rautenberg

    1. Hi!

      Im Prinzip hilft dagegen nur Rechenpower und effiziente Programmierung der Serverskripte (bzw. man nimmt dann lieber doch keine Skriptsprache mehr, sondern etwas kompiliertes). Aber auch diese Bemühungen bringen die Performance nicht unbegrenzt nach vorn - im Zweifel gewinnt der Angreifer, spätestens dann, wenn er eine DDoS oder DRDoS-Attacke fährt. Da hilft dann zwar unter Umständen ein Paketfilter, aber der muss _vor_ dem Flaschenhals sitzen, sofern die xDoS-Attacke die verfügbare Bandbreite überlastet.

      Naja, wenn das Forum erstmal in C läuft, und die Suche etwas performanter programmiert ist, kombiniert mit besserer Hardware, wie ich es im Thread hier drunter angeregt habe(oder spricht was dagegen das mal durchzuziehen? Ich denke sogar das viele Leute die immer jammern spenden wüden, ganz angesehen von den vielen Stammpostern), denke ich das man sich erstmal ein wenig Luft verschafft haben sollte!
      Ich habe leider von solchen Dingen viel zu wenig Ahnung, wollte es nur mal anmerken. Danke für die ausführliche Erklärung!

      Grüße
      Andreas

      1. Hi Andreas,

        Naja, wenn das Forum erstmal in C läuft, und die Suche etwas
        performanter programmiert ist, kombiniert mit besserer Hardware,
        wie ich es im Thread hier drunter angeregt habe( ...), denke ich,
        das man sich erstmal ein wenig Luft verschafft haben sollte!

        vergleiche doch mal die erzielbaren Faktoren:

        Eine doppelt so gute Hardware, die ganz ordentlich Kohle erfordern
        dürfte, würde die Leistungsfähigkeit des Self-Portals um Faktor 2
        erhöhen - also den Angreifer dazu zwingen, ebenfalls doppelt so viel
        Power zu investieren.

        Im Vergleich dazu sind sowohl bei einer Reduzierung der Zugriffe auf
        die XML-Strukturen als auch bei einer logarithmischen statt einer
        linearen Suche Faktoren drin, die im zweistelligen Bereich liegen
        können. So etwas kann man an Hardware heute gar nicht mehr kaufen.
        Nur kostet das eben auch - nämlich Zeit.

        Man könnte versuchen, die Dienste zu trennen, also auf zwei Rechner
        zu verteilen. Aber beispielsweise das Forum auf den einen und die
        Suche auf den anderen Server zu legen, wo doch 'eigentlich' (eine
        funktionsfähige Schnittstelle zwischen beiden während der Archivie-
        rung vorausgesetzt) auf denselben Datenbestand zugreifen wollen, würde
        bedeuten, diese beiden Rechner vernetzen und damit eben doch wieder
        voneinander abhängig machen zu müssen.

        Es gibt gar nicht so viele Einsatzfälle in der IT, die sich beliebig
        leicht auf mehrere Rechner bzw. Prozessoren verteilen lassen.
        Oft genug hängen die Teilbereiche einer Anwendung in so komplexer
        Weise zusammen, daß man sie eben nicht 'mal eben so' trennen kann.

        Viele Grüße
              Michael

        1. Hi!

          vergleiche doch mal die erzielbaren Faktoren:

          Eine doppelt so gute Hardware, die ganz ordentlich Kohle erfordern
          dürfte, würde die Leistungsfähigkeit des Self-Portals um Faktor 2
          erhöhen - also den Angreifer dazu zwingen, ebenfalls doppelt so viel
          Power zu investieren.

          Es geht doch nicht nur um die Angreifer, das wäre ein kleiner Nebeneffekt. Es geht darum das die Suche besser funktioniert, das Postings schneller bearbeitetn werden und selterner "es wird gerade ein anders Postig bearbeitet..." kommt.
          Und ich habe ja bereits gesagt, selbst wenn nur 20-30 % des Geldes für einen vergleicbaren Server uzsammenkäämen, könnte man den RAM verdoppeln, die Rechenleistung der CPU um über 50% steigern, das wäre doch besser als nichts! ODer die andere Variante, die ich eher favorisiere, einen wirklichen low-budget 2.-Server anzuschaffen.

          Im Vergleich dazu sind sowohl bei einer Reduzierung der Zugriffe auf
          die XML-Strukturen als auch bei einer logarithmischen statt einer
          linearen Suche Faktoren drin, die im zweistelligen Bereich liegen
          können. So etwas kann man an Hardware heute gar nicht mehr kaufen.
          Nur kostet das eben auch - nämlich Zeit.

          Sicher, und es stellt sich die Frage was einfacher/billiger ist! Wenn man Euch für die Verbesserungen der Software bezahlen müßte, würde das aber auch entsprechend mehr kosten als ein 2. Server! Ich versteh es nicht, sehr viele Leute bekunden Bereitschaft hierfür was zu spenden, aber die Verantwortlichen scheint das nicht zu interessieren!

          Man könnte versuchen, die Dienste zu trennen, also auf zwei Rechner
          zu verteilen. Aber beispielsweise das Forum auf den einen und die
          Suche auf den anderen Server zu legen, wo doch 'eigentlich' (eine
          funktionsfähige Schnittstelle zwischen beiden während der Archivie-
          rung vorausgesetzt) auf denselben Datenbestand zugreifen wollen, würde
          bedeuten, diese beiden Rechner vernetzen und damit eben doch wieder
          voneinander abhängig machen zu müssen.

          Ja, aber die rechnen dann unabhängig voneinander, und beides ist entlastet. Das Forum, so toll es auch ist, ist von der Struktur nunmal potentiell unperformant.

          Es gibt gar nicht so viele Einsatzfälle in der IT, die sich beliebig
          leicht auf mehrere Rechner bzw. Prozessoren verteilen lassen.

          Aber gerade dieses Projekt ist doch geradezu prädestiniert dafür! Schon alleien die vielen verschiedenen Adressen!(selfforum, selfhtml, selfaktuell, selfsuche...) das kann man doch wunderbar verteilen! Sicher braucht man dazwischen eine VErbindung, aber was ist das Problem? Die ist ja Netzintern mit 100Mbit, das sollte keine Probleme machen!

          Oft genug hängen die Teilbereiche einer Anwendung in so komplexer
          Weise zusammen, daß man sie eben nicht 'mal eben so' trennen kann.

          Ist das denn in diesem Fall so?

          Grüße
          Andreas

          1. Hi Andreas,

            vergleiche doch mal die erzielbaren Faktoren:
            ...
            Es geht doch nicht nur um die Angreifer, das wäre
            ein kleiner Nebeneffekt.

            meine Eindruck ist ein anderer.

            Es geht darum das die Suche besser funktioniert,

            Die Suche _alleine_ funktioniert tadellos. Schau Dir
            die ausgegebenen CPU-Zeiten an - die Maschine _ist_
            schnell und wird mit dem Durchsuchen von 100 MB in
            einer Zeit fertig, die als Antwortzeit durchaus reicht.

            das Postings schneller bearbeitetn werden und
            selterner "es wird gerade ein anders Postig
            bearbeitet..." kommt.

            _Das_ liegt nicht an der Verarbeitungsgeschwindigkeit
            des Rechners, sondern an der Sperren-Logik der Forum-
            Software, d. h. an deren Architektur.
            Das, was Christian derzeit neu schreibt, wird viel
            weniger Sperren setzen - und _deshalb_ werden sich
            die Forums-Poster weniger gegenseitig behindern.

            Und ich habe ja bereits gesagt, selbst wenn nur
            20-30 % des Geldes für einen vergleicbaren Server
            uzsammenkäämen, könnte man den RAM verdoppeln, die
            Rechenleistung der CPU um über 50% steigern, das
            wäre doch besser als nichts!

            Bevor ich Christian dafür einsetzen wollen würde,
            eine neue Maschine "zuzureiten" oder gar das Self-
            Portal sauber in zwei Rechner zu zerschneiden (was
            eben auch ein Haufen Arbeit sein kann), würde ich
            lieber seine neue Forums-Software im Einsatz sehen.
            Danach haben wir vielleicht überhaupt kein Perfor-
            mance-Problem mehr.

            ODer die andere Variante, die ich eher favorisiere,
            einen wirklichen low-budget 2.-Server anzuschaffen.

            Siehe oben: Das löst keine organisatorischen oder
            architektonischen Probleme.

            Sicher, und es stellt sich die Frage was
            einfacher/billiger ist!
            Wenn man Euch für die Verbesserungen der Software
            bezahlen müßte, würde das aber auch entsprechend
            mehr kosten als ein 2. Server! Ich versteh es nicht,
            sehr viele Leute bekunden Bereitschaft hierfür was
            zu spenden, aber die Verantwortlichen scheint das
            nicht zu interessieren!

            Einen Rechner, der so schnell ist, wie der bisherige
            mit getuneter Software, kannst Du für keinen sechs-,
            vielleicht nicht mal siebenstelligen Betrag kaufen -
            das ist meine Erwartung.

            Das, was Christian gekauft hat, _ist_ schon gut.
            Da sind keine großen Verbesserungen mehr zu holen.
            Sicher, ein Betriebssystem, das mit beiden CPUs
            arbeiten könnte, wäre mir auch lieber ...

            Ja, aber die rechnen dann unabhängig voneinander,
            und beides ist entlastet. Das Forum, so toll es
            auch ist, ist von der Struktur nunmal potentiell
            unperformant.

            Und das wird es auch dann sein, wenn es einen Rechner
            für sich hat. Über den Tag gerechnet schätze ich, daß
            das Forum 70% und die Suche 20% der CPU-Last saugt,
            alles übrige insgesamt den Rest.
            Wenn Du dann zwei gleich starke Maschinen hinstellst,
            wird das Forum nicht mal um 50% schneller, und die
            Sperren-Problematik wird überhaupt nicht entschärft.

            Es gibt gar nicht so viele Einsatzfälle in der
            IT, die sich beliebig leicht auf mehrere Rechner
            bzw. Prozessoren verteilen lassen.
            Aber gerade dieses Projekt ist doch geradezu
            prädestiniert dafür! Schon alleien die vielen
            verschiedenen Adressen!(selfforum, selfhtml,
            selfaktuell, selfsuche...) das kann man doch
            wunderbar verteilen!

            Nicht, wenn mehrere davon auf dieselben Daten zu-
            greifen müssen.
            Laß Dich nicht von der "Verpackung" blenden: Der
            Forums-Archivierer und die Suchmaschine bearbeiten
            dieselbe Datenstruktur, nämlich die Index-Dateien der
            Suche. Der eine schreibt sie, der andere liest sie.

            Sicher braucht man dazwischen eine Verbindung,
            aber was ist das Problem? Die ist ja Netzintern
            mit 100Mbit, das sollte keine Probleme machen!

            Aber wenn der eine Rechner lahmgelegt wird und der
            andere von diesem abhängt, hast Du nichts gewonnen.
            Und diese 100MBit-Verbindung mag performant genug
            sein - aber sie ist auch eine zusätzliche potentielle
            Ausfallstelle. Ein Rechnernetz voneinander abhängiger
            Systeme, die einander nicht ersetzen können, ist feh-
            leranfälliger als ein Einzelrechner.

            Viele Grüße
                  Michael

            1. Hallo!

              Es geht doch nicht nur um die Angreifer, das wäre
              ein kleiner Nebeneffekt.

              meine Eindruck ist ein anderer.

              Wie meinst Du das? Meinst Du mein Posting oder die tatsächliche Belastung?

              Es geht darum das die Suche besser funktioniert,

              Die Suche _alleine_ funktioniert tadellos. Schau Dir
              die ausgegebenen CPU-Zeiten an - die Maschine _ist_
              schnell und wird mit dem Durchsuchen von 100 MB in
              einer Zeit fertig, die als Antwortzeit durchaus reicht.

              1. Wenn das Archiv in der Geschwindigkeit so weiterwächst, dann hast Du in 1 Jahr über 250 MB zu durchsuchen... wenn man optimistisch ist! Und das halbiert die Performance schonmal!
              2. habe ich sehr oft Zeiten von über 4 Sekunden da stehem
              3. hast Du die guten Zeiten nur weil andauernd dei Sperre greift, wenn dem nicht so wäre will ich nicht wissen wie es dem Server ergehen würde!

              _Das_ liegt nicht an der Verarbeitungsgeschwindigkeit
              des Rechners, sondern an der Sperren-Logik der Forum-
              Software, d. h. an deren Architektur.

              Sicher, aber ein schnellerer Server kann trotzdem mehr Posting in gleicher Zeit bei gleicher Sperre bearbeiten! Und auch hier, wenn die Sperre weg ist leidet die Performance!

              Das, was Christian derzeit neu schreibt, wird viel
              weniger Sperren setzen - und _deshalb_ werden sich
              die Forums-Poster weniger gegenseitig behindern.

              Aber durch das Behindern wird Performance gespart, bzw. verteilt, die einen Teil des Performance-Gewinns "aufgefressen" wird!

              Bevor ich Christian dafür einsetzen wollen würde,
              eine neue Maschine "zuzureiten"

              ich dachte bei Linux wäre das nicht _soooo_ der Akt?! Die conf-Files kann man sich ja kopieren!

              oder gar das Self-
              Portal sauber in zwei Rechner zu zerschneiden (was
              eben auch ein Haufen Arbeit sein kann),

              OK, das glaube ich!
              Wie ist das denn eigentlich bei einem Cluster, wird das ganze Verteilen da nicht von der Software übernommen, und der Admin hat am Ende doch nur einen "virtuellen" Server?

              würde ich
              lieber seine neue Forums-Software im Einsatz sehen.
              Danach haben wir vielleicht überhaupt kein Perfor-
              mance-Problem mehr.

              Vielleicht, wißt Ihr denn schon so ganz grob in welchem Rahmen sich die Einsparungen bewegen könnten?

              Siehe oben: Das löst keine organisatorischen oder
              architektonischen Probleme.

              Es gibt mehere Stellen wo man die Performance verbessern kann, aber die Last des SELF-Raums wird ja auch nicht geringer mit der Zeit, und ohne Sperren..., neue, zusäztliche Funktionen im Forum wird auch Performance verbraucht, das Archiv wird erheblich wachsen...
              Wenn man doch jetz ohen besonders viel Zeit zu investioeren die Hardware verbessern könnte, was Sprache dagegen? Alleine die Tatsache das keine Zeit mehr fürs Aufregen über igenorante Beschwerde-Mails/Postings aufgebracht werden müßte...

              Einen Rechner, der so schnell ist, wie der bisherige
              mit getuneter Software, kannst Du für keinen sechs-,
              vielleicht nicht mal siebenstelligen Betrag kaufen -
              das ist meine Erwartung.

              Das glaube ich nicht. Für 1 Mio EUR stelle ich Dir einen Cluster mit 1000 Rechnern wie von mir beschreiben da hin, schon alleine die 10 % Performance für "den Rest", die ja nicht verändert wird verhindert das!

              Das, was Christian gekauft hat, _ist_ schon gut.

              Ja? 1,2 GHz, 1GB RAM? Sicher, alles Top-Komponenten mit sehr hoher Ausfallsicherheit, aber überleg Dir mal die Anforderungem!

              Da sind keine großen Verbesserungen mehr zu holen.

              Ich weiß, die Zahlen sind nicht alles, zum einen gibt es für eine vergleiocubare Architektur  inzwischen soweit ich weiß einen schnelleren FSB, mehr als doppelt soviel CPU-MHz und 8 mal soviel RAM!

              Sicher, ein Betriebssystem, das mit beiden CPUs
              arbeiten könnte, wäre mir auch lieber ...

              Wenn ich mal so fragen darf - warum installiert Ihr dann keines? Wie ich in einigen Tests lesen konnte wird dasselbe Board erfolgreich mit RedHat 7 mit 2 Prozessoren verwendet wird. Das versteh ich nicht ganz! Aber Ihr habt ja kein Linux sondern irgendei BSD wenn ich nicht irre. liegt es daran? Aber igr werdet das sicher genauso gut wissen und andere Dinge sind wohl wichtiger, war mir halt nur so aufgefallen.

              Und das wird es auch dann sein, wenn es einen Rechner
              für sich hat. Über den Tag gerechnet schätze ich, daß
              das Forum 70% und die Suche 20% der CPU-Last saugt,
              alles übrige insgesamt den Rest.

              Ich weiß jetzt nicht ob der RAM evtl. einen Engpaß darstellt, aber dei CPU scheint dies ja zu sein. Da ich versteh das Ihr das System nicht neu mit RedHat oder ähnlichem aufsetzen wollt, könnte man ja eine schnellere CPU besorgen, die 50% schneller ist, das wäre doch eine 50%ige Performance-Steigerung, und ist nicht wirklich zeitaufwändig, oder? Vielleicht könnte man temporär mit einem anderen Board(single-cpu) und einer anderen CPU noch erheblich mehr rausholen. Wie gesagt, die Bereitschaft hierfür zu spenden besteht, das ganze würde Euch so gut wie keine Zeit kosten.
              Warum nehmt Ihr das "Gechenk" nicht einfach an? Mehr Hardware-Performance ist doch nie verkehrt. Und die meisten Leute würden das gerne unterstützen, da sie so wie ich (noch) nicht in der Lage sind Euch Programmiertechnisch zu helfen.

              Viele Grüße
              Andres

              1. Hi Andreas,

                1. Wenn das Archiv in der Geschwindigkeit so
                  weiterwächst, dann hast Du in 1 Jahr über 250 MB
                  zu durchsuchen... wenn man optimistisch ist!

                nichts spricht dagegen, das Archiv in kleinere Teile
                als Jahres-Abschnitte zu zerlegen. Das geht ohne
                Änderung der bestehenden Software in wenigen Minuten,
                durch eine Änderung in einer Konfigurationsdatei.
                Bisher scheint das niemand für notwendig angesehen zu
                haben - ich vermute, weil es das Forum ist, das "weh
                tut", nicht die Suche.

                1. habe ich sehr oft Zeiten von über 4 Sekunden da
                  stehem

                Für die jetzige Größe einer Jahres-Archivdatei war die
                Indexstruktur auch nicht gedacht.
                Mach Quartalsdateien daraus, und Du bekommst deutlich
                schnellere Antwortzeiten, weil nur die wenigsten Such-
                vorgänge das gesamte Archiv durchsuchen müssen.

                1. hast Du die guten Zeiten nur weil andauernd dei
                  Sperre greift, wenn dem nicht so wäre will ich nicht
                  wissen wie es dem Server ergehen würde!

                Wir reden von verschiedenen Sperren. Ich meine nicht
                das "Aussperren" von Benutzern von der Suche, sondern
                die Forums-Software, die während der Einfügung eines
                neuen Postings Dutzende (!) von Forums-Dateien sperren
                muß, weil all diese Dateien konsistent geändert werden
                müssen. Dadurch ist die Wahrscheinlichkeit, daß zwei
                Postings einander gegenseitig behindern, ziemlich hoch.

                Aber durch das Behindern wird Performance gespart,
                bzw. verteilt, die einen Teil des Performance-
                Gewinns "aufgefressen" wird!

                Keineswegs. Durch das Behindern wird Performance nutz-
                los verbraten, weil Sperren gesetzt und abgefragt wer-
                den müssen, die bei einer besseren Architektur gar
                nicht notwendig sind!
                Du wirst mir doch nicht erzählen wollen, daß der Server
                dadurch _entlastet_ wird, daß ein Teilnehmer sein
                Posting so oft absenden muß, bis es endlich mit nichts
                mehr kollidiert, statt dies nur ein einziges mal tun zu
                müssen?

                Bevor ich Christian dafür einsetzen wollen würde,
                eine neue Maschine "zuzureiten"
                ich dachte bei Linux wäre das nicht _soooo_ der
                Akt?! Die conf-Files kann man sich ja kopieren!

                Aber die Einrichtung dutzender von Benutzerkennungen,
                die Installation der gesamten Software (FTP-Server,
                Squid, Perl, Forum, ...), das kann Tage oder Wochen
                kosten. Zeit, die sinnvoller in die Entwicklung des
                neuen Forums gesteckt wird.
                Lies http://aktuell.de.selfhtml.org/artikel/server/self/software.htm,
                um zu sehen, was alles funktionieren muß, damit der
                Server seinen jetzigen Funktionsumfang bekommt.

                Wie ist das denn eigentlich bei einem Cluster, wird
                das ganze Verteilen da nicht von der Software
                übernommen, und der Admin hat am Ende doch nur einen
                "virtuellen" Server?

                Dazu muß es diese "clusterfähige" Software aber erst
                einmal geben. Die muß so geschrieben sein, daß sie
                in viele einzelne Prozesse zerlegbar ist, welche in
                einer Art und Weise miteinander kommunizieren bzw. auf
                gemeinsame Daten zugerifen können, die performant ist,
                aber gleichzeitig die Konsistenz der Daten nicht zer-
                stört. Und daß Synchronisation wiederum Ressourcen
                frißt, sollte Dir klar sein.
                Wenn Forum-Software auf zwei CPUs parallel läuft und
                beide gleichzeitig ein Posting erzeugen wollen, wer
                regelt dann, in welcher Reihenfolge die XML-Strukturen
                von diesen Postings verändert werden dürfen?
                Eine mehrprozessor-fähige Software zu schreiben ist ein
                erheblicher Zusatzaufwand. Mach Dir den Unterschied
                zwischen ASCII-Dateien und einer Oracle-Datenbank be-
                wußt, dann hast Du die ungefähre Größenordnung davon.

                Vielleicht, wißt Ihr denn schon so ganz grob in
                welchem Rahmen sich die Einsparungen bewegen
                könnten?

                Das sollte besser Christian beantworten. Ich habe nur
                ganz ungefähr in Erinnerung, daß das Analysieren der
                XML-Strukturen einen nennenswerten Prozentanteil der
                gesamten Verarbeitungszeit kostet. Und das wird nicht
                etwa schneller werden, sondern komplett _wegfallen_.
                (Die Strukturen werden dann nur noch ein einziges Mal
                geparst, nämlich wenn der Forum-Daemon gestartet wird

                • ansonsten hält dieser die Daten im Hauptspeicher.)

                Wenn man doch jetz ohen besonders viel Zeit zu
                investioeren die Hardware verbessern könnte, was
                Sprache dagegen?

                Mir erscheint das Preis/Leistungs-Verhältnis bei der
                Aktivierung neuer Hardware ungünstiger als bei der
                Verbesserung der bestehenden Software.
                Von beiden Haupt-Anwendungen ist bekannt, daß durch
                eine Änderung der Architektur erhebliche Faktoren
                eingespart werden können. Ohne diese Änderungen wird
                es auf die Dauer nicht gehen - ohne bessere Hardware
                aber vielleicht schon. Deshalb befürworte ich, zuerst
                die wichtige und unvermeidliche Änderung, die keine
                Anschaffungskosten mit sich bringt, zu absolvieren,
                und danach zu prüfen, ob die Aufrüstung der Hardware
                dann überhaupt noch etwas bringt.
                Ich bin nicht entscheidungsbefugt für die Weiterent-
                wicklung des Self-Portals. Ich sage nur meine Meinung.
                Und Christian Kruse ist dabei die "knappe Ressource".

                Alleine die Tatsache das keine Zeit mehr fürs
                Aufregen über igenorante Beschwerde-Mails/Postings
                aufgebracht werden müßte...

                Das Aufregen bindet keine kostbaren Ressourcen. ;-)

                Das glaube ich nicht. Für 1 Mio EUR stelle ich Dir
                einen Cluster mit 1000 Rechnern wie von mir
                beschreiben da hin

                Auf dem nichts von der derzeit existierenden Software
                schneller läuft. Wie oft soll ich Dir das noch erklären?

                Das, was Christian gekauft hat, _ist_ schon gut.
                Ja? 1,2 GHz, 1GB RAM? Sicher, alles Top-Komponenten
                mit sehr hoher Ausfallsicherheit, aber überleg Dir
                mal die Anforderungem!

                Das tue ich. Und was diese Anforderung nicht erfüllt,
                das ist die Architektur der Software - nicht die Hard-
                ware.
                Du siehst doch, daß das Self-Portal bei den readonly-
                Seiten mühelos mit der bestehenden Hardware auskommt.

                Ich weiß, die Zahlen sind nicht alles, zum einen
                gibt es für eine vergleiocubare Architektur
                inzwischen soweit ich weiß einen schnelleren FSB,
                mehr als doppelt soviel CPU-MHz und 8 mal soviel
                RAM!

                Der mehr RAM nützt nichts, sofern die Software ihn
                nicht ausnutzt. Den Faktor 2 bei der CPU habe ich
                berücksichtigt - die Software-Änderung wird ein Viel-
                faches davon bewirken. Also ist letztere wichtiger.

                Wenn ich mal so fragen darf - warum installiert Ihr
                dann keines?

                Die Entscheidung für das Betriebssystem hängt noch von
                anderen Faktoren ab als nur der Unterstützung von zwei
                CPUs. Christian hat sich für BSD entschieden, und er
                wird seine Gründe dafür haben.

                Ich weiß jetzt nicht ob der RAM evtl. einen Engpaß
                darstellt, aber dei CPU scheint dies ja zu sein.

                Genaue Zahlen hat nur Christian, aber ich sehe das
                ähnlich.

                Da ich versteh das Ihr das System nicht neu mit
                RedHat oder ähnlichem aufsetzen wollt, könnte man
                ja eine schnellere CPU besorgen, die 50% schneller
                ist, das wäre doch eine 50%ige Performance-
                Steigerung, und ist nicht wirklich zeitaufwändig,
                oder?

                Wie lange darf das Portal für den Umbau ausfallen?
                Tage? Wochen?
                Bedenke, daß der Rechner in München steht und Christian
                einige hundert Kilometer entfernt davon wohnt. Das ist
                alles nicht so einfach, wie Du Dir das vorstellst.

                Warum nehmt Ihr das "Gechenk" nicht einfach an?

                Ich möchte Dich nicht enttäuschen. Und ich möchte auch
                nicht, daß Du mit dem Geschenk Erwartungen verbindest,
                die dann nicht erfüllt werden.
                Ich bin aber weder befugt, das Geschenk anzunehmen,
                noch es abzulehnen.

                Mehr Hardware-Performance ist doch nie verkehrt.

                Wenn ihr Einsatz kostbarere Ressourcen bindet, schon.

                Und die meisten Leute würden das gerne unterstützen,
                da sie so wie ich (noch) nicht in der Lage sind Euch
                Programmiertechnisch zu helfen.

                Wie willst Du Christians Betriebs- und Sicherheits-
                konzept auf einem anderen Betriebssystem umsetzen
                helfen?

                Viele Grüße
                      Michael

  3. Hallo,

    ich weiß jetzt nicht ob das wirklich was bringt bei den DoS Atacken,

    Kommt darauf an, was fuer eine Art DoS benutzt wird. DoS ist ein *sehr* allgemeiner Begriff;
    darunter faellt viel.

    Nur mal so interessehalber, nutzt Ihr sowas,

    Nein.
    Eine Firewall ist nur dann sinnvoll, wenn sie auf einem anderen Rechner als dem zu schuetzenden
    System ist.

    und würde es überhaupt was bringen?

    Nein. Wir haben es mit einer ganz anderen Art von DoS zu tun, da kann keine Firewall helfen. In
    unserem Fall waere es sogar schlecht: eine Firewall verursacht durchaus Last, und das nicht zu
    knapp. Gerade auf einem so gut besuchten System wie hier.

    Gruesse,
     CK

    1. Hallo!

      DAke für die Info!

      Grüße
      Andreas