dedlfix: Welche Hardware braucht Selfhtml?

0 83

Welche Hardware braucht Selfhtml?

  1. 0

    Welche Hardware braucht Selfhtml? - Und welchen Sponsor?

    1. 0
      1. 0
        1. 0
          1. 0
            1. 0
              1. 2
                1. 0
                  1. 0
        2. 0
      2. 0
        1. 0
          1. 0
            1. 0
              1. 0
            2. 0
    2. 0
      1. 0
      2. 0
  2. 2
    1. 0
      1. 5
        1. 0
          1. 0
          2. 1
            1. 0
              1. 0
                1. 0
                2. 0
                3. 1
    2. 0

      Welche Hardware? Welche Services (Mail/DNS) auslagern?

      1. 0
        1. 0
          1. 0
            1. 0
        2. 0
      2. 0
        1. 0
          1. 0
          2. 0
        2. 0
    3. 0
      1. 0
        1. 0
  3. 1
    1. 0
      1. 0
        1. 0
    2. 0
      1. 0
    3. 0
    4. 0
    5. 3
    6. 0
      1. 0
        1. 0
          1. 0
            1. 0
              1. 0

                Pragmatismus und Machbarkeit vor Sonderwünschen ...

                1. 0
                  1. 0
              2. 0
                1. 0
                  1. 0
                    1. 0
                    2. 0
                      1. 0
              3. 0
                1. 0
                  1. 0

                    Welche Suchfunktion braucht Selfhtml?

                    1. 0
                      1. 0
                2. 0
                3. 0
  4. 5

    Welche Hardware braucht Selfhtml? Mögliche Varianten

    1. 0
      1. 0
        1. 0
      2. 0
    2. 0
      1. 0
        1. 0

Tach!

Damit künftig nicht wieder so viel Zeit ins Land geht, wenn etwas ausfällt, denken wir™ ja gerade darüber nach, wie die zukünftige Hardwaregrundlage für das SELFHTML-Projekt aussehen kann.

Das: http://aktuell.de.selfhtml.org/sonst/neuehardware.htm#neuehardware sind nicht in jedem Fall die aktuellen Daten der Server. Server gibt es übrigens 4 Stück, heimdall, odin, ve und vili. Odin hat grad das Zeitliche gesegnet. Wenn ich das den Daten der Systemüberwachung richtig entnehme, hat Heimdall mit 4GB doppelt so viel Speicher und mit 800% CPU (1 Kern=100%) gegenüber den 200% der anderen beiden auch mehr CPU (wieviel mehr genau hängt ja vom Modell und dem Takt ab). Nach den Auslastungsdaten langweilen sich die CPUs meistens, der Load (Anzahl der wartenden Prozesse) hat manchmal Spitzen, ist aber durchschnittlich im Rahmen (deutlich unter 1) und der Speicher swapt nicht besonders dramatisch über. Es sieht so aus, als ob man mit den Ressourcenwerten im Prinzip auch weiterleben könnte. Für die genauere Bedarfsabschätzung brauchen wir nun Angaben und Erfahrungswerte von den Administratoren. Welche Aufgaben hat welcher Server? Stimmt meine Einschätzung der Ressourcenlage? Was ist sonst noch beachtenswert?

Als nächstes müsste ermittelt werden, wie eine neue Aufteilung aussehen soll. Alles auf einen Server halte ich für etwas riskant. Mindestens ein zweiter, möglichst gleicher, auf dem man aber auch erstmal zum Beispiel ein Software-Update probieren kann, ohne dass gleich alles weg ist, wäre schon schön.

Wenn es dann zur Auswahl geht, plädiere ich aufgrund meiner Erfahrung mit einer Variante für 9€/Monat dafür, V-Server (für das Hauptangebot) zu meiden. Wohl aber (ebenfalls Erfahrung) spricht für mich nichts gegen virtualisierte Hardware. Siehe Wikipedia zu virtuellen Hosts. Der 9€-V-Server entspricht einem "Virtuellen Hosts auf Basis von Betriebssystemen" und bei diesem beschränkt das Hostsystem einige nicht unwichtige Ressourcen (z.B. Anzahl der geöffneten Dateien). Solche Beschränkungen sind nicht weiter verwunderlich, denn der Anbieter muss wirtschaftlich denken und zu dem niedrigen Preis möglichst viele Kunden unterbringen.

Bei virtualisierter Hardware hingegen kann sich das Gastsystem innerhalb der "Hardware"grenzen beliebig austoben. Mein Vorschlag wäre deshalb http://hosting.1und1.de/cloud-hosting oder etwas vergleichbares. Der Vorteil daran ist, dass die eigentliche Hardware komplett in Betreiberhand liegt und deutlich besser gegen einen Ausfall geschützt sein sollte als ein dedizierter Server. Es betrifft im Falle eines Falles ja mehrere Kunden und nicht nur einen, die eventuell Ausfallvergütung fordern könnten. Zudem kann der Betreiber die Gastsysteme üblicherweise nahtlos auf andere Systeme umziehen, wenn ihm was ausfällt oder auch nur die Hardware zu alt werden sollte. Ein eigener Mietserver muss abgemietet und was neues gemietet werden, wenn man aus Hardwaregründen umsteigen möchte. Und Hardware erweitern ist auch nicht ganz so einfach drin.

Dann kommen noch die Details, die bei einer Auswahl zu beachten sind. Derzeit verfügen die Server untereinander über ein eigenes Netzwerk, über das zum Beispiel Datenbankzugriffe intern laufen können. Hat man sowas nicht, muss man zu einem Tunnel als Behelfslösung greifen, damit der Verkehr nicht ungeschützt über öffentliches Gebiet geht, selbst wenn alles im RZ des Hosters bleibt. Zudem geht aller Verkehr über daselbe Netzwerk-Interface. Leider habe ich keine Erfahrung, wieviel Einbußen solch ein Tunnel bedeutet und ob das relevant ist.

Was wären weitere zu beachtenden Dinge, sowohl Unverzichtbares als auch nettes Beiwerk?

Wenn das soweit geklärt ist, kommt die Phase der Angebotseinholung an die Reihe. Unabhängig von den obigen Ermittlungen können wir aber auch dazu schon einmal potentielle Kandidaten zusammentragen.

dedlfix.

P.S. zum Betreff: Ich weiß, dass es sich SELFHTML in Großbuchstaben schreibt, aber wenn ich das so im Titel schreibe, kommen bei mir regelmäßig genügend Punkte zusammen, um von der Forumssoftware angezählt zu werden - deshalb die Normalschrift.

  1. Hallo,

    Bei virtualisierter Hardware hingegen kann sich das Gastsystem innerhalb der "Hardware"grenzen beliebig austoben. Mein Vorschlag wäre deshalb http://hosting.1und1.de/cloud-hosting oder etwas vergleichbares.

    http://www.strato.de/server/virtual-linux-server/ - einfach weil ich das vorhin mal rausgesucht hatte. ich kann den unterschied im detail nicht erkennen, denke aber, man sollte mal grundsätzlich drei angebote vergleichen. vielleicht sucht ja noch einer was bei hosteurope raus.

    Am Ende sollte man aber schauen, ob man den kompletten Klumpatsch nicht von denen gesponsort bekommt! Deshalb u.U. auch mehr als drei mögliche Hoster raussuchen und die dann der Reihe nach abklappern von wegen Sponsoring...;

    Gruß

    jobo

    1. مرحبا

      http://hosting.1und1.de/cloud-hosting

      http://www.strato.de/server/virtual-linux-server/

      Wenn das eine Freie Wahl ist stimme ich für 1und1.

      mfg

      1. Tach!

        Wenn das eine Freie Wahl ist stimme ich für 1und1.

        Konkret können wir erst dann eine Wertung vornehmen oder auch nach Sponsoring fragen, wenn wir konkret wissen, was wir brauchen/wollen. ("Können Sie uns sponsorn? Wir wissen aber noch nicht, was wir brauchen." kann funktionieren, muss aber nicht.)

        Ich weiß, diese Ermittlung bremst den Tatendrang, aber die Technik ist (neben den Mitstreitern) der wichtigste Teil vom Rückgrat des zukünftigen Angebots. Nicht nur wegen eventueller Vertragslaufzeiten, die uns am Nachbessern hindern können, sollte das gut durchdacht werden. Die Frage nach den Angeboten sollte deshalb erst einmal ein Nebenschauplatz sein.

        dedlfix.

        1. مرحبا

          Ich weiß, diese Ermittlung bremst den Tatendrang, aber die Technik ist (neben den Mitstreitern) der wichtigste Teil vom Rückgrat des zukünftigen Angebots.

          Ich ziehe meine Stimme zurück. Hab nur aus Reflex mitgestimmt, weil ich so gerne wähle :)

          Aber wenn ich schon mal hier schreibe, wie ist das eigentlich mit User-Datenbanken? Habt Ihr da was in Planung?
          Wenn jemand z. B. einen Wiki-Artikel zu MySQL schreibt, welches mit Datenbanken zutun hat.
          Gleiche gilt auch für PHP, könnte ich einen Artikel mit PHP-Beispielen schreiben? Ich frage deshalb, weil alle Fachartikel, in denen es um PHP oder Datenbanken geht, ohne Fall-Beispiele auskommen müssen, habt Ihr da was in Planung?

          mfg

          1. Tach!

            Wenn jemand z. B. einen Wiki-Artikel zu MySQL schreibt, welches mit Datenbanken zutun hat.
            Gleiche gilt auch für PHP, könnte ich einen Artikel mit PHP-Beispielen schreiben? Ich frage deshalb, weil alle Fachartikel, in denen es um PHP oder Datenbanken geht, ohne Fall-Beispiele auskommen müssen, habt Ihr da was in Planung?

            Das hatten wir, also konkret ich (als Esel zuerst genannt) und Christian Seiler, schonmal überlegt, aber als damals nicht wirklich wichtig und mit zu vielen Bedenken behaftet auf die lange Bank geschoben. Eine Frage dabei ist auch, ob solche Beispiele in lauffähiger Form interessant sind oder ob es der interessierte Leser nicht mit einer eigenen (XAMPP-)Umgebung besser nachvollziehen kann. Ein Beispiel mit schreibendem Datenbankzugriff erfordert auch besondere Rahmenbedingungen, die das Beispiel einerseits garantiert sprengen (oder den Beispiel-Code zumindest im Hintergrund stark erweitern), der Leser aber andererseits die Ausführung im Original miterleben kann und nicht vom Spam der vorhergehenden Nutzer irritiert wird. Es ist ja nicht einfach damit getan, am Anfang des Requests zu initialisieren und am Ende aufzuräumen. Gleichzeitige Zugriffe sollten wohl besser isoliert werden und Beispiele mit mehreren Requests in Folge willst du vielleicht auch präsentieren. Aber nichtsdestotrotz, wenn da jemand brauchbare Ideen für ein Konzept oder gleich ein solches hat, kann er die gern zur Diskussion stellen, am besten vielleicht auf der Diskussionsseite zu http://wiki.selfhtml.org/wiki/Hilfe:Beispiele.

            dedlfix.

            1. مرحبا

              Eine Frage dabei ist auch, ob solche Beispiele in lauffähiger Form interessant sind oder ob es der interessierte Leser nicht mit einer eigenen (XAMPP-)Umgebung besser nachvollziehen kann.

              Wenn ich mal für mich sprechen darf, ich finde es eher lästig, wenn ich gezwungen bin, meinen Xampp zu starten, nur um mal ein Script auszuprobieren.
              Manche Fachartikel setzten ja sogar voraus, dass man viele Scripte auslagert, dass ist wirklich nervig.

              kann er die gern zur Diskussion stellen, am besten vielleicht auf der Diskussionsseite zu http://wiki.selfhtml.org/wiki/Hilfe:Beispiele.

              Achnö, guck mal, von wann da die letzte Diskussion ist.

              Mit dem Wiki komm ich nicht klar, ich bleib lieber hier. Ich würde sogar Artikel lieber hier schreiben, als im Wiki.

              mfg

              1. Tach!

                Eine Frage dabei ist auch, ob solche Beispiele in lauffähiger Form interessant sind oder ob es der interessierte Leser nicht mit einer eigenen (XAMPP-)Umgebung besser nachvollziehen kann.
                Wenn ich mal für mich sprechen darf, ich finde es eher lästig, wenn ich gezwungen bin, meinen Xampp zu starten, nur um mal ein Script auszuprobieren.

                Wenn du nur die Ausgabe sehen willst, nun, die kann man zur Not auch unter das Beispiel schreiben. Nachvollziehen und schauen welche Änderungen was bewirken, kannst du aber nicht auf dem Self-Server. Da kommst du nicht um eine eigene Installation umhin. HTML, CSS und Javascript ist da anders, das läuft aus Prinzip bei dir im Client.

                Manche Fachartikel setzten ja sogar voraus, dass man viele Scripte auslagert, dass ist wirklich nervig.

                So ist aber das Leben - manchmal eben komplex.

                kann er die gern zur Diskussion stellen, am besten vielleicht auf der Diskussionsseite zu http://wiki.selfhtml.org/wiki/Hilfe:Beispiele.
                Achnö, guck mal, von wann da die letzte Diskussion ist.

                Naja, wir™ können nicht jeden Tag auf jeder Wiki-Seite Änderungen vornehmen ... Außerdem war ja auch lange Zeit Flaute.

                Mit dem Wiki komm ich nicht klar, ich bleib lieber hier. Ich würde sogar Artikel lieber hier schreiben, als im Wiki.

                Das ist auch kein unlösbares Problem. Das Wikifizieren kann jemand übernehmen.

                dedlfix.

                1. مرحبا

                  Wenn du nur die Ausgabe sehen willst, nun, die kann man zur Not auch unter das Beispiel schreiben.

                  Wenn wir bpsw. das Login-Script nehmen, da nützt mir die Ausgabe ja nichts. Besser wäre, wenn ich direkt auf einem laufenden Webserver das Script austesten könnte, sprich im Artikel selbst.
                  Ist aber auch nicht wirklich wichtig, war nur ein Denkanstoss.

                  So ist aber das Leben - manchmal eben komplex.

                  Unsere Aufgabe sollte sein, dingen die Komplexität zu nehmen, oder?

                  Naja, wir™ können nicht jeden Tag auf jeder Wiki-Seite Änderungen vornehmen ... Außerdem war ja auch lange Zeit Flaute.

                  Ich konnte mich seit der Einführung des Wiki nicht damit anfreunden, keine Ahnung warum.

                  Ich würde sogar Artikel lieber hier schreiben, als im Wiki.
                  Das ist auch kein unlösbares Problem. Das Wikifizieren kann jemand übernehmen.

                  Ich komme darauf zurück :)

                  mfg

                  1. Hallo,

                    Wenn wir bpsw. das Login-Script nehmen, da nützt mir die Ausgabe ja nichts. Besser wäre, wenn ich direkt auf einem laufenden Webserver das Script austesten könnte, sprich im Artikel selbst.

                    Dazu bräuchte man dann eine Sandbox extra für dieses Script, und da jeder der das lernen will sowieso schon einen Server bei sich laufen hat auf dem er herumprobiert (ansonsten wäre er ja kaum am Artikel interessiert) scheint mir das etwas übers Ziel geschossen.

                    Jeena

        2. Hallo,

          Konkret können wir erst dann eine Wertung vornehmen oder auch nach Sponsoring fragen, wenn wir konkret wissen, was wir brauchen/wollen. ("Können Sie uns sponsorn? Wir wissen aber noch nicht, was wir brauchen." kann funktionieren, muss aber nicht.)

          Ich weiß, diese Ermittlung bremst den Tatendrang, aber die Technik ist (neben den Mitstreitern) der wichtigste Teil vom Rückgrat des zukünftigen Angebots.

          Du hast absolut Recht. Da sollte jetzt auch nix mit "Tatendrang" sein, sondern es sollte ein langfristig möglichst hardwaretechnisch wartungsfreies System her und es sollte auch klar sein, dass man vServern nicht irgendwelche Eigenschaften unterjubelt, die diese garnicht haben. Und ein "gängiges" BS sollte auch her (https://forum.selfhtml.org/?t=209994&m=1429748).

          Meine Sorge wäre, dass man sich da auf lange Sicht technisch ein Ei legt, dass dann genau das selbe Problem in fünf Jahre wieder auf den Plan ruft, und dass dann CK nicht mehr da ist, um es zu fixen...;

          Gruß

          jobo

      2. Hallo,

        Wenn das eine Freie Wahl ist stimme ich für 1und1.

        Ich nicht, die machen z.b. das nutzen eines eigenen Jabberservers unmöglich und wer weiß noch welche anderen Sachen.

        Jeena

        1. مرحبا

          Wenn das eine Freie Wahl ist stimme ich für 1und1.
          Ich nicht, die machen z.b. das nutzen eines eigenen Jabberservers unmöglich und wer weiß noch welche anderen Sachen.

          Von einem Jabberserver war nie die rede, nur Root-Zugriff, und der ist bei 1und1 gegeben.

          Zumal, wenn Strato seine VServer so vorkonfiguriert, wie deren Webspace vorkonfiguriert ist, dann würde ich einen grossen Abstand um Strato halten.

          Zuguter letzt ist da noch die Bedienoberfläche beider anbieter, schonmal das Vergnügen mit beiden gehabt? Strato strahlt nicht unbedingt mit Usability, aber ja, ein Jabberserver ist bestimmt wichtiger.

          Ich bleibe bei 1und1. Die Jungs verstehen was von Ihrem Job, bei Strato habe ich so meine Zweifel.

          mfg

          1. Hallo,

            Ich nicht, die machen z.b. das nutzen eines eigenen Jabberservers unmöglich und wer weiß noch welche anderen Sachen.
            Von einem Jabberserver war nie die rede, nur Root-Zugriff, und der ist bei 1und1 gegeben.

            Das war ein Beispiel von Sachen die man bei denen nicht machen kann. Wenn schon mal so etwas grundsätzliches nicht geht weil sie deine SVR-Records überschreiben ohne dich zu Fragen dann befürchte ich dass sie da nicht Stopp machen.

            Zuguter letzt ist da noch die Bedienoberfläche beider anbieter, schonmal das Vergnügen mit beiden gehabt? Strato strahlt nicht unbedingt mit Usability, aber ja, ein Jabberserver ist bestimmt wichtiger.

            Ich weiß ja nicht was dir für eine Laus über die Leber gelaufen ist, und warum du so tust als ob es auf der Welt nur zwei Anbieter geben würde, aber SVR-Records sind für die Funktion des Internets nun mal sehr wichtig, da hilft auch die schönste Bedienoberfläche um einen VServer zu erstellen nichts, mein Bruder musste aus diesem Grund zu einem anderen Anbieter wechseln und alles umziehen.

            Ich bleibe bei 1und1.

            Mach das.

            Jeena

            1. Tach!

              Ich nicht, die machen z.b. das nutzen eines eigenen Jabberservers unmöglich und wer weiß noch welche anderen Sachen.
              Von einem Jabberserver war nie die rede, nur Root-Zugriff, und der ist bei 1und1 gegeben.
              Das war ein Beispiel von Sachen die man bei denen nicht machen kann. Wenn schon mal so etwas grundsätzliches nicht geht weil sie deine SVR-Records überschreiben ohne dich zu Fragen dann befürchte ich dass sie da nicht Stopp machen.

              Das sollte doch aber nur dann ein Problem sein, wenn man die DNS-Verwaltung auf einem Server von ihnen lässt. Und da, meine ich, hat man sowieso nur die Möglichkeit, A und MX zu konfigurieren. Mit einem eigenen DNS-Server stellt das kein Problem mehr dar. (Dann könnten nur noch blockierte Netzwerkports hinderlich sein.) Die Umschaltung zwischen eigenem und 1&1-DNS-Server ist jedenfalls kein großer Akt.

              dedlfix.

              1. Hallo,

                Das sollte doch aber nur dann ein Problem sein, wenn man die DNS-Verwaltung auf einem Server von ihnen lässt.

                Gut möglich, mein Bruder hatte nicht das Geld um noch einen Server nur für das DNS laufen zu lassen ;-)

                Jeena

            2. مرحبا

              Ich weiß ja nicht was dir für eine Laus über die Leber gelaufen ist

              Kein Grund mich derart schief anzufahren.

              Die Jungs von Strato haben mMn keine Ahnung von Server-Administration, da würde ich eher auf 1und1 setzen, wo ist da das Problem? Wenn du Argumente hast, die meine widerlegen, lass hören. Wir warten.

              mfg

    2. Hallo,

      Bei virtualisierter Hardware hingegen kann sich das Gastsystem innerhalb der "Hardware"grenzen beliebig austoben. Mein Vorschlag wäre deshalb http://hosting.1und1.de/cloud-hosting oder etwas vergleichbares.

      http://www.strato.de/server/virtual-linux-server/ - einfach weil ich das vorhin mal rausgesucht hatte. ich kann den unterschied im detail nicht erkennen, denke aber, man sollte mal grundsätzlich drei angebote vergleichen. vielleicht sucht ja noch einer was bei hosteurope raus.

      Sorry, aber das sind zwei die ich für mich schon immer ausgeschlossen habe!

      das liest sich gut!
      Allerdings sollte man

      die hier... und

      diese hier... und außerdem

      ...noch die hier...

      in Betracht ziehen...

      ...wenn mal im Rechner was gestorben war wurde immer fix geholfen.

      bis dann

      Ulli

      1. Hallo,

        http://www.strato.de/server/virtual-linux-server/ - einfach weil ich das vorhin mal rausgesucht hatte. ich kann den unterschied im detail nicht erkennen, denke aber, man sollte mal grundsätzlich drei angebote vergleichen. vielleicht sucht ja noch einer was bei hosteurope raus.

        Sorry, aber das sind zwei die ich für mich schon immer ausgeschlossen habe!

        Fragt sich warum. Ich mache das nicht professionell aber kann aus meiner Erfahrung sagen: 0 Support / 100% Servererreichbarkeit. Ich habe seit 10 Jahren (oder mehr) Strato (Mail in dem Fall) erst einmal (!) erlebt, dass der SMTP-Server für 4 Stunden down war.

        Ansonsten danke für die weiteren Hinweise. Hosteurope hat ja wohl einen guten Kundensupport (wenn man den eben braucht).

        Gruß

        jobo

      2. Tach!

        [1&1, Strato]
        Sorry, aber das sind zwei die ich für mich schon immer ausgeschlossen habe!

        Du musst dich nicht entschuldigen, aber ein paar Argumente wären nett.

        das liest sich gut!

        Das ist so ein V-Server der ersten Kategorie (virtualisiertes Betriebssystem, Jail-Server). Ich kenne zwar die konkrete Ausführung nicht, befürchte aber ähnliche Einschränkungen wie bei den V-Servern von 1&1. Schon eher gefällt mir der nächste Menüpunkt. Das ist eine Virtualisierung der zweiten Kategorie (Hardware-Emulation).

        Allerdings sollte man
        die hier... und
        diese hier... und außerdem
        ...noch die hier...

        Bei allen dreien finde ich nur Hardware-Server und die kleinen V-Server der ersten Kategorie.

        dedlfix.

  2. Moin dedlfix,

    prinzipiell gilt, dass SELFHTML nicht auskommt mit diesen Jail-„vServern.“ Wir benötigen Root-Zugriff.

    Das vorweg gesagt, ist es egal, ob es virtuelle oder physikalische Server sind. Bei virtueller Hardware hat man den Vorteil, dass man die Maschine „mal eben schnell“ umziehen kann auf einen neuen Server, aber das erkauft man sich durch zusätzliche Komplexität und weniger Angepasstheit. Physikalische Hardware hat den Vorteil, dass man sie genauer auf die Bedürfnisse abstimmen kann, aber den Nachteil, dass man gegen Hardware-Ausfälle Redundanz, also mehrere Server, benötigt.

    Rein Leistungstechnisch sind schnelle Festplatten und viel RAM wichtig. Eine virtuelle Maschine mit vielleicht 16-32GB RAM und einem Quadcore-Prozessor sollte mehr als ausreichen und eine komfortable Sicherheits-Spanne nach oben liefern. Gerade beim RAM sollte man allerdings nicht sparen, allein schon, weil das OS den RAM als Festplattencache nutzen kann und der gerade enorm günstig ist.

    Mehr als eine Maschine halte ich bei den aktuellen Leistungs-Eckdaten allerdings nicht für notwendig.

    LG,
     CK

    1. Tach!

      prinzipiell gilt, dass SELFHTML nicht auskommt mit diesen Jail-„vServern.“ Wir benötigen Root-Zugriff.

      Root-Zugriff hat man auf denen auch, aber nur im Rahmen des Jails. Sei's drum, ich denke, so einen können wir aus den Planungspielen nehmen, egal wie groß er (versprochen) ist.

      Das vorweg gesagt, ist es egal, ob es virtuelle oder physikalische Server sind. Bei virtueller Hardware hat man den Vorteil, dass man die Maschine „mal eben schnell“ umziehen kann auf einen neuen Server, aber das erkauft man sich durch zusätzliche Komplexität und weniger Angepasstheit. Physikalische Hardware hat den Vorteil, dass man sie genauer auf die Bedürfnisse abstimmen kann, aber den Nachteil, dass man gegen Hardware-Ausfälle Redundanz, also mehrere Server, benötigt.

      Du plädierst zwar auch für virtuelle Hardware oder erachtest sie als ausreichend, aber zum Verständnis werfe ich doch noch ein paar Fragen in die Runde.
      Die zusätzliche Komplexität der virtuellen Umgebung hat doch der Hoster zu bewältigen, oder? Der 1&1-Cloud sieht für mich in der Hinsicht jedenfalls nicht anders als eine physische Maschine aus. Insofern sollte uns das egal sein können. Welche wesentlichen Anpassungen könnten wir benötigen oder tun es bereits, ein zweite Netzwerkinterface vielleicht? RAM, Prozessor und Platte als die drei wichtigsten Kenngrößen lassen sich (schnell) anpassen. Das Betriebssystem ist zwar nur aus einer Liste wählbar. Aber sollte da keins dabei sein, mit dem wir leben können? Gentoo wird es ja vermutlich nicht wieder werden.

      Die Redundanzen durch zusätzliche Server oder Ersatzteile sind bei den virtuellen Servern sicher eingepreist und wohl aus monetärer Sicht nicht sehr abweichend sein. Nicht eingepreist ist der Aufwand/Schaden, wenn uns mit physischer Hardware in x Jahren daselbe Problem entsteht wie jetzt.

      Rein Leistungstechnisch sind schnelle Festplatten und viel RAM wichtig. Eine virtuelle Maschine mit vielleicht 16-32GB RAM und einem Quadcore-Prozessor sollte mehr als ausreichen und eine komfortable Sicherheits-Spanne nach oben liefern. Gerade beim RAM sollte man allerdings nicht sparen, allein schon, weil das OS den RAM als Festplattencache nutzen kann und der gerade enorm günstig ist.
      Mehr als eine Maschine halte ich bei den aktuellen Leistungs-Eckdaten allerdings nicht für notwendig.

      Bei nur einer Maschine müssten also zumindest die jetzigen RAM- und Plattengrößen zusammengezählt werden, zuzüglich eines Puffers nach oben. Beim Prozessor kann man eher sparen und bei Bedarf in Zukunft updaten. Administrativ hat man mit einer Maschine auch weniger Arbeit.

      Wie sieht es mit Administrationshilfsmitteln aus. Kann ein Plesk, Webmin, etc. helfen oder steht es eher im Weg? Bitte auch berücksichtigen, dass vielleicht auch ein weniger erfahrener Admin mal eingreifen oder eine Mailadresse anlegen können sollte.

      dedlfix.

      1. Moin dedlfix,

        Das vorweg gesagt, ist es egal, ob es virtuelle oder physikalische Server sind. Bei virtueller Hardware hat man den Vorteil, dass man die Maschine „mal eben schnell“ umziehen kann auf einen neuen Server, aber das erkauft man sich durch zusätzliche Komplexität und weniger Angepasstheit. Physikalische Hardware hat den Vorteil, dass man sie genauer auf die Bedürfnisse abstimmen kann, aber den Nachteil, dass man gegen Hardware-Ausfälle Redundanz, also mehrere Server, benötigt.

        Du plädierst zwar auch für virtuelle Hardware oder erachtest sie als ausreichend, […]

        Nein, ich habe nicht für virtualisierte Hardware plädiert. Beides hat Vor- und Nachteile. In unserem Fall dürfte es wenig Unterschied machen.

        Die zusätzliche Komplexität der virtuellen Umgebung hat doch der Hoster zu bewältigen, oder?

        Das hilft uns aber nicht, wenn durch eine Lücke im Host-System das Gast-System kompromittiert werden konnte.

        Welche wesentlichen Anpassungen könnten wir benötigen oder tun es bereits, ein zweite Netzwerkinterface vielleicht?

        Naja, das kann man notfalls zur Laufzeit anpassen. Das ist ja das nette an virtualisierter Hardware. Aktuell halte ich das aber nicht für notwendig.

        Aber sollte da keins dabei sein, mit dem wir leben können? Gentoo wird es ja vermutlich nicht wieder werden.

        Ich würde immer Gentoo präferieren. Hier hat man die größte Freiheit. Im Notfall tut es auch ein Debian oder ein FreeBSD.

        Die Redundanzen durch zusätzliche Server oder Ersatzteile sind bei den virtuellen Servern sicher eingepreist und wohl aus monetärer Sicht nicht sehr abweichend sein.

        Bei Virtualisierung ist Redundanz idR nicht notwendig. Wenn wirklich der Host abraucht, dann zieht man auf einen anderen um – davon haben die Anbieter idR ein paar herumstehen. Das ist dann auch nur ein Disk-Image und eine Guest-Konfiguration kopieren auf den neuen Host. Je nach Storage-System nichtmal das.

        Bei nur einer Maschine müssten also zumindest die jetzigen RAM- und Plattengrößen zusammengezählt werden, […]

        Nein. Das kann man so nicht rechnen. Erstens benötigt das OS ja auch einiges an Platz und zweitens sind einige Daten doppelt vorhanden. Man muss wirklich sich beschränken auf die reinen Nutz-Daten und die dann zusammen rechnen.

        Was den RAM angeht: mehr ist immer gut.

        Administrativ hat man mit einer Maschine auch weniger Arbeit.

        Im Prinzip richtig, aber man sollte im Auge behalten, dass bei Wachstum mehr als eine Kiste notwendig wird. Die Trennung von Datenbank-Server und der Rest ist der erste Optimierungs-Schritt. Deshalb schrieb ich extra dazu, dass bei _aktuellen_ Leistungs-Eckdaten eine Kiste ausreicht.

        Wie sieht es mit Administrationshilfsmitteln aus. Kann ein Plesk, Webmin, etc. helfen oder steht es eher im Weg?

        Ich würde von solchen Tools immer abraten. Nicht nur erzeugen sie einiges an Komplexität, sondern sie haben oft auch Probleme mit der Sicherheit und die generierte Konfiguration ist immer „kaputt“… Plex, Confixx und Co sind die WYSIWYG-Editoren der Server-Administration.

        LG,
         CK

        1. Tach!

          Die zusätzliche Komplexität der virtuellen Umgebung hat doch der Hoster zu bewältigen, oder?
          Das hilft uns aber nicht, wenn durch eine Lücke im Host-System das Gast-System kompromittiert werden konnte.

          Ok, das kann ein zusätzliches Einfallstor darstellen, neben den Lücken im Betriebssystem oder den Anwendungen. Aber das muss der Hoster einfach mit beherrschen, ebenso wie den Rest seiner Infrastruktur.

          Aber sollte da keins dabei sein, mit dem wir leben können? Gentoo wird es ja vermutlich nicht wieder werden.
          Ich würde immer Gentoo präferieren. Hier hat man die größte Freiheit. Im Notfall tut es auch ein Debian oder ein FreeBSD.

          Wenn ich mich recht erinnere, hat selbst CS den Nachteil der langen Compilezeit als bedeutend gegenüber dem Vorteil der Individualität gesehen. Es ist ja nicht so, dass man auf den vorcompilierten Distributionen nicht mehr selbst tätig werden kann. Zudem dauert es selbst bei Gentoo manchmal ewig, bis eine von Hersteller als stabil angesehene Version ein emerge-Script bekommt. Andererseits gibt es für die Distributionen, wenn auch manchmal abseits vom offiziellen Pfad (sprich testing statt stable o.ä.) durchaus auch zeitnah aktuelle Pakete. - Die Klärung dieser Frage ist aber nicht kriegsentscheidend.

          Die Redundanzen durch zusätzliche Server oder Ersatzteile sind bei den virtuellen Servern sicher eingepreist und wohl aus monetärer Sicht nicht sehr abweichend sein.
          Bei Virtualisierung ist Redundanz idR nicht notwendig. Wenn wirklich der Host abraucht, dann zieht man auf einen anderen um – davon haben die Anbieter idR ein paar herumstehen.

          Ich meinte, dass der Hoster im Hintergrund für Redundanzen sorgen muss, die er in seiner Preisgestaltung natürlich berücksichtigen muss. Dass man durch die Virtualisierung im Gastsystem mit Redundanzen virtueller Hardware nicht mehr viel erreichen kann, ist mir soweit klar.

          Bei nur einer Maschine müssten also zumindest die jetzigen RAM- und Plattengrößen zusammengezählt werden, […]
          Nein. Das kann man so nicht rechnen. Erstens benötigt das OS ja auch einiges an Platz und zweitens sind einige Daten doppelt vorhanden. Man muss wirklich sich beschränken auf die reinen Nutz-Daten und die dann zusammen rechnen.

          Gut, dann hat man bei einfachem Summieren am Ende sogar noch Platz übrig. Auch nicht schlecht.

          Administrativ hat man mit einer Maschine auch weniger Arbeit.
          Im Prinzip richtig, aber man sollte im Auge behalten, dass bei Wachstum mehr als eine Kiste notwendig wird. Die Trennung von Datenbank-Server und der Rest ist der erste Optimierungs-Schritt. Deshalb schrieb ich extra dazu, dass bei _aktuellen_ Leistungs-Eckdaten eine Kiste ausreicht.

          Ja, deswegen auch mein Hinweis auf das interne Netz zwischen den Servern. Es wäre dann sehr von Vorteil, wenn zumindest das in einer virtuellen Umgebung vom Hoster zur Verfügung gestellt wird. (Beim 1&1-Cloud beispielsweise kann man zwar problemlos weitere Server hinzufügen, aber dieser Aspekt steht in keiner Leistungsmerkmalauflistung, noch sehe ich in Hilfe und Konfigurationsoberfläche bei einem solchen Server eine entsprechende Konfigurationsmöglichkeit.) Wenn auch nicht für heute, so sollte man sich zumindest diesen Weg für die Zukunft nicht völlig verbauen.

          Wie sieht es mit Administrationshilfsmitteln aus. Kann ein Plesk, Webmin, etc. helfen oder steht es eher im Weg?
          Ich würde von solchen Tools immer abraten. Nicht nur erzeugen sie einiges an Komplexität, sondern sie haben oft auch Probleme mit der Sicherheit und die generierte Konfiguration ist immer „kaputt“… Plex, Confixx und Co sind die WYSIWYG-Editoren der Server-Administration.

          So eine Antwort hab ich von dir als Hardcore-Admin schon erwartet :-) Aber denk mal kundenorientiert. Sind die Nachteile so gravierend oder andersrum gedacht, gibt es vergleichsweise einfache Alternativen für die "täglichen" Jobs der Nebenadministratoren (EMail-Verwaltung als Beispiel)? Wenn ich mir von Plesk 10 die Apache-Konfiguration betrachte, so sieht mir das nicht wirklich kaputt aus und enthält genügend Eingriffsmöglichkeiten für Individualitäten.

          dedlfix.

          1. Moin dedlfix,

            Ok, das kann ein zusätzliches Einfallstor darstellen, neben den Lücken im Betriebssystem oder den Anwendungen. Aber das muss der Hoster einfach mit beherrschen, ebenso wie den Rest seiner Infrastruktur.

            Das ist keine Argumentationsgrundlage. Die zusätzliche Komplexität muss berücksichtigt werden in den Überlegungen. Sich auf den Standpunkt zu stellen „das muss der Provider können” ist zu einfach, vor allem, wenns dann erstmal schief gegangen ist. Hier geht es um eine Risiko-Analyse.

            Aber sollte da keins dabei sein, mit dem wir leben können? Gentoo wird es ja vermutlich nicht wieder werden.
            Ich würde immer Gentoo präferieren. Hier hat man die größte Freiheit. Im Notfall tut es auch ein Debian oder ein FreeBSD.

            Wenn ich mich recht erinnere, hat selbst CS den Nachteil der langen Compilezeit als bedeutend gegenüber dem Vorteil der Individualität gesehen.

            Ja, auf der alten Hardware wundert mich das nicht :-)

            Es ist ja nicht so, dass man auf den vorcompilierten Distributionen nicht mehr selbst tätig werden kann.

            Das ist richtig, aber es ist deutlich umständlicher. Allein schon die Paket-Verwaltung zu integrieren und nicht darum herum zu bauen ist nervig.

            Zudem dauert es selbst bei Gentoo manchmal ewig, bis eine von Hersteller als stabil angesehene Version ein emerge-Script bekommt.

            Aber hier kann ich selbst eingreifen, mit vergleichsweise wenig Aufwand.

            Andererseits gibt es für die Distributionen, wenn auch manchmal abseits vom offiziellen Pfad (sprich testing statt stable o.ä.) durchaus auch zeitnah aktuelle Pakete.

            Debian testing zu betreiben auf einem Server ist nicht ratsam. Ich hatte schon zwei mal den Fall, dass es kaputt ging. Bestenfalls kann man noch Pakete vom Hersteller direkt installieren, ansonsten muss man auf die Backports hoffen.

            Wie sieht es mit Administrationshilfsmitteln aus. Kann ein Plesk, Webmin, etc. helfen oder steht es eher im Weg?
            Ich würde von solchen Tools immer abraten. Nicht nur erzeugen sie einiges an Komplexität, sondern sie haben oft auch Probleme mit der Sicherheit und die generierte Konfiguration ist immer „kaputt“… Plex, Confixx und Co sind die WYSIWYG-Editoren der Server-Administration.

            So eine Antwort hab ich von dir als Hardcore-Admin schon erwartet :-)

            Ich bin kein Hardcore-Admin. Ich bin nichtmal hauptberuflich Administrator. Ich könnte dir berichten, was meine Kollegen zu dem Thema sagen, die mehr in dem Bereich arbeiten…

            Aber denk mal kundenorientiert. Sind die Nachteile so gravierend […]

            Ja. Tut mir leid, Klamotten wie Plex, Confixx o.ä. sind ein Show-Stopper für mich…

            oder andersrum gedacht, gibt es vergleichsweise einfache Alternativen für die "täglichen" Jobs der Nebenadministratoren (EMail-Verwaltung als Beispiel)?

            Eine Mail-Adresse anzulegen ist völlig unproblematisch. Je nachdem gibt es dafür auch graphische Oberflächen, Postfixadmin wäre ein Beispiel.

            LG,
             CK

          2. Hallo,

            Wie sieht es mit Administrationshilfsmitteln aus. Kann ein Plesk, Webmin, etc. helfen oder steht es eher im Weg?
            Ich würde von solchen Tools immer abraten. Nicht nur erzeugen sie einiges an Komplexität, sondern sie haben oft auch Probleme mit der Sicherheit und die generierte Konfiguration ist immer „kaputt“… Plex, Confixx und Co sind die WYSIWYG-Editoren der Server-Administration.
            So eine Antwort hab ich von dir als Hardcore-Admin schon erwartet :-)

            ich auch, aber ich würde auch selbst gegen die Verwendung solcher Spiel-Tools argumentieren, auch wenn ich mich (noch) nicht als Hardcore-Admin bezeichnen würde - ich sehe mich nach meiner weitgehenden Abkehr von Windows erst wieder am Anfang eines Lernprozesses.
            Aber dennoch: Standardsoftware wie Apache oder mySQL, um nur zwei prominente Beispiele zu nennen, ist reichlich dokumentiert, es gibt unzählige Leute, die man zur Not noch fragen könnte. Eine GUI-Schicht dazwischen verkompliziert das Ganze nur wieder.

            Aber denk mal kundenorientiert. Sind die Nachteile so gravierend oder andersrum gedacht, gibt es vergleichsweise einfache Alternativen für die "täglichen" Jobs der Nebenadministratoren (EMail-Verwaltung als Beispiel)?

            Ich kenne die genannten Verwaltungs-Tools nur dem Namen nach. Aber ich würde das Editieren einer Konfigurationsdatei (ggf. mit vorangegangenem Studium der Doku) für einfacher und komfortabler halten, als wenn ich mich durch x grafische Menüs hangeln muss, deren Bezeichnungen vielleicht zum Teil irreführend sind, so dass ich deswegen zielsicher das Falsche auswähle und dann am Ende doch wieder in die Konfigurationsdateien eintauchen muss.

            So long,
             Martin

            --
            Die letzten Worte des Hardware-Bastlers:
            Das Netzkabel lass ich wegen der Erdung lieber dran.
            Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
            1. Tach!

              Aber dennoch: Standardsoftware wie Apache oder mySQL, um nur zwei prominente Beispiele zu nennen, ist reichlich dokumentiert, es gibt unzählige Leute, die man zur Not noch fragen könnte. Eine GUI-Schicht dazwischen verkompliziert das Ganze nur wieder.

              Keine Frage zum ersten Teil. Und jede Vereinfachung verkompliziert am Ende das Gesamtsystem.

              Ich kenne die genannten Verwaltungs-Tools nur dem Namen nach. Aber ich würde das Editieren einer Konfigurationsdatei (ggf. mit vorangegangenem Studium der Doku) für einfacher und komfortabler halten, als wenn ich mich durch x grafische Menüs hangeln muss, deren Bezeichnungen vielleicht zum Teil irreführend sind, so dass ich deswegen zielsicher das Falsche auswähle und dann am Ende doch wieder in die Konfigurationsdateien eintauchen muss.

              Klar ist, dass man auch bei einer bunten Oberfläche eine Einarbeitungszeit braucht. Wenn man die hinter sich hat, helfen solche Oberflächen aber auch, in nullkommanix beispielsweise eine Standardkonfiguration für einen neuen VHost aufzusetzen. Ein paar Dialoge, ein paar Werte und absenden - fertig sind die Apache-Konfiguration, die PHP-Einstellungen, die Verzeichnisstruktur im DocumentRoot, die DNS-Konfiguration, angelegte Nutzer samt FTP und SSH-Zugang mit chroot-Umgebung. Zumindest funktioniert das mit Plesk 10 so butterweich. Individuelle Eingriffe in die erzeugte Konfiguration sind auch möglich, da sind genügend Ansatzpunkte eingebaut. Das kann man auch alles per Hand machen, dauert nur länger. Oder man schreibt sich selbst Hilfsmittel, die man noch dokumentieren und anderen erklären muss. Übrigens, zum Probieren bekommt man Plesk auch für 15 Tage kostenlos.</werbung>

              Aber abgesehen von der Lanze, die ich grade für die Adminoberfläche gebrochen habe, sehe ich sie auch nicht als notwendig an. Wir werden wohl eher weniger Bedarf an für Kunden/Projekte vorgesehenen Standardkonfigurationen haben.

              dedlfix.

              1. Moin!

                Klar ist, dass man auch bei einer bunten Oberfläche eine Einarbeitungszeit braucht. Wenn man die hinter sich hat, helfen solche Oberflächen aber auch, in nullkommanix beispielsweise eine Standardkonfiguration für einen neuen VHost aufzusetzen. Ein paar Dialoge, ein paar Werte und absenden - fertig sind die Apache-Konfiguration, die PHP-Einstellungen, die Verzeichnisstruktur im DocumentRoot, die DNS-Konfiguration, angelegte Nutzer samt FTP und SSH-Zugang mit chroot-Umgebung. Zumindest funktioniert das mit Plesk 10 so butterweich. Individuelle Eingriffe in die erzeugte Konfiguration sind auch möglich, da sind genügend Ansatzpunkte eingebaut. Das kann man auch alles per Hand machen, dauert nur länger. Oder man schreibt sich selbst Hilfsmittel, die man noch dokumentieren und anderen erklären muss.

                Egal ob voll-manuell in den Config-Files oder assistiert über irgendeine GUI: Es ist manuell. Was man eigentlich will: Automatisch. Chef oder Puppet als automatische Konfigurationssysteme bieten sich da an.

                Wenn ich dann sehe, wie sich relativ vollautomatisch aus dem Zusammenspiel einer installierten VirtualBox-VM-Engine, Vagrant und eben einer Chef- oder Puppet-Konfiguration eine virtuelle Maschine hochfährt, die nach dem Download der zugehörigen Komponenten eine veritable Entwicklungsumgebung abgibt, die außerdem jederzeit wiederholbar exakt auf einem anderen Rechner hochfahrbar ist, dann will ich mich eigentlich gar nicht mehr mit irgendwelchen manuellen Konfigurationen MEHRFACH beschäftigen. Ich will im Prinzip die Sicherheit haben, dass ich ein VM-Image auch zuhause zum Testen hochfahren kann, daran Dinge ausprobiere, die Änderungen der Konfiguration nochmal validiere, und das dann auf das produktive Image anwende, mit idealerweise Null Downzeit.

                Das würde für die Gestaltung des Servers bedeuten: Host-OS ist nur der Container für VMs, und erst die bieten online entsprechende Serverdienste an.

                - Sven Rautenberg

                1. Hallo,

                  Egal ob voll-manuell in den Config-Files oder assistiert über irgendeine GUI: Es ist manuell. Was man eigentlich will: Automatisch. Chef oder Puppet als automatische Konfigurationssysteme bieten sich da an.

                  Wenn ich dann sehe, wie sich relativ vollautomatisch aus dem Zusammenspiel einer installierten VirtualBox-VM-Engine, Vagrant und eben einer Chef- oder Puppet-Konfiguration eine virtuelle Maschine hochfährt, die nach dem Download der zugehörigen Komponenten eine veritable Entwicklungsumgebung abgibt, die außerdem jederzeit wiederholbar exakt auf einem anderen Rechner hochfahrbar ist, dann will ich mich eigentlich gar nicht mehr mit irgendwelchen manuellen Konfigurationen MEHRFACH beschäftigen. Ich will im Prinzip die Sicherheit haben, dass ich ein VM-Image auch zuhause zum Testen hochfahren kann, daran Dinge ausprobiere, die Änderungen der Konfiguration nochmal validiere, und das dann auf das produktive Image anwende, mit idealerweise Null Downzeit.

                  Das würde für die Gestaltung des Servers bedeuten: Host-OS ist nur der Container für VMs, und erst die bieten online entsprechende Serverdienste an.

                  Sag das doch gleich!!! ;-) Es bringt doch nix, sich hier mit Halbwissen zu bewerfen, wenn nicht die, die in Teilen am meisten Ahnung haben, mal ihre Vorschläge auspacken. KISS (keep it simple stupid) und DRY (dont repeat yourself).

                  Gruß

                  jobo

                2. Tach!

                  Egal ob voll-manuell in den Config-Files oder assistiert über irgendeine GUI: Es ist manuell. Was man eigentlich will: Automatisch. Chef oder Puppet als automatische Konfigurationssysteme bieten sich da an.

                  Dazu musste ich mich erst einmal informieren. Ich bin ja auch nur Freizeitadmin und kannte derartige Tools nicht. Es hört sich aber auf den ersten Blick vernünftig an. Man konfiguriert nicht und macht ein Backup davon, sondern man schreibt sozusagen Anweisungen, wie ein System sich selbst installieren kann, um es so auch ohne viel händischen Aufwand neu aufsetzen zu können.

                  Allerdings hörte ich Stimmen dagegen, nur keine Argumente. Ich hatte aber auch nicht weiter nachgefragt. Was sind denn die Nachteile oder Kritikpunkte an diesem Verfahren?

                  Ich will im Prinzip die Sicherheit haben, dass ich ein VM-Image auch zuhause zum Testen hochfahren kann, daran Dinge ausprobiere, die Änderungen der Konfiguration nochmal validiere, und das dann auf das produktive Image anwende, mit idealerweise Null Downzeit.

                  Das sehe ich auch als einen nützlichen Punkt an. Ein VM-Host sorgt für eine gleiche Hardwareumgebung, egal auf welcher physischen Maschine man das System laufen lässt. Die Clients kann man kopieren und hat nicht nur einen (wen keiner was händich geändert hat) gleich installierten sondern eine Kopie zu Test- und Fehlerzwecken.

                  Das würde für die Gestaltung des Servers bedeuten: Host-OS ist nur der Container für VMs, und erst die bieten online entsprechende Serverdienste an.

                  Das würde dann richtige Hardware bedeuten und nicht nur emulierte oder eine zur Verfügung gestellte Umgebung, in der man seine VMs laufen lassen kann - ein virtuelles Rechenzentrum also.

                  dedlfix.

                3. Moin Sven,

                  Egal ob voll-manuell in den Config-Files oder assistiert über irgendeine GUI: Es ist manuell. Was man eigentlich will: Automatisch. Chef oder Puppet als automatische Konfigurationssysteme bieten sich da an.

                  Weder Chef noch Puppelt sind „automatische Konfigurationssysteme.“ Es sind Deployment-Systeme für Konfigurationen, die einem einen Teil der Arbeit erleichtern oder abnehmen. Auch hier muss man vorher das System konfigurieren. Mal abgesehen davon: ja, der Einsatz von Puppet oder Chef macht Sinn.

                  Wenn ich dann sehe, wie sich relativ vollautomatisch aus dem Zusammenspiel einer installierten VirtualBox-VM-Engine, Vagrant und eben einer Chef- oder Puppet-Konfiguration eine virtuelle Maschine hochfährt, […]

                  Da ist aber vorher eine Menge Vorarbeit passiert. Das ist nicht wirklich automatisch, sondern es ist nur ein Deployment einer bestehenden Konfiguration.

                  Ich will im Prinzip die Sicherheit haben, dass ich ein VM-Image auch zuhause zum Testen hochfahren kann, daran Dinge ausprobiere, die Änderungen der Konfiguration nochmal validiere, und das dann auf das produktive Image anwende, mit idealerweise Null Downzeit.

                  Es geht nicht darum, was du willst. Es geht darum, einen Kompromiss zu finden zwischen dem, der es machen soll und den Anforderungen, die die Community hat.

                  Das würde für die Gestaltung des Servers bedeuten: Host-OS ist nur der Container für VMs, und erst die bieten online entsprechende Serverdienste an.

                  Eine VM in einer VM ist keine gute Idee. Das würde also bedeuten, du willst nicht eine VM mieten, sondern du willst n VMs mieten.

                  LG,
                   CK

    2. Hallo,

      Moin dedlfix,

      prinzipiell gilt, dass SELFHTML nicht auskommt mit diesen Jail-„vServern.“ Wir benötigen Root-Zugriff.

      Also mein blöder vServer bei Strato gibt mir root-Zugriff. Ich kann da m.E. alles machen. Offenbar aber sind Beschränkungen u.U. vorhanden wie Anzahl der geöffneten Dateien.

      Insofern wäre es sinnvoll, man definiert erstmal, wovon man hier spricht. Der Vorteil, auch wenn ich Eure Beiträge lese, ist ja wohl bei einer virtuellen Umgebung, dass die aktuelle Problematik (kaputtes Netzteil, veraltete Hardware) im Grunde nicht oder nie mehr auftauchen kann.

      Was das BS und alles andere angeht, würde ich meinen: je gängiger desto besser. Denn es werden sich im Laufe der nächsten Jahre ja auch andere da einarbeiten müssen.

      Ich kapiere zB. nicht, warum Gentoo oder FreeBSD mehr Freiheiten bieten als Debian.

      Ich würde auch mal überlegen, ob man nicht den Mailserver zB. trennt vom Rest und sich damit vielleicht einen großen Gefallen tut. 100te von Mailadressen beherrscht ja schon jeder kleinste Webspace und A-Record-Einträge mittlerweile auch. Mailserver, so mach ich das, komplett dem Hoster überlassen. Und dann die A-Record-Einträge für die Subdomains dort konfigurieren (dann ist man den (eigenen?) DNS-Server auch los). Was ja nicht heißt, dass man die Subdomains mit zugehörigen IP-Adressen nicht frei nach Belieben konfigurieren kann.

      Gruß

      jobo

      1. Tach!

        Was das BS und alles andere angeht, würde ich meinen: je gängiger desto besser. Denn es werden sich im Laufe der nächsten Jahre ja auch andere da einarbeiten müssen.

        Nee, Windows wirds nicht werden :-) Gentoo ist aber auch gängig genug, CentOS (als RedHat-Ableger), Debian, FreeBSD sowieso.

        Ich kapiere zB. nicht, warum Gentoo oder FreeBSD mehr Freiheiten bieten als Debian.

        Gentoo ist für diese Freiheiten ausgelegt. Paketorientierte Systeme wie CentOS, Debian bieten oftmals nur, ein Paket zu installieren oder nicht. Gentoo hat schon vorher Konfigurationsoptionen, mit denen man das Erstellen der Anwendung steuern kann. Die paketorientierten lösen das aber auch, indem sie das Hauptpaket eben ohne Erweiterungen erstellen und die Zusätze extra einpacken. Gentoo ist auf Erneuerbarkeit ausgelegt, es gibt da keine Versionierung des Gesamtsystems. Man aktualisiert (meistens) in einem ständig fließenden Prozess. Bei den anderen ist irgendwann Schluss mit der Pflege und ein weiteres Update setzt eine Neuinstallation voraus. Allerdings sind unter den Anwendern auch viele Firmen, die eher auf Stabilität als auf Neueste-Technik-Installationen aus sind, so dass solche Distributionen oft recht lange zumindest gepatcht werden. Die Stable-Zweige spiegeln dieses Konservative in der Regel wider, aber es gibt auch Zweige, die neuere (nicht nur gepatchte) Paket-Versionen gegenüber dem Ausgabestand der Distributionsversion beinhalten, sowie Testing-Zweige für die Mutigen.

        [Mail und DNS beim Hoster lassen]

        Da das wohl bei den meisten (infrage kommenden) Anbietern Standard ist, wird das letztlich eine Frage der Konfiguration nach dem Paketerwerb sein.

        dedlfix.

        1. Nee, Windows wirds nicht werden :-) Gentoo ist aber auch gängig genug, CentOS (als RedHat-Ableger), Debian, FreeBSD sowieso.

          Unser Server-Mensch hat sich letzens extrem über die Softwareauswahl bei 1&1-Root-Servern geärgert und dann auf CentOS gesetzt, da 1&1 kein RHEL zur verfügung stellt und das SLES von 1&1 nur in irgend einer Uralt-Version angeboten wird und sonst praktisch keine Alternativen da sind :)

          1. Tach!

            Unser Server-Mensch hat sich letzens extrem über die Softwareauswahl bei 1&1-Root-Servern geärgert und dann auf CentOS gesetzt, da 1&1 kein RHEL zur verfügung stellt und das SLES von 1&1 nur in irgend einer Uralt-Version angeboten wird und sonst praktisch keine Alternativen da sind :)

            RHEL kostet Geld, CentOS nicht. Hat er eine andere Begründung außer Bauchgefühl, warum er RHEL dem CentOS vorzieht?

            dedlfix.

            1. RHEL kostet Geld, CentOS nicht. Hat er eine andere Begründung außer Bauchgefühl, warum er RHEL dem CentOS vorzieht?

              Das Geld spielt hier kaum eine Rolle, bei dem Preis den ein Server monatlich verursacht machen die paar Euro für RHEL das Kraut nicht fett - aber wenigstens hat man jemanden zum "anstänkern" wenn was nicht geht :)

        2. Hallo,

          Ich kapiere zB. nicht, warum Gentoo oder FreeBSD mehr Freiheiten bieten als Debian.

          Gentoo ist für diese Freiheiten ausgelegt.

          Es geht um tragfähige 0815-Konzepte, und das scheint in Svens Augen Gentoo nicht zu sein: https://forum.selfhtml.org/?t=209994&m=1429883

          Gruß

          jobo

      2. Hi,

        Mailserver, so mach ich das, komplett dem Hoster überlassen.

        gerade davon möchte ich selbst inzwischen wegkommen, denn da habe ich meistens nicht die Konfigurationsmöglichkeiten, die ich mir wünsche - etwa die Freiheit, nach einem Login per SMTP-AUTH beliebige Absenderadressen zu verwenden. Oder Blacklists anzulegen, so dass Mails von bestimmten Absendern oder mit bestimmten Mustern im Inhalt gleich serverseitig abgewiesen werden. Oder die direkte Zustellung, auch wenn die "letzte Meile" bis zu mir ein DSL-Anschluss mit wechselnder IP ist.

        Den Mailserver in eigener Hand halte ich jedenfalls für ein kostbares Gut, das ich nicht wieder hergeben würde, wenn ich es einmal hätte.

        Ciao,
         Martin

        --
        Zwei Freundinnen tratschen: "Du, stell dir vor, die Petra kriegt ein Kind!" - "Ich kann mir schon denken, von wem." - "Dann ruf sie mal schnell an, das würde ihr bestimmt weiterhelfen."
        Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
        1. Moin!

          gerade davon möchte ich selbst inzwischen wegkommen, denn da habe ich meistens nicht die Konfigurationsmöglichkeiten, die ich mir wünsche - etwa die Freiheit, nach einem Login per SMTP-AUTH beliebige Absenderadressen zu verwenden.

          Du kannst ja sowieso nur Mailadressen bzw. Domains verwenden, zu denen der Domaininhaber keinen SPF-Eintrag angelegt hat, der genau dies verbietet.

          Ansonsten: Dein Mailclient sollte in der Lage sein, mit mehr als einem Postausgangsserver zusammenzuarbeiten.

          Oder Blacklists anzulegen, so dass Mails von bestimmten Absendern oder mit bestimmten Mustern im Inhalt gleich serverseitig abgewiesen werden.

          Spamfilterung ist ein Thema, dass entweder providerseitig gut funktioniert, oder in das man wahnsinnig viel Zeit investiert, ohne dieselben guten Resultate zu erzielen.

          Oder die direkte Zustellung, auch wenn die "letzte Meile" bis zu mir ein DSL-Anschluss mit wechselnder IP ist.

          Hä? Klingt nach irrelevantem Nicht-Feature.

          Den Mailserver in eigener Hand halte ich jedenfalls für ein kostbares Gut, das ich nicht wieder hergeben würde, wenn ich es einmal hätte.

          Der administrative Aufwand ist nicht zu unterschätzen. Wenn ich gute Mailhosting-Provider ansehe, sehe ich nichts, was ich da unbedingt selbst machen müsste. Mal abgesehen von einem Punkt: Nutzt man IMAP, sind die Mails auf dem eigenen Server gespeichert, und nicht irgendwo, wo Dritte ggf. Zugriff erhalten könnten. Sofern man einen Mailserver in dieser Beziehung tatsächlich sicher konfigurieren und 24/7 am Netz haben kann.

          - Sven Rautenberg

          1. Hallo,

            gerade davon möchte ich selbst inzwischen wegkommen, denn da habe ich meistens nicht die Konfigurationsmöglichkeiten, die ich mir wünsche - etwa die Freiheit, nach einem Login per SMTP-AUTH beliebige Absenderadressen zu verwenden.
            Du kannst ja sowieso nur Mailadressen bzw. Domains verwenden, zu denen der Domaininhaber keinen SPF-Eintrag angelegt hat, der genau dies verbietet.

            ja, und?

            Ansonsten: Dein Mailclient sollte in der Lage sein, mit mehr als einem Postausgangsserver zusammenzuarbeiten.

            Ist er, keine Frage. Trotzdem möchte ich in der Lage sein, eine Absenderadresse anzugeben, zu der ausschließlich ein Posteingangsserver existiert (der nichts anderes tut, als eintreffende Mails an eine konfigurierte weitere Adresse zu "forwarden").

            Oder Blacklists anzulegen, so dass Mails von bestimmten Absendern oder mit bestimmten Mustern im Inhalt gleich serverseitig abgewiesen werden.
            Spamfilterung ist ein Thema, dass entweder providerseitig gut funktioniert, oder in das man wahnsinnig viel Zeit investiert, ohne dieselben guten Resultate zu erzielen.

            Ich will mich aber nicht darauf verlassen, was der Mail-Hoster für gut und angemessen hält, sondern selbst bestimmen, was ich filtern will und was nicht. Der vorkonfigurierte SPAM-Filter des Providers hat mir schon mehrmals ernstgemeinte Mails als SPAM aussortiert, während der wirkliche SPAM meist unbehelligt bis zu mir durchkam. Daher habe ich seit einigen Jahren grundsätzlich alle providerseitigen Filtermaßnahmen abgestellt. Das halbe Dutzend SPAMs am Tag kann ich verkraften - aber ich würde es doch gern gezielt abweisen, da gefühlte 90% davon nur von drei bis vier Absendern stammen.
            GMX bietet eine Absender-Blacklist an - aber ich habe noch keinen Webhoster erlebt, der das bei den Mailaccounts anbietet, die mit dem Webspace verknüpft sind.

            Oder die direkte Zustellung, auch wenn die "letzte Meile" bis zu mir ein DSL-Anschluss mit wechselnder IP ist.
            Hä? Klingt nach irrelevantem Nicht-Feature.

            Mag sein. Für mich wäre es posteingangsseitig das ultimative Ziel. SMTP-Zustellung bis zu meinem Home-Server, ohne dass der in regelmäßigen Abständen pollen muss, nur um in mindestens 9 von 10 Fällen festzustellen: Es gibt nichts neues.

            Den Mailserver in eigener Hand halte ich jedenfalls für ein kostbares Gut, das ich nicht wieder hergeben würde, wenn ich es einmal hätte.
            Der administrative Aufwand ist nicht zu unterschätzen.

            Ja und? Das ist eine einmalige Sache, die in ein paar Tagen erledigt sein sollte. Ab dann ist es nur noch Kontrolle und Pflege.

            Nutzt man IMAP, sind die Mails auf dem eigenen Server gespeichert, und nicht irgendwo, wo Dritte ggf. Zugriff erhalten könnten.

            Richtig. Aber dieser IMAP-Server befindet sich in meinem eigenen LAN, und eintreffende Mails müssen erstmal bis dorthin gelangen. Sollte sich dieser Server außerhalb meines Einflussbereichs befinden, (also im RZ irgendeines Providers), hilft mir das gar nichts, wenn beispielsweise mal die DSL-Verbindung ausfällt. Also kein Zugriff auf meine Mails, wenn der Internet-Zugangsprovider mal nicht so tut wie gewünscht? No way.

            Ciao,
             Martin

            --
            Wieso heißen die Dinger eigentlich Anrufbeantworter? Eigentlich sind es doch nur Anrufanhörer.
            Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
          2. Hallo,

            Der administrative Aufwand ist nicht zu unterschätzen.

            Und das ist genau der Punkt. Es gibt genug zu tun, was andere _nicht_ tun können. Nämlich Inhalte zu generieren und Community-Geist zu pflegen. Da es eh knack-auf-knirsch ist, sollte mMn. jeglicher "Ballast" über Bord. Ein eigener Mailserver bringt SELFHTML keinen Mehrgewinn. Bildlich gesprochen: niemand sagt, "ah, die mit dem tollen Mailsever, den sie sogar selbst betreiben". Vielmehr möchte man ja hören: "tolle Community, nette und extrem fachkundige Leute und lesenswerte Inhalte". Das zumindest meine Ansicht, insofern Zustimmung für Sven!

            Gruß

            jobo

        2. Hello,

          Mailserver, so mach ich das, komplett dem Hoster überlassen.

          gerade davon möchte ich selbst inzwischen wegkommen, denn da habe ich meistens nicht die Konfigurationsmöglichkeiten, die ich mir wünsche - etwa die Freiheit, nach einem Login per SMTP-AUTH beliebige Absenderadressen zu verwenden. Oder Blacklists anzulegen, so dass Mails von bestimmten Absendern oder mit bestimmten Mustern im Inhalt gleich serverseitig abgewiesen werden. Oder die direkte Zustellung, auch wenn die "letzte Meile" bis zu mir ein DSL-Anschluss mit wechselnder IP ist.

          ... oder einfach auch mal das Mail-Log auszuwerten und so ständige Störenfriede identifizieren zu können, geschweige denn, dies mittels Scripting on-the-Fly tun zu können ...

          Liebe Grüße aus dem schönen Oberharz

          Tom vom Berg

          --
           ☻_
          /▌
          / \ Nur selber lernen macht schlau
          http://bergpost.annerschbarrich.de
    3. Mehr als eine Maschine halte ich bei den aktuellen Leistungs-Eckdaten allerdings nicht für notwendig.

      Ich frage mich gerade beim Lesen: Muss den jetzt eigentlich neue Hardware her, oder können die übrig gebliebenen Server nicht einfach weiter genutzt werden, auch wenn sie alt und ranzig sind?

      (Vielleicht mit Vorkehrungen, die im Falle eines weiteren Abrauchens die Migration vereinfachen.)

      Viele Grüße
      _Dirk

      1. Moin Schuer,

        Ich frage mich gerade beim Lesen: Muss den jetzt eigentlich neue Hardware her, oder können die übrig gebliebenen Server nicht einfach weiter genutzt werden, auch wenn sie alt und ranzig sind?

        Die Überlegung ist ja, wie man sich gegen Ausfälle der Hardware absichern kann. Dazu kristallisiert sich aktuell folgendes Vorgehen heraus: die alte Hardware erstmal weiterlaufen lassen und parallel eine VM mieten. Das Angebot nach und nach auf die VM umziehen. Damit ist man gegen Hardware-Ausfälle dann weitestgehend abgesichert.

        Klar kann man auch mit den drei vorhandenen Servern Redundanz schaffen. Und Ex-Odin ist auch für 190€ etwa reparierbar. Dazu müsste man sich aber entschliessen, eigene Hardware erstmal weiter zu betreuen.

        LG,
         CK

        1. Tach!

          Die Überlegung ist ja, wie man sich gegen Ausfälle der Hardware absichern kann. Dazu kristallisiert sich aktuell folgendes Vorgehen heraus: die alte Hardware erstmal weiterlaufen lassen und parallel eine VM mieten.

          Ja, die alte Hardware hat noch nicht angekündig auszufallen, weswegen wir hier nicht unter Zeitdruck stehen. Das Konzept für die Zukunft können wir deshalb mit Bedacht ausarbeiten.

          Eine Alternative zur VM wäre gemietete Hardware, die im Falle eines Falles ohne zusätzliche Kosten und Aufwand (abgesehen von administrativen Dingen) für uns vom Vermieter ausgetauscht wird. Wenn wir nur _eine_ VM mieten, gibt es auch ein paar Nachteile, beziehungsweise ein paar Nice-To-Haves, die man damit nicht haben kann. Diese VM müsste dann insgesamt so groß dimensioniert sein, dass sie alle Aufgaben erfüllt. Ein Kopieren des kompletten Images, um im stillen Kämmerlein etwas zu probieren ist, ist vermutlich seitens des Vermieters nicht vorgesehen. Und solch eine Größe zu kopieren macht auch bei schnellem VDSL oder Kabel immer noch keinen Spaß.

          Meine Überlegungen sind derzeit wie folgt (Feinausarbeitung steht noch an):

          • (kleine) V-Server kommen nicht in Betracht für die wesentlichen Aufgaben. Als Plattenplatz für Backups wären sie eventuell geeignet.
          • reine VMs haben keinen Hardware-Aufwand, sind aber oft einzelstehend ohne Verbindung untereinander zu haben. Aufgabenteilung (Anwendung hier, Datenbank da) bedeuten Datenverkehr über öffentliche Wege (auch wenn der getunnelt und verschlüsselt ist). VMs in einer VM sind nicht wirklich eine gute Idee. Eigene VMs ließen sich aber bei Bedarf einigermaßen leicht umziehen.
          • Hardware mieten. Ist bei günstigen 08/15-Angeboten auch meist einzelstehend. Die Leistungsdaten solcher Maschinen sind heutzutage üblicherweise ausreichend, um eine eigene VM-Umgebung zu betreiben. Darauf können VMs für Hauptbetrieb und Nebenaufgaben erstellt werden. Ein Ausfall am Host bedeutet aber Ausfälle für alle VMs.
          • Virtuelles Rechenzentrum. Das scheint mir der König zu sein, aber sicher auch recht teuer. Der Hoster betreibt eine VM-Umgebung und wir können nach Belieben VMs erstellen und diese auch über ein virtuelles privates Netzwerk (Emulation eines Netzwerkes, kein VPN) direkt miteinander verbinden.

          Ich bitte weiterhin um Kommentare.

          dedlfix.

  3. Moin!

    Ich gebe meinen Senf mal an zentraler Stelle dazu, weil ich die diversen Stellen hier im Thread nicht sofort wiederfinde, an denen es besser passen würde. Außerdem kann ich so viel besser zusammenhängend ranten. :)

    Ok, "Server" ist das Thema. Aktuelle Situation: Es gibt noch zwei Server mit 2GB und zwei Kernen, und einen mit 4GB und acht Kernen. Auslastung im Betrieb insgesamt sehr gering, Traffic entsprechend, ein internes Gigabit-Netz erlaubt schnellen Datentransfer z.B. für Backups, die wechselseitig gespeichert werden. Festplattenkapazität ist 36GB (Odin, RAID-1), 72GB (Ve, RAID-1) und WHOAH (Heimdall, RAID-irgendwas). Betriebssystem auf allen Kisten Gentoo "uralt". Die Sun-Server haben einen internen Service-Prozessor, der den Hauptserver steuert, so dass man auch Remote booten und ins Server-BIOS kommen kann. Heimdall hat IIRC irgendwas adäquates, da bin ich mir allerdings nicht sicher.

    Erfahrungswerte:

    Wenn nicht gerade Netzteile durchbrennen, sind die Server hardwareseitig recht pflegeleicht. Irgendein Absturz aufgrund ungeklärter Überlast hat es manchman notwendig gemacht, einen Server zu rebooten. Der Reboot erforderte dabei immer, dass man ihn nicht nur via Serviceprozessor auslöst, sondern danach den Bootvorgang auch manuell via Konsole überwacht und ggf. auf dem Server remote noch eine "Taste drückt", damit irgendeine Abfrage passend beantwortet war und der Server endlich hochgefahren ist.

    Problem an der Sache: Wenn der Server nicht 100% sauber und ohne Interaktion hochfährt, und man sich immer wieder dran erinnern muss, was zu tun ist, damit das mit manueller Einflussnahme geschieht, ist das sehr nervig und würde eigentlich erfordern, dass man sich mal intensiver mit dem Bootprozess auseinandersetzt. Das Problem dabei wiederum ist, dass sämtliche Server im Livebetrieb sind und ständiges Rebooten den Betrieb unangenehm stören würde.

    KONSEQUENZ 1: Mindestens ein Server muss verfügbar sein, um administrativ Szenarien durchzuspielen, ohne dabei den Live-Betrieb zu stören.

    Die zweite, wichtige und regelmäßige Aufgabe ist das Einspielen von Programmupdates der Distribution. In diesem Punkt empfinde ich Gentoo als eine Zumutung. Es ist einem halbwegs erfahrenen Gentoo-Rootuser zwar möglich, das Update anzustoßen und die Kompilierung abzuwarten (hoffentlich dauert das nicht zu lange), in der Folge werden aber häufig auch Updates für Konfigurationsdateien notwendig, die in einem recht aufwendigen Merge-Prozess mit den eigenen Anpassungen zusammengeführt werden müssen.

    Dies bedeutet: Derjenige, der das Update macht, muss von allen Konfigurationsdateien, die in diesem Schritt als updatenotwendig angezeigt werden, inhaltlich Ahnung haben. Das bedeutet: Er muss von sämtlichen Serverkomponenten, die irgendjemand mal via Gentoo-Emerge installiert hat, Ahnung haben - oder er macht wahrscheinlich was kaputt. Das wiederum bedeutet, dass der Job eines Gentoo-Serveradmins nur etwas für Leute ist, die den ganzen Tag nichts anderes machen, als Gentoo-Server zu administrieren, und die die Installation von Software für jemanden, der genausoviel Ahnung hat, exzellent dokumentieren können, damit derjenige den Job ebenfalls machen und/oder übernehmen kann.

    Dies gilt insbesondere für die mit Gentoo vorhandene Möglichkeit, nicht nur Konfigurationen individuell anzupassen, sondern auch eigene Patches und Pakete in den Kompilierungsprozess mit einfließen zu lassen. Gewiss, Gentoo hat bei SELFHTML ein paar Bugs erst lösbar gemacht, die durch fehlerhafte Software von Upstream nicht schnell gelöst wurden - sowas ist aber tatsächlich nur was für Hardcore-Entwickler und -Admins und engt den Kreis der potentiellen Administratoren sehr ein.

    KONSEQUENZ 2: Gentoo würde ich als OS nicht wieder nehmen wollen.

    Ein weiteres Problem, dass beim Serverbetrieb immer wieder auftritt, ist die erforderliche Update-Frequenz für eigentlich alles, was man mal so installiert hat. Im Prinzip muss man regelmäßig updaten, damit das Delta der Veränderungen, die jedes Update mit sich bringt, nicht zu groß wird. Das gilt für Betriebssystemkomponenten natürlich auch, insbesondere allerdings für die eingesetzte Standardsoftware der Webapplikationen. SELFHTML hat an ein paar Stellen Standardsoftware im Einsatz, beispielsweise "Trac" als Ticketsystem und Dokumentations-Wiki. Hier schlägt ein Update der Software unter Umständen mit großem Migrationsaufwand zu: Wenn das Update inkompatible Änderungen zum bestehenden System erfordert, insbesondere wenn wichtige Plugins noch nicht verfügbar sind, auf die man nicht verzichten kann, oder die für die neue Version gar nicht angeboten werden, weil vielleicht deren Funktionalität nicht mehr realisierbar oder überflüssig ist.

    KONSEQUENZ 3: Standardsoftware gerne - aber nur der gefühlte Marktführer verspricht, dass im Problemfall soviel Hilfe-Ressourcen online auffindbar sind, dass man durch Recherche auftretende Probleme beheben kann. Vorsicht bei x-beliebigen Plugins! Vorsicht bei irgendwelcher gehypten Softwareversion "0.x", die sich noch intensiv in der Entwicklung befindet. Installation bitte auch unabhängig vom OS (wie Gentoo Webapplikationen installiert, gefällt mir gar nicht).

    Auf der anderen Seite benutzt SELFHTML diverse Software-Eigenentwicklungen. Hier hat man zur Abwechslung mal keine Update-Probleme, denn es gibt meist keine Updates vom Entwickler mehr. Umso schlimmer, wenn dann Probleme auftreten, die man beheben muss. Es ist keine Freude, wenn man in jahrealtem PHP-Code mit exotischen Template-Engines irgendeinen Bug sucht und nicht fixen kann, weil keinerlei Dokumentation existiert, keinerlei Tests, und der Entwickler längst nicht mehr erreichbar ist. Genauso blöd, wenn offenbar zugehörige Dateien, die verlinkt sind, in der Versionsverwaltung nicht eingecheckt wurden. Dieses Chaos ist nur noch dadurch zu steigern, dass die Entwickler nicht nur exotisches PHP benutzen, sondern quer durch den Garten im Prinzip jede erdenkliche Programmiersprache, so dass der ideale Kandidat für den Betrieb der Softwarelandschaft im Prinzip perfektes Wissen in mindestens zehn Sprachen haben muss, damit er überhaupt eine Chance hat, den Wildwuchs im Zaum zu halten - von Problemen nach Updates der zugrundeliegenden Engines mal ganz abgesehen.

    KONSEQUENZ 4: "Würde das jemand machen - kannst auch deine bevorzugte Sprache benutzen" - no way! Standards definieren und einhalten. Man kann über PHP ja sagen, was man will, aber es ist definitiv die Skriptsprache mit der größten Community verglichen mit anderen Skriptsprachen - es ist zu vermuten, dass sich dafür recht leicht Experten finden lassen. Wildwuchs erschwert die Wartung vor dem Lebensende der Software.

    - Sven Rautenberg

    1. Hallo,

      Langer Rant, aber ich dachte du wolltest dich zurückziehen? Oder willst du doch weitermachen?

      Jeena

      1. Moin!

        Langer Rant, aber ich dachte du wolltest dich zurückziehen? Oder willst du doch weitermachen?

        Da steht ja nur Erfahrungswert der Vergangenheit drin, falls jemand das als sinnvoll erachtet. Für das andere: Schaun mer mal.

        - Sven Rautenberg

        1. Hallo,

          Ich denke, Käpt'n "muss" noch ein bissel an Bord bleiben ;-)

          Gruß

          jobo

    2. Hallo,

      KONSEQUENZ 1: Mindestens ein Server muss verfügbar sein, um administrativ Szenarien durchzuspielen, ohne dabei den Live-Betrieb zu stören.

      Also zwei (v)Server, gleicher Natur.

      KONSEQUENZ 2: Gentoo würde ich als OS nicht wieder nehmen wollen.

      Debian 6.0 oder Ubuntu LTS (zB. 10.4 bietet Strato)

      KONSEQUENZ 3: Standardsoftware gerne - aber nur der gefühlte Marktführer verspricht, dass im Problemfall soviel Hilfe-Ressourcen online auffindbar sind, dass man durch Recherche auftretende Probleme beheben kann. Vorsicht bei x-beliebigen Plugins! Vorsicht bei irgendwelcher gehypten Softwareversion "0.x", die sich noch intensiv in der Entwicklung befindet. Installation bitte auch unabhängig vom OS (wie Gentoo Webapplikationen installiert, gefällt mir gar nicht).

      wieder Debian bzw. Ubuntu?

      KONSEQUENZ 4: "Würde das jemand machen - kannst auch deine bevorzugte Sprache benutzen" - no way! Standards definieren und einhalten. Man kann über PHP ja sagen, was man will, aber es ist definitiv die Skriptsprache mit der größten Community verglichen mit anderen Skriptsprachen - es ist zu vermuten, dass sich dafür recht leicht Experten finden lassen. Wildwuchs erschwert die Wartung vor dem Lebensende der Software.

      Zend-Framework 2.0(!)

      Gruß

      jobo

      1. Hallo,

        KONSEQUENZ 4: "Würde das jemand machen - kannst auch deine bevorzugte Sprache benutzen" - no way! Standards definieren und einhalten. Man kann über PHP ja sagen, was man will, aber es ist definitiv die Skriptsprache mit der größten Community verglichen mit anderen Skriptsprachen - es ist zu vermuten, dass sich dafür recht leicht Experten finden lassen. Wildwuchs erschwert die Wartung vor dem Lebensende der Software.

        Zend-Framework 2.0(!)

        Und dazu noch ein JS Framework wie YUI oder eben JQuery.

        Gruß

        jobo

    3. Tach!

      Nur zur Info. Ich werde mich mal ransetzen und die Argumente berücksichtigend (alle, nicht nur deine) Entscheidungsvorlagen erarbeiten. Kann aber gut sein, dass es erst am Wochenende wird.

      dedlfix.

    4. Tach!

      Vor der angekündigten Zusammenfassung noch ein paar Kommentare hierzu.

      Der Reboot erforderte dabei immer, dass man ihn nicht nur via Serviceprozessor auslöst, sondern danach den Bootvorgang auch manuell via Konsole überwacht und ggf. auf dem Server remote noch eine "Taste drückt", damit irgendeine Abfrage passend beantwortet war und der Server endlich hochgefahren ist.

      Konsolenzugang ist ein hilfreicher Punkt - wobei der meistens gegeben ist.

      KONSEQUENZ 1: Mindestens ein Server muss verfügbar sein, um administrativ Szenarien durchzuspielen, ohne dabei den Live-Betrieb zu stören.

      Ein zweiter mit weniger Leistung (preisgünstiger) ansonsten aber baugleich würde dafür reichen. Zudem kann der für Backups und Tests dienen.

      Die zweite, wichtige und regelmäßige Aufgabe ist das Einspielen von Programmupdates der Distribution. In diesem Punkt empfinde ich Gentoo als eine Zumutung. Es ist einem halbwegs erfahrenen Gentoo-Rootuser zwar möglich, das Update anzustoßen und die Kompilierung abzuwarten (hoffentlich dauert das nicht zu lange), in der Folge werden aber häufig auch Updates für Konfigurationsdateien notwendig, die in einem recht aufwendigen Merge-Prozess mit den eigenen Anpassungen zusammengeführt werden müssen.

      Die Dauer ist auch bei einer schnellen Maschine ein deutlicher Minuspunkt gegenüber den Paketen. Das Konfigurationsdatenproblem hat man aber auch bei anderen Distributionen. Nur sieht man das da nicht unbedingt, weil sie stillschweigend die neue Default-Konfigurationsdatei daneben legen und vielleicht noch nicht einmal darauf hinweisen, dass da was zu tun ist. Die anderen können ja auch nur mit Wasser kochen, und wenn der Autor was verändert hat, ist da besonders bei Inkompatibilitäten Handarbeit erforderlich.

      Dies bedeutet: Derjenige, der das Update macht, muss von allen Konfigurationsdateien, die in diesem Schritt als updatenotwendig angezeigt werden, inhaltlich Ahnung haben.

      Das ist auch schon für das Update selbst erforderlich, denn mal eben Paket X auf ein neues Major-Release hochheben, kann auch für Sorgen sorgen.

      Das bedeutet: Er muss von sämtlichen Serverkomponenten, die irgendjemand mal via Gentoo-Emerge installiert hat, Ahnung haben - oder er macht wahrscheinlich was kaputt. Das wiederum bedeutet, dass der Job eines Gentoo-Serveradmins nur etwas für Leute ist, die den ganzen Tag nichts anderes machen, als Gentoo-Server zu administrieren, und die die Installation von Software für jemanden, der genausoviel Ahnung hat, exzellent dokumentieren können, damit derjenige den Job ebenfalls machen und/oder übernehmen kann.

      Alternative wäre zum Beispiel ein Plesk. Das fasst die wesentlichen Administratione in einer Oberfläche zusammen und damit können auch Freizeit-Admins updaten, ohne das was kaputt geht, weil eigentlich Plesk für Kompatibilitäten sorgen sollte. Solch ein Administrationstool ist aber nicht unbedingt kompatibel zu den Administrationsansprüchen und kümmert sich auch nur um den von ihm bearbeiteten Teil. Indivuduelles nebenher braucht wieder eine Extra-Wartung.

      Dies gilt insbesondere für die mit Gentoo vorhandene Möglichkeit, nicht nur Konfigurationen individuell anzupassen, sondern auch eigene Patches und Pakete in den Kompilierungsprozess mit einfließen zu lassen. Gewiss, Gentoo hat bei SELFHTML ein paar Bugs erst lösbar gemacht, die durch fehlerhafte Software von Upstream nicht schnell gelöst wurden - sowas ist aber tatsächlich nur was für Hardcore-Entwickler und -Admins und engt den Kreis der potentiellen Administratoren sehr ein.

      Pakete aus den (angepassten) Quellen zu installieren, muss prinzipiell auch mit jeder anderen Distribution gehen.

      dedlfix.

    5. Moin Sven,

      […] Außerdem kann ich so viel besser zusammenhängend ranten. :)

      Weniger ranten, mehr konstruktiv arbeiten. Es ist nicht zielführend, potentielle Mitarbeiter durch Rants vor den Kopf zu stossen.

      […] in der Folge werden aber häufig auch Updates für Konfigurationsdateien notwendig, die in einem recht aufwendigen Merge-Prozess mit den eigenen Anpassungen zusammengeführt werden müssen.

      So wie bei jeder anderen Distro auch. In Debian wirst du gefragt, ob du die Konfiguration überschreiben willst mit der im Paket, ob du die im Paket verwerfen willst, oder ob du sie mergen willst. In Arch wird sie neben die alte gelegt und man muss sich selber darum kümmern.

      Das ist technisch auch gar nicht anders möglich. Wenn sich die Konfigurations-Dateien im Upstream ändern, muss sich die Änderung natürlich auch in der Installation wiederspiegeln. Ansonsten kann eine einwandfreie Funktionalität nicht sichergestellt werden.

      Dies bedeutet: Derjenige, der das Update macht, muss von allen Konfigurationsdateien, die in diesem Schritt als updatenotwendig angezeigt werden, inhaltlich Ahnung haben. Das bedeutet: Er muss von sämtlichen Serverkomponenten, die irgendjemand mal via Gentoo-Emerge installiert hat, Ahnung haben - oder er macht wahrscheinlich was kaputt.

      Das gleiche gilt auch für jede andere Distribution. Du beschreibst hier gerade den Job eines System-Administrators.

      […] und die die Installation von Software für jemanden, der genausoviel Ahnung hat, exzellent dokumentieren können, damit derjenige den Job ebenfalls machen und/oder übernehmen kann.

      Das ist idR nicht notwendig. Ich bin ja mit den Self-Servern auch gut klargekommen, obwohl ich seit Jahren keinen Root-Zugriff mehr hatte. Ich war sogar in der Lage, hauseigene Patches auf neue Versionen der Programme zu migrieren. Vollständig ohne Dokumentation.

      Ein weiteres Problem, dass beim Serverbetrieb immer wieder auftritt, ist die erforderliche Update-Frequenz für eigentlich alles, was man mal so installiert hat. Im Prinzip muss man regelmäßig updaten, damit das Delta der Veränderungen, die jedes Update mit sich bringt, nicht zu groß wird.

      Auch das gilt für jede andere Distro. Im wesentlichen gilt: Updates sollten im Wochen-Rhythmus gefahren werden, unabhängig von der Distro. Debian veröffentlicht regelmäßig Security-Ports bzw. neue Versionen in den Backports. Archlinux als Rolling Release veröffentlicht täglich neue Versionen. FreeBSD sieht ähnlich aus. Etc, pp.

      Das gilt für Betriebssystemkomponenten natürlich auch, insbesondere allerdings für die eingesetzte Standardsoftware der Webapplikationen. SELFHTML hat an ein paar Stellen Standardsoftware im Einsatz, beispielsweise "Trac" als Ticketsystem und Dokumentations-Wiki. Hier schlägt ein Update der Software unter Umständen mit großem Migrationsaufwand zu: Wenn das Update inkompatible Änderungen zum bestehenden System erfordert, insbesondere wenn wichtige Plugins noch nicht verfügbar sind, auf die man nicht verzichten kann, oder die für die neue Version gar nicht angeboten werden, weil vielleicht deren Funktionalität nicht mehr realisierbar oder überflüssig ist.

      Hier beschreibst du wieder das übliche Dilemma. Nicht updaten geht nicht, weil man dann die Security-Fixes von Hand nachportieren müsste. Updaten bringt aber auch Arbeit mit sich. Ist halt so.

      KONSEQUENZ 4: "Würde das jemand machen - kannst auch deine bevorzugte Sprache benutzen" - no way!

      Diesen Luxus kann man sich erlauben, wenn man Überfluss in den Kapazitäten hat. Tatsache ist, dass SELFHTML chronische Unterkapazität hat. Hier gilt es, Leute überhaupt mal zu etwas Arbeit zu motivieren. Sie dann durch strikte Vorschriften abzuschrecken, die ggfls. sogar den Leuten nicht passen, ist ziemlich kontraproduktiv.

      Standards definieren und einhalten. Man kann über PHP ja sagen, was man will, aber es ist definitiv die Skriptsprache mit der größten Community verglichen mit anderen Skriptsprachen - es ist zu vermuten, dass sich dafür recht leicht Experten finden lassen. Wildwuchs erschwert die Wartung vor dem Lebensende der Software.

      Experte in PHP zu sein bedeutet nicht, eine Software warten zu können. Sobald eine Software eine bestimmte Größe überschritten hat, ist eine Einarbeitungszeit unabdinglich. Dabei ist die Sprache nur sekundär relevant.

      LG,
       CK

    6. KONSEQUENZ 4: "Würde das jemand machen - kannst auch deine bevorzugte Sprache benutzen" - no way! Standards definieren und einhalten.

      Warum Standards? Um Wildwuchs zu verhindern? Die Konsequenz könnte sein, gar nichts zu erreichen, weil die Motivation freiwilliger Helfer nicht mit den auferlegten Standards vereinbar ist.

      Ich denke, viel wichtiger für eine Community — vor allem im aktuellen Zustand, in der kaum noch Helfer da sind — ist schlicht das Machen.

      Außerdem: Sind wir hier nicht in gewisser Weise auch eine Gemeinschaft von Bastlern? Ist nicht das Ziel vor allem dieses Basteln und der Austausch darüber?
      Würde man einen imaginären Jackpot knacken und für teures Geld ein Team von Spezialisten unterschiedlicher Bereiche rekrutieren, die unter Vollbeschäftigung 8 Monaten den gesamten Selfraum umkrempeln, wäre uns damit vermutlich gar nicht geholfen. Denn dann wäre das Ding »fertig«, die Arbeit erledigt. Wir könnten im Forum noch einen Drink nehmen und ein Weilchen feiern, bis alle wieder ihren Dingen nachgehen.

      Wenn also jemand eine Zitatesammlung auf Basis von Node entwickeln möchte, ein WordPress-Blog spendiert oder irgendein Rails-Ding baut… — besser machen, haben und nutzen, als über Standards zu philosophieren, oder?
      Davon lebt doch dieser Raum.

      Und wo steckt eigentlich Chräcker?

      Viele Grüße
      _Dirk

      1. Tach!

        KONSEQUENZ 4: "Würde das jemand machen - kannst auch deine bevorzugte Sprache benutzen" - no way! Standards definieren und einhalten.
        Warum Standards? Um Wildwuchs zu verhindern?

        Standen die Antworten darauf nicht in dem Text vor der zitierten Stelle?

        Die Konsequenz könnte sein, gar nichts zu erreichen, weil die Motivation freiwilliger Helfer nicht mit den auferlegten Standards vereinbar ist.

        Ich weiß nicht, ob das langfristig gut ist, wenn deren Motivation schon von vorn herein auf dem Level ist. "Mitarbeiten ja, aber anpassen kann ich mich nicht" ist keine gute Basis für eine Zusammenarbeit.

        Ich denke, viel wichtiger für eine Community — vor allem im aktuellen Zustand, in der kaum noch Helfer da sind — ist schlicht das Machen.

        Je weniger etwas machen können, desto weniger Aufgaben können sie auch stemmen. Das wäre ja alles kein Problem, wenn es gelänge, Mannschaft und Motivation einigermaßen gleichbleibend hoch zu halten.

        Wenn also jemand eine Zitatesammlung auf Basis von Node entwickeln möchte, ein WordPress-Blog spendiert oder irgendein Rails-Ding baut… — besser machen, haben und nutzen, als über Standards zu philosophieren, oder?
        Davon lebt doch dieser Raum.

        Die Konsequenz dieses Lebens ist auf der anderen Seite, dass manche Zweige absterben können, für die eine Wartung nicht mehr gegeben ist. Damit muss man dann auch leben können.

        dedlfix.

        1. Ich weiß nicht, ob das langfristig gut ist, wenn deren Motivation schon von vorn herein auf dem Level ist. "Mitarbeiten ja, aber anpassen kann ich mich nicht" ist keine gute Basis für eine Zusammenarbeit.

          Mir geht's nicht um den Willen, sondern um das Können. Ist jemand, der motiviert ist, eine Aufgabe zu übernehmen, technisch nicht in der Lage, sie auf einem Level zu lösen, das erwartet wird, kann man

          a) das Level senken
          b) dem Helfer unter die Arme greifen, damit er das hohe Level erreicht
          c) die Aufgabe von jemand anderem erledigen lassen

          Wenn b) und c) keine Option sind, weil weitere Helfer fehlen, bleibt nur noch a). Und darüber muss man nicht immer traurig sein, wenn denn trotzdem das Ziel erreicht wird.

          Je weniger etwas machen können, desto weniger Aufgaben können sie auch stemmen. Das wäre ja alles kein Problem, wenn es gelänge, Mannschaft und Motivation einigermaßen gleichbleibend hoch zu halten.

          Eben drum. Es mag nicht sonderlich zielführend sein, in dieser Situation über Standards zu reden.

          Die Konsequenz dieses Lebens ist auf der anderen Seite, dass manche Zweige absterben können, für die eine Wartung nicht mehr gegeben ist. Damit muss man dann auch leben können.

          Ja bitte, mit Freude sterben lassen und mit noch größerer Freude neues Schaffen.

          Viele Grüße
          _Dirk

          1. Tach!

            Ist jemand, der motiviert ist, eine Aufgabe zu übernehmen, technisch nicht in der Lage, sie auf einem Level zu lösen, das erwartet wird, kann man

            a) das Level senken
            b) dem Helfer unter die Arme greifen, damit er das hohe Level erreicht
            c) die Aufgabe von jemand anderem erledigen lassen

            Wenn b) und c) keine Option sind, weil weitere Helfer fehlen, bleibt nur noch a). Und darüber muss man nicht immer traurig sein, wenn denn trotzdem das Ziel erreicht wird.

            b) wäre eigentlich der SELF-Weg (mit der Energie des Verstehens Wissen weitervermitteln).
            Wenn a) jedoch dazu führt, dass b) und c) immer schwieriger werden, ist auch keinem geholfen. Ich würde zumindest empfehlen, vorrangig Standards zu leben. Standards sind für mich eine Empfehlung und nicht von vorn herein ein Korsett. Bei Bedarf kann mit Bedacht davon abgewichen werden. Kleine Abweichungen lassen sich (auch bei wenig Personal) einfacher handhaben als viel Wildwuchs. Notfalls stirbt eine Funktion und nicht gleich ein ganzes Projekt.

            Je weniger etwas machen können, desto weniger Aufgaben können sie auch stemmen. Das wäre ja alles kein Problem, wenn es gelänge, Mannschaft und Motivation einigermaßen gleichbleibend hoch zu halten.
            Eben drum. Es mag nicht sonderlich zielführend sein, in dieser Situation über Standards zu reden.

            Hat nicht gerade auch der Wildwuchs seinen Beitrag zu dieser Situation geleistet?

            Die Konsequenz dieses Lebens ist auf der anderen Seite, dass manche Zweige absterben können, für die eine Wartung nicht mehr gegeben ist. Damit muss man dann auch leben können.
            Ja bitte, mit Freude sterben lassen und mit noch größerer Freude neues Schaffen.

            Ich sehe, hier sind wir uns grundsätzlich einig. Die Freude am Schaffen kann aber auch schnell nachlassen, wenn man merkt, dass man sich auf dem Holzweg befindet und schon zu viel Zeug mit sich rumschleppt.

            dedlfix.

            1. b) wäre eigentlich der SELF-Weg (mit der Energie des Verstehens Wissen weitervermitteln).

              Er ist sicherlich für alle Beteiligten auch der zufriedenstellendste Weg von den dreien. Das Level bleibt hoch und die Helfer lernen dazu.

              Ich würde zumindest empfehlen, vorrangig Standards zu leben. Standards sind für mich eine Empfehlung und nicht von vorn herein ein Korsett. Bei Bedarf kann mit Bedacht davon abgewichen werden. Kleine Abweichungen lassen sich (auch bei wenig Personal) einfacher handhaben als viel Wildwuchs. Notfalls stirbt eine Funktion und nicht gleich ein ganzes Projekt.

              Das klingt gut, wurde aber in der Vergangenheit nicht immer geschickt kommuniziert. Mein Empfinden bezgl SELFHTML war lange Zeit: Es wird ein ungemein hohes Level erwartet, das ein Großteil der Helfer schlicht nicht erfüllen kann. Immer, wenn über ein fachliches Thema diskutiert wurde, kam jemand von der Seite, der die Nummer noch ein bisschen komplexer gestalten konnte (so wie in diesem Thread übrigens auch), so dass links und rechts motivierte Helfer zauderten und am Ende wegbrachen.

              Hinzu kommt, dass ziemlich viele Dickköpfe im Spiel waren. Ich erinnere mich bis heute an die Situation, als es darum ging, ein SELFHTML-Blog zu initiieren:

              Am Anfang standen gefühlte 10-15 Helfer.
              Es wurde über Software spekuliert: WordPress, s9y, Textpattern, jlog, block, Eigenentwicklung.
              Ein Systemadministrator beharrte darauf, dass sowas wie WordPress ihm never ever auf die Server käme.
              S9Y wurde gepusht, aber kaum jemand kannte sich damit aus.
              Außerdem müsse doch die globale SELFHTML-Suche mit angedockt werden, wir brauchen Schnittstellen und ganz viel Teufelszeug!
              Der Helfer schwanden, die Motivation schwand, die Aufgabe wurde immer komplexer.
              Am Ende stand in der Tat ein Blog — Glück gehabt, sowas wie ein Happy End. Aber es sind einige Leute dabei auf der Strecke geblieben. Und die ursprünglichen Erwartungen konnten nicht erfüllt werden.

              Keine Ahnung warum, aber es wird so vieles in diesem Raum schlicht zerredet und/oder überkonzipiert.

              Hat nicht gerade auch der Wildwuchs seinen Beitrag zu dieser Situation geleistet?

              Ich denke nicht. Das ganze Ding hier ist ein einziger Wildwuchs. Von Menschen, von Interessen, von Software und Hardware.

              Ich sehe, hier sind wir uns grundsätzlich einig. Die Freude am Schaffen kann aber auch schnell nachlassen, wenn man merkt, dass man sich auf dem Holzweg befindet und schon zu viel Zeug mit sich rumschleppt.

              Dann mistet man aus und baut neues Zeug, wenn sich jemand findet, der Bock hat. Wenn nicht, dann nicht.

              Viele Grüße
              _Dirk

              1. Hallo,

                Keine Ahnung warum, aber es wird so vieles in diesem Raum schlicht zerredet und/oder überkonzipiert.

                Ich simme Dir zu. Man sollte  es wirklich erstmal simpel und funktional machen und so die Möglichkeit schaffen, dass auch mehr Leute mithelfen können. Nice-to-Haves (sorry) interessieren mich eigentlich garnicht angesichts der Tatsache, dass wir einen 6-Wochen-Forumsausfall wegen eines defekten Netzteils hatten. Und das kann natürlich schon morgen wieder passieren, denn die anderen Netzteile sind ja genauso alt.

                Außerdem reden wir hier die ganz Zeit von "mieten", obwohl bei Trello klar das Angebot gemacht wurde von mir, dass wir erstmal nach Sponsoring suchen könnten. Dazu wäre eine Definition der Minimalanforderungen hilfreich. NTT übrigens sponsort ja schon die ganze Zeit, der Verein hat bis auf die Domainregistrierung und ein SSL-Zertifikat aktuell _keine_ laufenden Kosten!

                Gruß

                jobo

                1. Tach!

                  Nice-to-Haves (sorry) interessieren mich eigentlich garnicht angesichts der Tatsache, dass wir einen 6-Wochen-Forumsausfall wegen eines defekten Netzteils hatten. Und das kann natürlich schon morgen wieder passieren, denn die anderen Netzteile sind ja genauso alt.

                  Vor 6 Wochen hatten wir das Problem, das nicht nur der Server down ging, sondern auch die Motivation schon dort angekommen war. Zudem fehlte der Hauptadministrator. Dies hat sich schon deutlich geändert.

                  Außerdem reden wir hier die ganz Zeit von "mieten", obwohl bei Trello klar das Angebot gemacht wurde von mir, dass wir erstmal nach Sponsoring suchen könnten.

                  Das "mieten" steht derzeit synonym für alle möglichen Beschaffungsformen. Es ist zu umständlich immer alle möglichen Optionen aufzuzählen. Derzeit steht die Bedarfsermittlung an erster Stelle, dann kommt die Frage nach der konkreten Ausführung.

                  Dazu wäre eine Definition der Minimalanforderungen hilfreich.

                  Wenn du zu minimal einsteigst, fehlt dir später die Möglichkeiten. Selbst wenn wir ad hoc neue Server auftreiben, wird mit dem Umzug der Software und den damit gleich einhergehenden Updates noch genügend Zeit ins Land gehen, bis alles von den alten Servern weg ist. Es ist ja nicht sonderlich sinnvoll, die neuen Server mit altem Softwarestand zu betanken, wenn wir uns entschließen, die Distribution zu wechseln. Wenn wir mit nur einem System einsteigen, ist so eine Migration im laufenden Betrieb sowieso ausgeschlossen.

                  dedlfix.

                  1. Hallo,

                    Dazu wäre eine Definition der Minimalanforderungen hilfreich.

                    Wenn du zu minimal einsteigst, fehlt dir später die Möglichkeiten. Selbst wenn wir ad hoc neue Server auftreiben, wird mit dem Umzug der Software und den damit gleich einhergehenden Updates noch genügend Zeit ins Land gehen, bis alles von den alten Servern weg ist. Es ist ja nicht sonderlich sinnvoll, die neuen Server mit altem Softwarestand zu betanken, wenn wir uns entschließen, die Distribution zu wechseln. Wenn wir mit nur einem System einsteigen, ist so eine Migration im laufenden Betrieb sowieso ausgeschlossen.

                    Naja, soundsoviel Gigabyte, soundsoviel Zugriffe die Minute bzw. Maximalwerte. Das reicht ja eigentlich schon komplett aus würde ich sagen.
                    100GB reichen, so wie ich das aktuell sehe, komplett aus. Auch für die nächsten 10 Jahre. Wieviel Zugriffe maximal stattfinden, kann ich nicht sagen. Du erwähntest auch mal, dass da 5000 Datein zum Teil geöffnet sein müssten (bzw. diese Beschränkung vServer ausschließen würde).

                    Gruß

                    jobo

              2. Hallo,

                bist du denn auch bei https://trello.com/selfhtml ? Bzw. hast du da schon eine Einladung?

                Gruß

                jobo

                1. Hallo,

                  bist du denn auch bei https://trello.com/selfhtml ? Bzw. hast du da schon eine Einladung?

                  Und willst Du dich hier eintragen http://wiki.selfhtml.org/wiki/SELFHTML:Unterstützer#Unterst.C3.BCtzer ?

                  Gruß

                  jobo

                  1. bist du denn auch bei https://trello.com/selfhtml ? Bzw. hast du da schon eine Einladung?

                    Ich habe einen Account, schickt mir gerne eine Einladung (ds@decaf.de).
                    Danke!

                    Und willst Du dich hier eintragen http://wiki.selfhtml.org/wiki/SELFHTML:Unterstützer#Unterst.C3.BCtzer ?

                    Nein, erstmal nicht.

                    Viele Grüße
                    _Dirk

                    1. Hallo,

                      bist du denn auch bei https://trello.com/selfhtml ? Bzw. hast du da schon eine Einladung?

                      Ich habe einen Account, schickt mir gerne eine Einladung (ds@decaf.de).

                      Ich brauche deinen Nick dort bzw. Deinen Benutzername.

                      Nein, erstmal nicht.

                      Oh, Menno ... ;-) [ist ja auch ein bissel für die Aussenwirksamkeit ...]

                      Gruß

                      jobo

                    2. Hallo,

                      bist du denn auch bei https://trello.com/selfhtml ? Bzw. hast du da schon eine Einladung?

                      Ich habe einen Account, schickt mir gerne eine Einladung (ds@decaf.de).
                      Danke!

                      habe dort Dirk Schür... gefunden und dich eingeladen...;

                      Gruß

                      jobo

                      1. habe dort Dirk Schür... gefunden und dich eingeladen...;

                        Du Fuchs ;) Danke!

                        Viele Grüße
                        _Dirk

              3. Tach!

                Hinzu kommt, dass ziemlich viele Dickköpfe im Spiel waren. Ich erinnere mich bis heute an die Situation, als es darum ging, ein SELFHTML-Blog zu initiieren:
                Keine Ahnung warum, aber es wird so vieles in diesem Raum schlicht zerredet und/oder überkonzipiert.

                Demokratie nennt man das. Ist das anderswo grundlegend anders, wenn viele Interessen aufeinandertreffen? Wenn jeder mitreden darf und sich nicht unter ein Diktat zu beugen hat, fallen solche Diskussionen eben an. Hier braucht es jedoch einen Moderator, der die Sache im Rahmen hält.

                Außerdem müsse doch die globale SELFHTML-Suche mit angedockt werden, wir brauchen Schnittstellen und ganz viel Teufelszeug!

                Ich schnapp mir mal nur den Punkt raus. Die SELFHTML-Suche werden wir wohl in Zukunft einstellen können, denke ich. Ich habe zwar kaum mit ihr gearbeitet, aber die sitespezifischen Suchen von Google und Bing scheinen mir die gewünschte Funktionalität ohne eigenen Aufwand bieten zu können und hat zum Beispiel mit dem "Meinten Sie" sogar noch eine deutliche Funktionserweiterung zu bieten.

                dedlfix.

                1. [latex]Mae  govannen![/latex]

                  Ich schnapp mir mal nur den Punkt raus. Die SELFHTML-Suche werden wir wohl in Zukunft einstellen können, denke ich. Ich habe zwar kaum mit ihr gearbeitet, aber die sitespezifischen Suchen von Google und Bing scheinen mir die gewünschte Funktionalität ohne eigenen Aufwand bieten zu können und hat zum Beispiel mit dem "Meinten Sie" sogar noch eine deutliche Funktionserweiterung zu bieten.

                  Ganz im Gegenteil. Die Google-Suche wird seit Jahren immer matschiger (fiktiv: wenn ich "verlängern" eingebe, will ich KEINE Suchergebnisse mit Verlängerung), viele simple Wörter werden generell ausgefiltert; man kann sie also nicht nutzen, selbst wenn genau dieses simple Wort eine Bedeutung hat, Zeichenkombinationen außerhalb A-Za-z0-9 sind ohnehin eine Katastrophe.

                  Nein, gerade die SELFHTML-Suche ermöglicht es mir, anhand bestimmter Kombinationen einen Beitrag wiederzufinden, selbst wenn ich tw. nur bruchstückhafte Erinnerung an dessen Inhalt habe.

                  Eine Einstellung der Suche wäre der schlimmste Schritt, den man machen könnet.

                  Stur lächeln und winken, Männer!
                  Kai

                  --
                  It all began when I went on a tour, hoping to find some furniture
                   Followed a sign saying "Beautiful Chest", led to a lady who showed me her best)
                  SelfHTML-Forum-Stylesheet
                  1. Tach!

                    Ich schnapp mir mal nur den Punkt raus. Die SELFHTML-Suche werden wir wohl in Zukunft einstellen können, denke ich. Ich habe zwar kaum mit ihr gearbeitet, aber die sitespezifischen Suchen von Google und Bing scheinen mir die gewünschte Funktionalität ohne eigenen Aufwand bieten zu können und hat zum Beispiel mit dem "Meinten Sie" sogar noch eine deutliche Funktionserweiterung zu bieten.

                    Ganz im Gegenteil. Die Google-Suche wird seit Jahren immer matschiger (fiktiv: wenn ich "verlängern" eingebe, will ich KEINE Suchergebnisse mit Verlängerung),

                    Anführungszeichen um den Suchbegriff verhindern eine Ähnlichkeitssuche.

                    viele simple Wörter werden generell ausgefiltert; man kann sie also nicht nutzen, selbst wenn genau dieses simple Wort eine Bedeutung hat,

                    Auch die kann man mit Anführungszeichen erzwingen.

                    Zeichenkombinationen außerhalb A-Za-z0-9 sind ohnehin eine Katastrophe.

                    Dafür ist mir auch keine Lösung bekannt.

                    Nein, gerade die SELFHTML-Suche ermöglicht es mir, anhand bestimmter Kombinationen einen Beitrag wiederzufinden, selbst wenn ich tw. nur bruchstückhafte Erinnerung an dessen Inhalt habe.

                    Gerade dann erwarte ich, das ich mich nicht mehr an den exakten Wortlaut erinnere.

                    Eine Einstellung der Suche wäre der schlimmste Schritt, den man machen könnet.

                    Ganz so schlimm sieht es nicht aus. Es besteht ja keine Notwendigkeit sie abzuschalten, nur auf eine Erweiterung/Erneuerung würde ich weniger hoffen. Vielleicht sollten wir sie aber stärker als Zusatz zu den (noch) bestehenden Suchfunktionen einbinden.

                    dedlfix.

                    1. [latex]Mae  govannen![/latex]

                      Ganz im Gegenteil. Die Google-Suche wird seit Jahren immer matschiger (fiktiv: wenn ich "verlängern" eingebe, will ich KEINE Suchergebnisse mit Verlängerung),

                      Anführungszeichen um den Suchbegriff verhindern eine Ähnlichkeitssuche.

                      Ich habe in meinem Beitrag den Suchbegriff *ganz bewußt* in Anführungszeichen gesetzt.
                      Und nein, sie verhindern eine Ähnlichkeitssuche nicht (immer), vielleicht werden ähnliche Begriffe weiter nach hinten verschoben. Wenn Google jedoch gerade der Meinung ist es so machen zu wollen,, erscheinen solche Begriffe durchaus trotzdem auf der ersten Trefferseite. BTDT

                      viele simple Wörter werden generell ausgefiltert; man kann sie also nicht nutzen, selbst wenn genau dieses simple Wort eine Bedeutung hat,

                      Auch die kann man mit Anführungszeichen erzwingen.

                      Ebenfalls nicht immer oder nur sehr bedingt.

                      Zeichenkombinationen außerhalb A-Za-z0-9 sind ohnehin eine Katastrophe.

                      Dafür ist mir auch keine Lösung bekannt.

                      Gerade im Kontext "Programmierung" aber sehr wichtig

                      Allgemein: Wie soll ich beispielsweise Beiträge von XYZ in der Kategorie foobar finden, nicht aber Beiträge von XYZ, in denen das Wort foobar zwar vorkommt, die aber einer anderen Kategorie angehören? Und auch keine Beiträge von anderen, die den Namen des Autors XYZ irgendwie in der Begrüßung oder Signatur haben? Mit Google quasi unmöglich. Genau deshalb hasse ich Google (eigentlich schon immer), wobei es in den letzten Jahren immer schlimmer wurde, spezifisch zu suchen. Jedenfalls würde das Archiv ohne diese angepasste Suchfunktionalität größtenteils unbrauchbar werden.

                      Stur lächeln und winken, Männer!
                      Kai

                      --
                      It all began when I went on a tour, hoping to find some furniture
                       Followed a sign saying "Beautiful Chest", led to a lady who showed me her best)
                      SelfHTML-Forum-Stylesheet
                      1. Tach!

                        Ganz im Gegenteil. Die Google-Suche wird seit Jahren immer matschiger (fiktiv: wenn ich "verlängern" eingebe, will ich KEINE Suchergebnisse mit Verlängerung),
                        Anführungszeichen um den Suchbegriff verhindern eine Ähnlichkeitssuche.
                        Ich habe in meinem Beitrag den Suchbegriff *ganz bewußt* in Anführungszeichen gesetzt.

                        Ich hab das nur als Hervorhebung des Suchbegriffs angesehen, nicht als zum Suchbegriff gehörend.

                        Allgemein: Wie soll ich beispielsweise Beiträge von XYZ in der Kategorie foobar finden, nicht aber Beiträge von XYZ, in denen das Wort foobar zwar vorkommt, die aber einer anderen Kategorie angehören? [...]

                        Gut, so genau kann das die externe Suchmaschine nicht erfassen, weil ihr die Bedeutungen der Posting-Bestandteile unbekannt ist. Aber der Autorname ist nur für ein paar wenige Poweruser relevant. Der Otto-Normal-Sucher hingegen vermisst vielleicht schon lange eine Ähnlichkeitssuche. Eine Erweiterung steht in den Sternen und hier kann die zusätzlich externe Suche weiterhelfen, deren Einbindung auch verhältnismäßig einfach möglich ist.

                        dedlfix.

                2. Hallo,

                  Hinzu kommt, dass ziemlich viele Dickköpfe im Spiel waren. Ich erinnere mich bis heute an die Situation, als es darum ging, ein SELFHTML-Blog zu initiieren:
                  Keine Ahnung warum, aber es wird so vieles in diesem Raum schlicht zerredet und/oder überkonzipiert.

                  Demokratie nennt man das. Ist das anderswo grundlegend anders, wenn viele Interessen aufeinandertreffen? Wenn jeder mitreden darf und sich nicht unter ein Diktat zu beugen hat, fallen solche Diskussionen eben an. Hier braucht es jedoch einen Moderator, der die Sache im Rahmen hält.

                  Es gilt, einen größten gemeinsamen Nenner zu finden. Demokratie und Diktat sind hier eher fehl am Platze. Das sollte alles laufen und möglichst einfach zu handhaben sein. Es braucht Experten, die helfen, das umzusetzen. Das hat in erster Linie mit Demokratie nix zu tun, eher noch mit "Schwarmintelligenz".

                  Gruß

                  jobo

                3. Demokratie nennt man das.

                  Nein, ich meinte schon Dickköpfe. Und Zerreden statt Reden. Und Überkonzipieren statt Machen.

                  Aber ansonsten hast Du natürlich recht mit dem, was Du sagst.

                  Viele Grüße
                  _Dirk

  4. Tach!

    Hier kommt die angekündigte Zusammenfassung der Vorschläge.

    Vorab: Ich bin kein Rechenzentrumsbetreiber. Ich habe nur mal das eine oder andere gesehen und selbst probiert, bin aber ansonsten nur interessierter Laie. Bei Fehleinschätzungen meinerseits bitte ich darum, Einspruch zu erheben.

    Das Ziel ist, das Gesamtsystem auf einen zukunftssicheren Stand zu bringen, so dass Hardwareprobleme keinen großen Ausfall mehr verursachen können. Das soll eher mittelfristig geschehen, ein akuter Handlungsbedarf zeichnet sich derzeit nicht ab. Drei von vier Servern laufen noch mit ausreichend Reserven.

    Es gibt zwei grundsätzliche Szenarien, unabhängig von der konkreten Ausführung (virtualisiert oder physisch):

    1. Ein Server, auf dem alles läuft.
    2. Mehrere Server, die sich die Arbeit teilen.

    Vorteil bei 1 ist, dass sich der Administrationsaufwand auf ein System beschränkt. Der Vorteil von 2 ist, dass man auch mal etwas komplett getrennt laufen lassen kann. Dies wird weniger aus Performancegründen als vielmehr zum Testen notwendig sein. Davon ausgehend kann man sich eine Umsetzung überlegen.

    11. Eine Maschine auf virtueller Basis - à la 1&1 Cloud oder Host Europe.
    12. Eine physische Maschine (dedizierter Server, wie er nahezu überall angeboten wird).
    13. VServer - nicht weiter betrachtet, zu viele Einschränkungen.

    (Die verlinkten Angebote sollen als technisches Beispiel dienen und noch keine Empfehlung darstellen.)

    21. Mehrere einzelne Maschinen (virtuell oder physisch)
    22. Eine physische Maschine (wie 12), auf der eine Virtualisierungslösung läuft.
    23. Ein virtuelles Rechenzentrum - eine bereitgestellte VM-Umgebung, in der man die VMs selbst hinzufügen kann.

    Angebote für 23 sind noch nicht so lange am Markt. Es könnte sein, dass sich ein Anbieter findet, der gegen Werbung so eine Umgebung sponsert, um sich ins Gespräch zu bringen. Allerdings sind diese auf Hochverfügbarkeit und schnelle Ressourcenbereitstellung ausgelegten Lösungen für unseren Bedarf eigentlich überdimensioniert. An einer Virtualisierung mehrere Server in einer Umgebung ist jedoch interessant, dass einzelne Maschinen geclont oder Snapshots angefertigt werden können. Dies ist hilfreich für Backups und das Zurückdrehen, wenn etwas nicht geklappt hat. Für Tests können diese Kopien ebenfalls herangezogen werden.

    Wie wirken sich Ausfälle auf die Varianten aus?

    Alles auf 1 basierende bedeutet, wenn keine Redundanz greift, einen Komplettausfall. Einzelne Festplatten sind üblicherweise durch Redundanzen gesichert, ein Ausfall kann im (weiter)laufenden Betrieb beseitigt werden. Andere Komponenten tauscht der Support aus. Ersatzteile sollte der Hoster vorhalten, denn er wirbt ja mit hoher Verfügbarkeit. Es ist aber möglich, dass ein plötzlicher Ausfall das System in einen nicht mehr hochlauffähigen Zustand bringen kann, was administrativen Aufwand bedeutet und je nach Schwere dauert. Backups müssen auf einem exteren Platz zu liegen kommen. (Ein Backup-Konzept betrachte ich an dieser Stelle nur insoweit, dass keine wichtigen Wege durch das gewählte Design ausgeschlossen werden.)
    Bei Variante 21 können die Server gegenseitig als Backup-Medium dienen, so läuft das auch bisher. Für 22 wird ein externer Backup-Platz benötigt. Bei 23 kommt es drauf an, wie die Umgebung aufgebaut ist. Zwei physisch unabhängige Datastores (der Platz in dem die Festplatten der VMs liegen) sollten ausreichend sein. Ansonsten muss auch hier externer Platz zur Verfügung stehen.
    Bei den Szenarien mit rein virtuellen Umgebungen (11, 21 und 23) sollte der Hoster in der Lage sein, bei sich abzeichnenden Hardwareproblemen einen mehr oder weniger nahtlosen Umzug auf andere Maschinen durchzuführen.

    Was wird benötigt, was ist Nice-to-have?

    Vom Leistungbedarf reicht eine aktuelle Maschine. Für Tests ist eine zweite Maschine sehr von Vorteil. Eine Alternative wäre, dass man zumindest recht einfach und schnell ein zweites System aufgesetzt bekommt. Wenn nichts besseres aufzutreiben ist, wäre 11 oder 12 zuzüglich Backup-Platz die Minimalvariante.

    Variante 21 hat bei Standardangeboten den Nachteil, dass die Maschinen nicht exklusiv miteinander vernetzt sind. Dies ist mit den jetzigen Maschinen aber gegeben, so dass diese auf schnelle Weise ihre Backups austauschen können. Zur privaten Kommunikation (zum Beispiel zwischen Anwendung und Datenbank) muss für diese Variante noch ein VPN aufgesetzt werden. (Keine unlösbare administrative Aufgabe, doch das läppert sich am Ende alles zusammen.)

    Wenn es eine physische Maschine (12) mit ausreichender Leistung und viel RAM ist, kann diese in Variante 22 betrieben werden. Damit lassen sich gegenüber 21 nicht nur die Aufgabe separieren, man kann dazu noch, auch bei Standard-Angeboten, den jetzigen privaten Switch emulieren.

    Konkret habe ich für das Eigenvirtualisierungsszenario den VMware ESXi und Xen untersucht. (Das ebenfalls kostenlose Hyper-V von Microsoft kenne ich auch, doch damit dürfte bei den potentiellen Administratoren kein Blumentopf zu gewinnen sein.) Beides sind Hypervisor-Systeme, was heißt, dass auf der Hardware ein Minimalsystem läuft, in dem dann die VMs gestartet werden.

    VMwares ESXi ist zwar der Marktführer, aber zum Grundsystem gibt es meines Wissens nur eine kostenlose Verwaltungsoberfläche (vSphere Client), die ausschließlich unter Windows läuft. Zudem kann diese auch nur die Grundfunktionalitäten: Maschinen anlegen, einschalten und ausschalten. Snapshots gehen auch noch, aber das komplette Klonen von Maschinen ist nicht vorgesehen, womit auch kein Backup ganzer VMs unterstützt wird. Das ist nur gegen Aufpreis erhältlich. Inwieweit es externe Tools zum Nulltarif gibt, habe ich nicht untersucht. Für den vSphere Client kann man zwar eine zusätzliche VM mit Windows aufsetzen. An diese kommt man prinzipiell auch per Fernzugriff von Nicht-Windows-Systemen, doch dann hat man ein mehr oder weniger öffentlich zugängliches Windowssystem zusätzlich zu warten (von Lizenzkosten ganz abgesehen).

    Xen gibt es nicht nur als kommerzielles Produkt, viele Linux-Distributionen unterstützen es ebenfalls. Alle Wartungsaufgaben lassen sich an der Kommandozeile ausführen und sind damit auch für automatische Vorgänge scriptbar. Bei Variante 22 wäre mein Vorschlag also eine Xen-Lösung.

    Bleibt noch Variante 23. Die ist die anspruchsvollste und wird üblicherweise so individuell konzipiert, dass man Preise nur auf Anfrage bekommt. Doch wie oben schon erwähnt, sind die Chancen auf ein Sponsoring nicht ganz schlecht. Technisch jedenfalls entspricht sie der 22, nur dass sich auch noch der Hoster um den Hypervisor kümmert. Was das Klonen und weitere Wartungstätigkeiten angeht, ist man auf das Angebot und die Tools des Hosters angewiesen.

    Ein Wunsch war das Transferieren von VMs nach Hause, um sie in Ruhe analysieren zu können. Das wäre bei 11, 12 und 21 gänzlich ausgeschlossen, bei 22 möglich (mit Xen einfach und mit ESXi nicht unmöglich) und bei 23 von den Hoster-Tools abhängig. Vermutlich ist es eher sinnvoll, den Clone in der VM-Umgebung zu lassen und ihn fernzubedienen anstatt viele GB herunterzuladen. Konsolenzugriff ist in allen Varianten gegeben.

    Ein bedeutender Nachteil der mit Standardangeboten einhergeht, ist die übliche Beschränkung auf eine einzelne IP-Adresse (jedenfalls ohne Aufpreis). Nur eine öffentliche IP-Adresse zur Verfügung zu haben, macht das Verteilen von Aufgaben auf weitere Server mindestens umständlich. Mehrere Webserver benötigen einen vorgeschalteten Reverse-Proxy oder ähnliches, damit der Traffic zu ihnen verteilt werden. SELFHTML gehört derzeit ein /28er-Netz, was mehr als reichliche 14 nutzbare Adressen ergibt. Ob diese bei einem Wechsel mit umziehen können, gilt es herauszufinden.

    Meine persönlichen Favoriten sind in absteigender Reihenfolge: 23, 22, 11 und 12.

    dedlfix.

    1. Om nah hoo pez nyeetz, dedlfix!

      Danke für deine ausführliche Einschätzung.

      Drei von vier Servern laufen noch mit ausreichend Reserven.

      Kann/darf/soll Odin (durch ein neues Netzteil) wiederbelebt werden?

      Matthias

      --
      1/z ist kein Blatt Papier.
      1. Tach!

        Drei von vier Servern laufen noch mit ausreichend Reserven.
        Kann/darf/soll Odin (durch ein neues Netzteil) wiederbelebt werden?

        Das lohnt sich sicher nicht, wenn wir uns entschließen, die alte Hardware aufzugeben. Der hat ja auch grade seine Festplatten an Vili gespendet. Wenn dabei nicht noch eine startfähige Systemplatte/-partition übriggeblieben ist, müsste ja erst wieder das System installiert werden.

        dedlfix.

        1. Om nah hoo pez nyeetz, dedlfix!

          Das lohnt sich sicher nicht, wenn wir uns entschließen, die alte Hardware aufzugeben.

          Das ist sicher korrekt.

          Der hat ja auch grade seine Festplatten an Vili gespendet.

          Vili hatte vorher doch auch welche. Aber diese Diskussion brauchen wir nicht führen.

          Matthias

          --
          1/z ist kein Blatt Papier.
      2. Moin Matthias,

        Kann/darf/soll Odin (durch ein neues Netzteil) wiederbelebt werden?

        Würde ich lassen. Das ist IMHO ein wirtschaftlicher Totalschaden. Ein neues Netzteil liegt im Bereich von 100€ - 150€.

        LG,
         CK

    2. Hallo,

      Das Ziel ist, das Gesamtsystem auf einen zukunftssicheren Stand zu bringen, so dass Hardwareprobleme keinen großen Ausfall mehr verursachen können. Das soll eher mittelfristig geschehen, ein akuter Handlungsbedarf zeichnet sich derzeit nicht ab. Drei von vier Servern laufen noch mit ausreichend Reserven.

      Ich weise mal darauf hin, dass wir bei Trello eine Card haben von Sven: "Hardware fällt aus". Ich verstand das so: wenn einer der Server aus Altersgründen schlapp macht, kann das den anderen ebenso passieren.

      1. VServer - nicht weiter betrachtet, zu viele Einschränkungen.

      Also ich glaube das schlicht nicht, nehme aber zur Kenntnis, dass das aus irgendwelchen Gründen nicht gewollt ist. Grade der Testserver könnte ein VServer sein. Nehme ich mal das Blog (Wordpress = PHP & MySQL), das läuft natürlich auf eine VServer. Subdomains könnte man im übrigen natürlich problemlos auch auf verschiedenen Serveren verteilen. Ich denke aber, die Testservervariante ist nicht schlecht, da hätte man dann auch die Möglichkeit, falls doch mal was schief läuft, umzurouten und zumindest einen Blog-Eintrag zur aktuellen Problematik anzubieten.

      Ein bedeutender Nachteil der mit Standardangeboten einhergeht, ist die übliche Beschränkung auf eine einzelne IP-Adresse (jedenfalls ohne Aufpreis).

      Das ist falsch, wenn Du das von mir irgendwo gepostete Angebot von Strato zu Grunde legst. Die 40,-/Monat VServer-Variante bietet zwei IP-Adressen. Das ja eben "irgendein Standardangebot" (Strato = Standard). Ich schließe daraus, dass eine zweite IP keine Probleme darstellt, auch nicht für einen möglichen Sponsor.

      Mein Vorschlag, s.a. Kommentar hier https://forum.selfhtml.org/?t=209994&m=1429904 - einen "eigenen" Rootserver und einen virtuellen zum Testen. Und möglichst wenig Software drauf laufen - die, die es unbedingt braucht, scheint ja schon Aufwand genug zu sein.

      Gruß

      jobo

      1. Tach!

        Das Ziel ist, das Gesamtsystem auf einen zukunftssicheren Stand zu bringen, so dass Hardwareprobleme keinen großen Ausfall mehr verursachen können. Das soll eher mittelfristig geschehen, ein akuter Handlungsbedarf zeichnet sich derzeit nicht ab. Drei von vier Servern laufen noch mit ausreichend Reserven.
        Ich weise mal darauf hin, dass wir bei Trello eine Card haben von Sven: "Hardware fällt aus". Ich verstand das so: wenn einer der Server aus Altersgründen schlapp macht, kann das den anderen ebenso passieren.

        Es kann aber genauso gut sein, dass bis zum Ausschalten nichts passiert. Wann etwas passiert, und wie schnell wir umschalten müssen, um noch vor diesem Ereignis eine Alternative zu haben, kann keiner sagen.

        1. VServer - nicht weiter betrachtet, zu viele Einschränkungen.
          Also ich glaube das schlicht nicht, nehme aber zur Kenntnis, dass das aus irgendwelchen Gründen nicht gewollt ist. Grade der Testserver könnte ein VServer sein.

        Neben den mitunter zu geringen Leistungsmerkmalen bekommst du beim VServer auch kein eigenes Betriebssystem installiert. Das ist nämlich an das vom Hostsystem gebunden. Damit kannst du nur die Betriebssysteme nehmen, die der Hoster vorgibt. Das würde uns rückwirkend auf den unter unserer voller Kontrolle stehenden Systemen einschränken. Als Testsystem ist der nur eingeschränkt verwendbar. Und mal eben irgendein System installieren kannst du auch zuhause in einer virtuellen Umgebung. Als Backup-System braucht man nur Plattenplatz beim Hoster. Ein Betriebssystem benötigt nur Wartung und nimmt Platz weg.

        Ein bedeutender Nachteil der mit Standardangeboten einhergeht, ist die übliche Beschränkung auf eine einzelne IP-Adresse (jedenfalls ohne Aufpreis).
        Das ist falsch, wenn Du das von mir irgendwo gepostete Angebot von Strato zu Grunde legst.

        Ich schrieb "üblicherweise". Dass es Ausnahmen gibt, mag ja sein. Bei den anderen in diesem Thread genannten Anbietern gibt es jedenfalls immer nur eine Adresse inklusive.

        Die 40,-/Monat VServer-Variante bietet zwei IP-Adressen. Das ja eben "irgendein Standardangebot" (Strato = Standard). Ich schließe daraus, dass eine zweite IP keine Probleme darstellt, auch nicht für einen möglichen Sponsor.

        Ich betrachte das auch aus der Perspektive, dass sich kein Sponsor findet. Dann muss man die Mehrkosten für weitere IP-Adressen berücksichtigen.

        Mein Vorschlag, s.a. Kommentar hier https://forum.selfhtml.org/?t=209994&m=1429904 - einen "eigenen" Rootserver und einen virtuellen zum Testen.

        Damit sind die Testmöglichkeiten sehr eingeschränkt. Hartnäckige Fehler, die sich in einem anderen System nicht nachstellen lassen, kannst du damit nur schwer beheben.

        dedlfix.

        1. Hallo,

          Es kann aber genauso gut sein, dass bis zum Ausschalten nichts passiert. Wann etwas passiert, und wie schnell wir umschalten müssen, um noch vor diesem Ereignis eine Alternative zu haben, kann keiner sagen.

          Eben, es kann jederzeit passieren, das wissen wir jetzt. Also kann man auch nicht sagen, man hätte da zeitlich viel Spiel. Das Forum zB. sollte mMn. so schnell es geht portiert werden.

          Neben den mitunter zu geringen Leistungsmerkmalen bekommst du beim VServer auch kein eigenes Betriebssystem installiert.

          Nee, es sollte mMn. (s. Link) ja auch Debian 6.0 oder Ubuntu LTS sein. Das ist 08-15 und funktioniert und damit kennen sich noch am Ehesten alle möglichen Personen aus.

          Ich betrachte das auch aus der Perspektive, dass sich kein Sponsor findet. Dann muss man die Mehrkosten für weitere IP-Adressen berücksichtigen.

          Das könnte man dann berücksichtigen, wenn es keinen Sponsor gibt. Ich halte es für so gut wie ausgeschlossen, dass sich keiner findet. Es sei denn, "der Verein" oder SELFHTML gestaltet sich als Vertragspartner zu "schwierig", weil unentschlossen, zu langsam in Entscheidungsfindungen, zu "extravagant" in seinen Ansprüchen.

          Damit sind die Testmöglichkeiten sehr eingeschränkt. Hartnäckige Fehler, die sich in einem anderen System nicht nachstellen lassen, kannst du damit nur schwer beheben.

          So lange wie man möglichst ausgiebig mit 08-15-Lösungen hantiert und auf möglichst allen nicht wirklich nötigem nice-to-have-Ballast verzichtet, könnte der vServer natürlich gut herhalten zum Testen und für einen temporären Ersatz.

          Gruß

          jobo