Hi,
'tschuldigung ob der Verzögerung, aber ich bin gestern einfach zu spät nach Hause gekommen und hatte da keine Lust mehr. Wahrscheinlich werde ich so langsam alt ;-)
Es gibt in Windows einige Designfehler, die immer noch nicht ausgemerzt wurden. Es wird daran gearbeitet - nicht zuletzt mit SP2 - aber ist immer noch nicht zufriedenstellend.
Wer hat denn was vom Client gesagt? Ich sprach von Serverbetriebssystemen.
Ja, ich auch, wenn auch von Windows. Und da ist kein Unterschied im Design zwischen Desktop und Server auszumachen, ist beides auf der gleichen Basis.
Und da du SP2 erwähnst, meinst du wohl XP (was auf einem Server nix zu
suchen hat.
Und was hat da etwas zu suchen? Na, das klingt etwas harsch und war doch nicht so gemient, besser: welches Windows würdest Du für einen Server empfehlen und vor allem: warum?
Ich bin in den Detzails allerdings nicht up-to-date, da ich problemlos und vor allem ohen Mehrkosten Windows einfach als "unsicher" ansehen kann udn entsprechend behandeln.
Das darf ja jeder sehen wie er will. Das ändert aber nichts daran, dass
es falsch ist.
Warum? Jetzt fang nicht auch noch so an, wie der Frank ohne "reg" - was auch immer "reg" sein mag - und verrate mir: warum ist das falsch?
Gut, das es keine Mehrkosten gibt ist so gesehen nicht ganz richtig, normalerweise wird das sogar billiger, da keine Zeit dafür draufgeht, Windows halbwegs sicher zu machen. Ein ganz pragmatischer kaufmännischer Grund also.
(Bei wirklich vollständig gleicher Hardware _aller_ Knoten trifft das nicht mehr zu, aber auch erst dann.)
Ja, ich weiß, das man es theoretisch sicher machen kann, aber wer kann das?
Och. Ich kenne da einige.
Dann verrate mir die Namen, ich kenne niemanden, suche aber stets und zahle gut.
Also mußt Du - bzw ich, der ich davon ganz gut lebe - alles mit Firewalls absichern, das kostet.
Ich lebe auch ganz gut davon (und damit). Aber eine Firewall wirst du nicht
nur für Windowsserver brauchen.
Ja, das war polemisch, das sollte ich nicht sein, ich weiß.
Aber nur Windowsserver brauchen _immer_ vollständigen Schutz, da man sie im Gegensatz zu manch anderen Systemen schonmal nicht vollständig strippen kann, da ist zuviel im Kernel drin. Das ist noch nicht einmal im Kernel drin, aber ohne läuft's trotzdem nicht.
Beispiel: ich kann mit einem Kernel und einem Apachen einen Webserver aufmachen, da läuft einfach nichts anderes drauf. Keine Shell, kein gar nichts. Wofür brauche ich da eine Firewall? (Ja, ich weiß, das es für den Linuxkernel auch einen Webserver als Kernelmodul gibt, aber das wurde als keine so gute Idee befunden. Konnte ich zwar nicht so ganz nachvollziehen, aber gut.)
Ein sehr obskures Beispiel? Ja, da hast Du Recht ;-)
Aber wie schon Christian Kruse (Falls Dir der Name nichts sagt: mit "meine Server" meint er die Selfhtml Server hier) sagte: bei einem anständig eingerichtetem System normalerweise unnötig.
Es kann aber auch da vor (D)DoS schützen, die "Pings" der ganzen Windowsschädlinge droppen, die Ports schonmal vorsieben, auf's Protokol achten usw. Im Grunde genommen also dem eigentlichem Server einiges an Arbeit abnehmen. Das kostet etwas weniger in der Anschaffung (zwei kleinere Kisten sind in der Regel billiger als eine richtig fette, dazu kommt dann aber noch etwas Zubehör zwecks Verbindung, kann dann auch evt _zu_ teuer werden) aber auch mehr Strom, ist nicht gerade umweltbewußt. Eine Datenbank würde ich dagegen generell nicht direkt an's Netz schalten, aber das ist natürlich auch wieder diskutabel.
Bei einem Windowsserver hingegen _mußt_ Du eine Firewall zwischenschalten, denn Du _kannst_ ja nicht wissen, ob die Kiste wirklich sicher ist.
Auch ist die Skalierarkeit nicht sehr gut, man benötigt, obwohl es sich auch hier deutlich gebessert hat, stets stärkere Hardware, als mit den meisten Konkurenzprodukten.
Kann ich so nicht bestätigen (auch wenn ich bisher nur Systeme gleicher
Ausstattung verglichen habe und dort keine signifikanten Unterschiede festgestellt
habe.
Bei jeweils gut optimierten Installationen von Linux (2.4) und Windows (2k3) war ein Unterschied von etwa 5% festzustellen. Hört sich nicht viel an, ist aber meist genau die Menge, die es vermeidet, sich mit dem altem Budget noch neue Hardware anschaffen zu müssen.
Bei einem XServ war übrigens ein Geschwindigkeitsunterschied von 100% festzustellen, Windows lief da überhaupt nicht drauf >,->
Z.B. ist die Unterstützung moderner 64-Bit Prozessoren unzureichend. "Läuft" reicht da nicht. Clusterbetrieb ist kaum möglich.
Wenn man die ensprechende OS Version hat, schon. Die kostet allerdings mehr
als ein paar hundert Euronen.
"Pro Node" hast Du vergessen hinzuzufügen ;-)
Aber es funktioniert nicht richtig und ist kompliziert einzurichten. Einen Linuxcluster kann mittlerweile jeder einrichten, das ist schon lange keine Kunst mehr, kostet auch nur die Hardware.
Aber zugegeben: das Geschäft von MS mit Clustern ist noch sehr jung, das von Linux dagegen schon ein paar Jahre alt, das muß man schon anrechnen, klar.
Auf der anderen, der Miniatur-Seite: WinCE ist ein Witz, ein schlechter.
Da ich WinCE nicht wirklich kenne glaub ich dir das mal (
Ich habe es ausprobiert, gründlich. Wollte ihm eine Chance geben, denn TRON oder QNX sind zwar sehr gut, aber nicht einfach zu verarbeiten und NetBSD ist ja auch nicht immer die beste Lösung für den USB-Toaster oder die MIDI-Kaffeemaschine.
Au, was peinlich! Und das mir! *gnaa*
Erwischt :)
"Und wofür gibt's die Vorschau?!"
Jaja, gebt's mir nur reichlich, ich hab's ja verdient ;-)
Bei ReiserFS kein Problem.
Na denn ist das doch mal ein Pluspunkt.
Von den im Augenblick frei verfügbaren Journailing FS auch die beste Lösung, falls man nicht gerade den Fallback von Ext3 auf Ext2 benötigt. Ext3 ist aber leider relativ langsam.
Noch ein Nachteil für beide: gibt es i.A. nur für Linux.
Abdr auch ein sehr gewichtiger Vorteil für Ext3: es ist als "rockstable" anzusehen. Wäre für HA-Systeme also evt vorzuziehen, zumindest für das sprichwörtliche "Tüpfelchen auf dem i".
$ /hda6/TESTBED/milliondir> time ls > /dev/null
real 0m49.314s
user 0m21.680s
sys 0m1.140s
Na, ob das für eine Tasse Kaffee reicht? ;-)
Ich meinte eigentlich den Windows Explorer. Der braucht IMO solange dafür
weil er erstmal die ganzen Infos aufbereiten will.
Achsoooo, na, sowas habe ich hier auch, dem Konqueror z.B. bräuchte ich das erst gar nicht anbieten, der wär wahrscheinlich morgen noch nicht damit fertig ;-)
Aber ich teste das nachher
mal mit einem kleinen eigenen Programm. Über die Commandline mach ich das auch
mal. Evtl. kommt da ja was ähnliches.
Verwendetes System: Windows Server 2003, PIV 2,2 GHz, 1GB RAM, 120 GB WD Irgendwas mit DMA, ...
Welches Dateisystem?
Mein Befehl lautete:
@ECHO OFF
FOR /L %%i IN (1,1,1000000) DO echo "1234567890" >> D:Milliondir%%i.txt
Hätte mich jetzt aber auch interessiert, wieviel Platz dafür gebraucht wurde.
@ECHO OFF
ECHO %TIME%
DIR /B > ..\filelist.txt
ECHO %TIME%
gibt dabei aus:
22:39:08,42
22:39:12,25
Das ist die Userzeit, aber wie lange hat das System dafür gebraucht? Und was lief daneben noch? Jaja, Benchmarks ... ;-)
Trotzdem schade, hätte mich eigentlich mal interessiert, aber ist wohl ohne aufwendige Vorbereitung leider nicht machbar.
Aber selbst so ist zu erkennen, das es wohl keine signifikanten Unterschiede in der Geschwindigkeit geben wird. Für einen Ein-Mann-Betrieb (ja, Hans Reiser hat das ganz alleine gebastelt) doch ein schönes Ergebnis, oder?
so short
Christoph Zurnieden