bestes defragmentierungsprogramm für win32?
Sorgenkind Mech
- meinung
moin leutz
also irgentwie hab ich es satt, entweder ich erwarte zuviel, oder ... ich weiß auch nich
bsp: defragmentierung: 50 %
nach defrag: 43 %
also ich denke unter 10 sind nich zu viel verlangt, zumal die partition des beispiels daten enthielt, die vom system eigtnlich nich genutzt werden, und ich hatte da währenddessen auch nich zugegriffen
hab win2000 server
weiß jemand ein gutes defrag-programm außer das standardprog und O&ODefrag?
danke, gruß
defragmentierung ist eh eher eine psychologische angelegenheit. soweit ich weiß muss ein ntfs-laufwerk prktisch nicht defragmentiert werden, und selbst auf fat(32) hat die defragmentierung eher den rechner durch ständige fehlversuche blockiert, als ihn schneller zu machen. also stör dich nicht zu sehr an den defrag-raten, sondern versuch den server anders zu optimieren..
bis dann
also alle meine partitionen sind ntfs
die platte ist eine 160 GB Platte, bestehend aus 2 Maxtor 160GB ATA133 raid mirrored
aber egal
es ist doch tatsache, wenn ich eine datei lesen will, welche sich über die halbe platte verteilt, die leseköpfe immer hinundher müssen
das bedeutet die zeit, die sie brauchen, um hin- und her zu springen, ist vergeuded
d.h. sind die daten auf der platte selbst korrekt angeordnet, können die daten wesendlich schneller gelesen, und auch geschrieben werden
ich bin armer schüler, kann mir keine scsi-platten mit 15000 U/min holen ... also möchte ich zumindest in meinem archiv, wo eigentlich kaum daten gelöscht werden, ordnung haben
daher will ich die sche* partition mal wirklich schön defragmentiert haben
hoffe jemand kann mir noch n gutes prog nennen
gruß
Moin!
es ist doch tatsache, wenn ich eine datei lesen will, welche sich über die halbe platte verteilt, die leseköpfe immer hinundher müssen
Ja. Die Schreib/Leseköpfe müssen aber auch aus anderen Gründen immer hin und her. Du hast schließlich ein Multitasking-Betriebssystem mit preemptivem Multitasking. Das bedeutet, dass mitten im Lesevorgang der einen Datei das Betriebssystem dem nächsten Programm CPU-Zeit zuteilt, welches seinerseits zu einem anderen Festplattenzugriff führen kann. Oder das Betriebssystem selbst muß auf die Auslagerungsdatei zugreifen.
Mit anderen Worten: Dir kann sowieso niemand garantieren, dass du eine Datei "am Stück" lesen kannst. Es ist die ureigenste Aufgabe der Festplatte, schnell auch fragmentierte Dateien lesen zu können.
d.h. sind die daten auf der platte selbst korrekt angeordnet, können die daten wesendlich schneller gelesen, und auch geschrieben werden
Es gibt aber Dateisysteme, die nicht oder nur wenig zur Fragmentierung neigen, und andere, die eher zur Fragmentierung neigen.
Beispielsweise habe ich von einem Defragmentierungstool für Linux Dateisystem ext2 und ext3 noch nie etwas gehört.
ich bin armer schüler, kann mir keine scsi-platten mit 15000 U/min holen ... also möchte ich zumindest in meinem archiv, wo eigentlich kaum daten gelöscht werden, ordnung haben
Das ist ja noch ein viel besseres Argument gegen Fragmentierung. Wenn du die Daten ohnehin nur einmal reingeschrieben hast, dann kann da auch nichts fragmentieren.
daher will ich die sche* partition mal wirklich schön defragmentiert haben
Du glaubst also, nur weil deine Festplatte stundenlang sinnlose Kopfbewegungen macht, mit ihrer LED flackert und ein Programm einen scheinbaren Aufräumvorgang anzeigt, würde auf der Festplatte irgendetwas verbessert werden? Das ist Zeitverschwendung (und nebenbei bemerkt: Die Festplatten werden dadurch mit Sicherheit nicht besser). Ich habe es vor vielen Jahre aufgegeben, meine Laufwerke zu defragmentieren. Und ich kann nicht sagen, dass die Zugriffe langsamer sind. Jedenfalls empfinde ich es nicht als störend. Ein Zugriff übers Netzwerk auf den Server ist langsamer.
- Sven Rautenberg
Moin Sven,
Beispielsweise habe ich von einem Defragmentierungstool für Linux Dateisystem ext2 und ext3 noch nie etwas gehört.
Es gibt aber ein Programm dafür. Zumindest für ext2. Ausserdem machen die meisten linux-fs die ganze Zeit über defragmentierung, nur ist das auf fs-Ebene implementiert.
Und ich kann nicht sagen, dass die Zugriffe langsamer sind. Jedenfalls empfinde ich es nicht als störend.
Nach tests aus der ct, wieviel das auch immer aussagt, macht es doch einen Unterschied. Zumindest bei fat32.
Das ist ja noch ein viel besseres Argument gegen Fragmentierung. Wenn du die Daten ohnehin nur einmal reingeschrieben hast, dann kann da auch nichts fragmentieren.
Das stimmt aber nur, wenn man nie etwas auf der Festplatte gelöscht hat bzw. die Dateien nie kleiner wurden. Denn sonst wird, falls eine neuere Datei nicht in die "Lücke" des alten passt, erst dieser Platz aufgefüllt, und danach der dahinter. Es kann also gut sein, dass eine Datei über mehrere verschiedene Plätze auf der Festplatte verteilt ist. Auch wenn eine Datei nachträglich größer wird, trifft dies natürlcih zu.
Grüße Andres Freund