Sorgenkind Mech: bestes defragmentierungsprogramm für win32?

moin leutz

also irgentwie hab ich es satt, entweder ich erwarte zuviel, oder ... ich weiß auch nich

bsp: defragmentierung: 50 %
nach defrag: 43 %

also ich denke unter 10 sind nich zu viel verlangt, zumal die partition des beispiels daten enthielt, die vom system eigtnlich nich genutzt werden, und ich hatte da währenddessen auch nich zugegriffen

hab win2000 server

weiß jemand ein gutes defrag-programm außer das standardprog und O&ODefrag?

danke, gruß

  1. defragmentierung ist eh eher eine psychologische angelegenheit. soweit ich weiß muss ein ntfs-laufwerk prktisch nicht defragmentiert werden, und selbst auf fat(32) hat die defragmentierung eher den rechner durch ständige fehlversuche blockiert, als ihn schneller zu machen. also stör dich nicht zu sehr an den defrag-raten, sondern versuch den server anders zu optimieren..
    bis dann

    1. also alle meine partitionen sind ntfs
      die platte ist eine 160 GB Platte, bestehend aus 2 Maxtor 160GB ATA133 raid mirrored
      aber egal

      es ist doch tatsache, wenn ich eine datei lesen will, welche sich über die halbe platte verteilt, die leseköpfe immer hinundher müssen

      das bedeutet die zeit, die sie brauchen, um hin- und her zu springen, ist vergeuded

      d.h. sind die daten auf der platte selbst korrekt angeordnet, können die daten wesendlich schneller gelesen, und auch geschrieben werden

      ich bin armer schüler, kann mir keine scsi-platten mit 15000 U/min holen ... also möchte ich zumindest in meinem archiv, wo eigentlich kaum daten gelöscht werden, ordnung haben

      daher will ich die sche* partition mal wirklich schön defragmentiert haben

      hoffe jemand kann mir noch n gutes prog nennen

      gruß

      1. Moin!

        es ist doch tatsache, wenn ich eine datei lesen will, welche sich über die halbe platte verteilt, die leseköpfe immer hinundher müssen

        Ja. Die Schreib/Leseköpfe müssen aber auch aus anderen Gründen immer hin und her. Du hast schließlich ein Multitasking-Betriebssystem mit preemptivem Multitasking. Das bedeutet, dass mitten im Lesevorgang der einen Datei das Betriebssystem dem nächsten Programm CPU-Zeit zuteilt, welches seinerseits zu einem anderen Festplattenzugriff führen kann. Oder das Betriebssystem selbst muß auf die Auslagerungsdatei zugreifen.

        Mit anderen Worten: Dir kann sowieso niemand garantieren, dass du eine Datei "am Stück" lesen kannst. Es ist die ureigenste Aufgabe der Festplatte, schnell auch fragmentierte Dateien lesen zu können.

        d.h. sind die daten auf der platte selbst korrekt angeordnet, können die daten wesendlich schneller gelesen, und auch geschrieben werden

        Es gibt aber Dateisysteme, die nicht oder nur wenig zur Fragmentierung neigen, und andere, die eher zur Fragmentierung neigen.

        Beispielsweise habe ich von einem Defragmentierungstool für Linux Dateisystem ext2 und ext3 noch nie etwas gehört.

        ich bin armer schüler, kann mir keine scsi-platten mit 15000 U/min holen ... also möchte ich zumindest in meinem archiv, wo eigentlich kaum daten gelöscht werden, ordnung haben

        Das ist ja noch ein viel besseres Argument gegen Fragmentierung. Wenn du die Daten ohnehin nur einmal reingeschrieben hast, dann kann da auch nichts fragmentieren.

        daher will ich die sche* partition mal wirklich schön defragmentiert haben

        Du glaubst also, nur weil deine Festplatte stundenlang sinnlose Kopfbewegungen macht, mit ihrer LED flackert und ein Programm einen scheinbaren Aufräumvorgang anzeigt, würde auf der Festplatte irgendetwas verbessert werden? Das ist Zeitverschwendung (und nebenbei bemerkt: Die Festplatten werden dadurch mit Sicherheit nicht besser). Ich habe es vor vielen Jahre aufgegeben, meine Laufwerke zu defragmentieren. Und ich kann nicht sagen, dass die Zugriffe langsamer sind. Jedenfalls empfinde ich es nicht als störend. Ein Zugriff übers Netzwerk auf den Server ist langsamer.

        - Sven Rautenberg

        --
        SELFTREFFEN 2003 - http://selftreffen.kuemmi.ch/
        ss:) zu:) ls:[ fo:} de:] va:) ch:] sh:) n4:# rl:| br:< js:| ie:( fl:( mo:|
        1. Moin Sven,

          Beispielsweise habe ich von einem Defragmentierungstool für Linux Dateisystem ext2 und ext3 noch nie etwas gehört.

          Es gibt aber ein Programm dafür. Zumindest für ext2. Ausserdem machen die meisten linux-fs die ganze Zeit über defragmentierung, nur ist das auf fs-Ebene implementiert.

          Und ich kann nicht sagen, dass die Zugriffe langsamer sind. Jedenfalls empfinde ich es nicht als störend.

          Nach tests aus der ct, wieviel das auch immer aussagt, macht es doch einen Unterschied. Zumindest bei fat32.

          Das ist ja noch ein viel besseres Argument gegen Fragmentierung. Wenn du die Daten ohnehin nur einmal reingeschrieben hast, dann kann da auch nichts fragmentieren.

          Das stimmt aber nur, wenn man nie etwas auf der Festplatte gelöscht hat bzw. die Dateien nie kleiner wurden. Denn sonst wird, falls eine neuere Datei nicht in die "Lücke" des alten passt, erst dieser Platz aufgefüllt, und danach der dahinter. Es kann also gut sein, dass eine Datei über mehrere verschiedene Plätze auf der Festplatte verteilt ist. Auch wenn eine Datei nachträglich größer wird, trifft dies natürlcih zu.

          Grüße Andres Freund

          --
          ss:) zu:) ls:} fo:) de:] va:) ch:| n4:& rl:° br:^ js:( ie:% fl:( mo:|