tami: defragmentiert ihr hin und wieder? (win7)

hi,

s. betreff. vor jahren war das ja irgendwie "en vogue", vor allem auch, um geschwidigkeit zu erzielen. ich habe das schon lange nicht mehr gemacht. strapaziert das nicht auch die festplatte ganz gehörig?

mfg

tami

  1. Hallo,

    vor jahren war das [Defragmentieren] ja irgendwie "en vogue", vor allem auch, um geschwidigkeit zu erzielen. ich habe das schon lange nicht mehr gemacht. strapaziert das nicht auch die festplatte ganz gehörig?

    kommt drauf an. Wenn man es in kurzen Intervallen macht (mindestens einmal im Monat), dauert der Spuk meist nur wenige Minuten. Wenn man ein Defrag aber auf eine hoffnungslos "verstrubbelte" Partition loslässt, kann die Platte durchaus eine Stunde und länger damit beschäftigt sein. Und zwar intensiv.

    Meine Erfahrungen zum Thema Geschwindigkeit sind dabei je nach Nutzung sehr unterschiedlich. Während Partitionen, die überwiegend als Archiv genutzt werden, und wo selten etwas gelöscht wird, logischerweise auch kaum fragmentieren, leiden Partitionen, die aktiv genutzt werden, teils sehr stark darunter - vor allem, wenn oft große Dateien gelöscht oder bearbeitet werden. Hat man überwiegend kleine Dateien, ist die Fragmentierung natürlich auch gering, denn je kleiner eine Datei ist, desto größer die Chance, dass sie zusammenhängend gespeichert wird (werden kann).

    Auch das Dateisystem hat einen großen Einfluss. Gern und oft wird behauptet, NTFS würde kaum fragmentieren, und es sei unnötig, sich überhaupt darum zu kümmern. Zwar scheint NTFS ein wenig effizienter bei der Zuteilung von Speicherplatz zu arbeiten, so dass der Fragmentierungsgrad dort im Vergleich zu FAT nur langsam ansteigt. Der Einfluss der Fragmentierung auf das Zugriffstempo ist bei NTFS dafür wesentlich größer als bei FAT: Wenn ich eine NTFS-partition mal "komplett"[*] defragmentiert habe, geht das Kopieren sehr großer Dateien im GB-Bereich wieder um den Faktor 1.5 bis 2 schneller als vorher (Windows XP). Bei den FAT-Partitionen ist der Gewinn zwar auch spürbar, aber nicht so drastisch.

    Fazit: Alle paar Tage mal ein Defrag anstoßen hält das Dateisystem einigermaßen sauber und braucht nur wenig Zeit.

    So long,
     Martin

    [*] "komplett" in Anführungszeichen, weil das Windows-eigene defrag ja keine komplette Defragmentierung macht. Verzeichnisse werden ebensowenig defragmentiert wie die Verwaltungsstrukturen von NTFS. Hier gilt: Einmal versaut, immer versaut.

    --
    Die neue E-Mailadresse des Papstes: mailto:urbi@orbi
    Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
  2. [latex]Mae  govannen![/latex]

    hi,

    s. betreff. vor jahren war das ja irgendwie "en vogue", vor allem auch, um geschwidigkeit zu erzielen. ich habe das schon lange nicht mehr gemacht. strapaziert das nicht auch die festplatte ganz gehörig?

    keine Ahnung ;) (da ich win7 nicht kennen und daher nicht weiß, ob sich seit Xp-Zeiten etwas an dieser Funktionalität geändert hat)

    Jedenfalls mache ich es auf XP oft so, daß ich nur „händisch“ defragmentiere, d.h. ich lasse den Report erstellen, verschiebe dann die meist-fragmentierten Dateien (über 100 Fr, manchmal über 50, kommt darauf an, was für eine Datei und wie oft ich sie nutze) auf eine andere Partition und wieder zurück.(vorausgesetzt XP läßt das zu). Das hilft oft schon. Ist etwas Arbeit, aber dann muß ich nicht die ganze Platte dauerrödeln lassen (das tut sie oft genug aus unerfindlichen Gründen ohnehin schon :-( ,denn bei meinen alten Dingern trau ich mich das nicht mehr)

    Hin und wieder lasse ich je nach Nutzung der Partition  allerdings defrag schon drüberlaufen, das gilt vor allem für meine Programm-Partition, da sich dort die häufigsten Änderungen im Bestand ergeben und hin und wieder auch für die System-Partition.

    Stur lächeln und winken, Männer!
    Kai

    --
    It all began when I went on a tour, hoping to find some furniture
     Followed a sign saying "Beautiful Chest", led to a lady who showed me her best)
    SelfHTML-Forum-Stylesheet
    1. Hi,

      [...] Ist etwas Arbeit, aber dann muß ich nicht die ganze Platte dauerrödeln lassen (das tut sie oft genug aus unerfindlichen Gründen ohnehin schon

      wenn du reichlich RAM hast, kannst du den virtuellen Speicher (Swapdatei) komplett deaktivieren; bei 2GB RAM in meinem XP-Rechner habe ich das bedenkenlos gemacht. Das reduziert den unnötigen Betrieb schon erheblich. Dann noch ABM-Dienste wie Indexdienst, Prefetching und so'n Kram abstellen, und schon wird XP schön ruhig und beinahe handzahm. Aber wem sag ich das ...

      Hin und wieder lasse ich je nach Nutzung der Partition  allerdings defrag schon drüberlaufen, das gilt vor allem für meine Programm-Partition, da sich dort die häufigsten Änderungen im Bestand ergeben und hin und wieder auch für die System-Partition.

      Änderungen auf der Programm-Partition?? Wieso? Installierst oder deinstallierst du andauernd Software? Falls nicht, sollte sich doch gerade dort nicht viel tun. Eher schon auf der Partition, die deine Projekt- und Arbeitsdaten und das Benutzerprofil enthält.

      Ciao,
       Martin

      --
      Viele Fachleute vertreten die Ansicht, jedes Feature eines Programms, das sich nicht auf Wunsch abstellen lässt, sei ein Bug.
      Außer bei Microsoft. Da ist es umgekehrt.
      Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
      1. [latex]Mae  govannen![/latex]

        [...] Ist etwas Arbeit, aber dann muß ich nicht die ganze Platte dauerrödeln lassen (das tut sie oft genug aus unerfindlichen Gründen ohnehin schon

        wenn du reichlich RAM hast,

        Wenn ... habsch aber nicht :( Und mehr gibt das Board nicht her.

        Ich nutze XP nun wirklich seit vielen Jahren, die Rödelei hat aber erst von ca.1.5 Jahren richtig angefangen. Entweder ist ein XP-Update nicht mit meinem Systrem vereinbar oder die HDD selbst ist extrem lahm geworden... ich habe das Gefühl, daß XP in früherer Version mit 256kB wesentlich besser lief als jetzt mit 1MB. Nutzt wohl alles nichts ohne neue Hardware. Aber woher das Geld nehmen...

        Änderungen auf der Programm-Partition?? Wieso? Installierst oder deinstallierst du andauernd Software?

        Kommt durchaus vor. Ich habe außerdem, wo immer es möglich ist, eingestellt, daß die Daten unterhalb des jew. Programmverzeichnisses landen und nicht in c:\dokumente.....\username...  Dadurch kann ich (oder ein Virus ;) ) notfalls das BS ruhig plattmachen und die Daten sind trotzdem (relativ) sicher.  Allerdings ändert sich aus diesem Grund schon regelmäßig etwas am Datenbestand.

        Änderungen auf der Programm-Partition?? Wieso? Installierst oder deinstallierst du andauernd Software? Falls nicht, sollte sich doch gerade dort nicht viel tun. Eher schon auf der Partition, die deine Projekt- und Arbeitsdaten und das Benutzerprofil enthält.

        Ist die gleiche Partition, dort sind alle meine wichtigen Programme und Daten.  Nach C:\programme installiere ich nur das, was ich ich ohne großen Verlust und Zeitaufwand neu aufsetzen kann (Grund siehe oben). Angepasste Programme wie insbesondere Opera, nein Editor und Andere, in deren Konfiguration ich viel Zeit gesteckt habe, kommen grundsätzlich nicht nach c:. So habe ich beim Backup das, was wirklich notwendig ist, komplett. Viele der Programme sind nach XP-Neuinstallaion sogar ohne erneute Installation lauffähig.

        Stur lächeln und winken, Männer!
        Kai

        --
        It all began when I went on a tour, hoping to find some furniture
         Followed a sign saying "Beautiful Chest", led to a lady who showed me her best)
        SelfHTML-Forum-Stylesheet
  3. hi,

    bei win7 überflüssig das von hand zu machen.
    Der hält die maximale defragmentierung ich glaub unter 3%.
    Das ist ein Wert der noch keine Probleme macht.

    Wenn du zu denen gehörst, die hin und wieder den PC neu installieren (ich mach das mit meinem PC jährlich 1-2 mal und Laptop als dauergerät nie), dann hast du wohl mehr davon, da das System sauber ist.

    Bei SSDs wird eh davon abgeraten, da der schreibzugriff zu intensiv ist.

    Gruß Niklas

    --
    Man muss nicht alles wissen, man sollte aber wissen, wo das nicht gewusste zu finden ist.
    1. Hallo,

      Bei SSDs wird eh davon abgeraten, da der schreibzugriff zu intensiv ist.

      ja, bei SSDs entsteht aber auch kein Nachteil durch Fragmentierung, weil der Zugriff auf jeden Sektor ungefähr gleich schnell ist - egal ob's direkt der nächste ist oder einer am anderen Ende des Chips.

      Ciao,
       Martin

      --
      Die meisten Menschen werden früher oder später durch Computer ersetzt.
      Für manche würde aber auch schon ein einfacher Taschenrechner genügen.
      Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
      1. Bei SSDs wird eh davon abgeraten, da der schreibzugriff zu intensiv ist.

        ja, bei SSDs entsteht aber auch kein Nachteil durch Fragmentierung, weil der Zugriff auf jeden Sektor ungefähr gleich schnell ist - egal ob's direkt der nächste ist oder einer am anderen Ende des Chips.

        Diese Aussagen kann man so nicht stehen lassen. Beim Lesen entsteht kein Nachteil durch Fragmentierung, das ist richtig - die Schreibgeschwindikeit leidet aber durch Fragmentiertung.

        Das liegt daran, dass auf SSDs nicht (idealerweise) linear geschrieben werden sonder möglichst gleichmäßig über alle verfügbaren Zellen.

        Das Ziel ist es, bei allen Zellen eine möglichst gleichmäßige Verteilung zu erhalten - mit zunehmender (nennen wir es jetzt) Fragmentierung der Daten entsteht aber ein Ungleichgewicht und die Schreib-Performance leidet teilweise enorm.

        Eine Defragmentierungssoftware für HDDs löst dieses Problem nicht sondern würde es sogar noch schlimmer machen, weil eben alles auf einen Haufen gepackt wird - darum haben SSD-Controller heutzutage eine "Zwischenschicht" welche die Zuteilung der Daten übernimmt.

        Ein gebräuchliches Feature ist hier Wear-Leveling welches für eine gleichmäßige Beanspruchung der Zellen sorgt. Das erreicht einerseits eine höhere Performance und andererseits wird die Lebensdauer der SSDs dadurch erhöht.

        An diese Low-Level-Funktionen kommt man gar nicht ran und muss bei einer SSD einfach damit leben, dass diese mit der Zeit langsamer werden - und zwar signfikant. 25 % Leistungsverlust beim Schreiben ist hier keine Seltenheit.

        Moderne Betriebssysteme helfen hier mit dem TRIM-Command nach - aber das bringt bei einem fragmentierten System natürlich nie wieder die volle Performance des Laufwerks - um das zu erreichen muss man das komplette Medium leeren und neu befüllen (was natürlich auf die Lebensdauer geht).

        1. Hallo,

          bei SSDs entsteht aber auch kein Nachteil durch Fragmentierung, weil der Zugriff auf jeden Sektor ungefähr gleich schnell ist - egal ob's direkt der nächste ist oder einer am anderen Ende des Chips.
          Diese Aussagen kann man so nicht stehen lassen. Beim Lesen entsteht kein Nachteil durch Fragmentierung

          gut, das hatte ich vor allem gemeint. Bei üblicher Nutzung sind Lesezugriffe schließlich um ein Vielfaches häufiger als Schreibzugriffe.

          die Schreibgeschwindikeit leidet aber durch Fragmentiertung.

          Das ist mir neu - und so ganz leuchtet es mir auch nicht ein.

          Das liegt daran, dass auf SSDs nicht (idealerweise) linear geschrieben werden sonder möglichst gleichmäßig über alle verfügbaren Zellen.

          Ja, klar. Aber die Zellen ("Sektoren") werden doch einfach über ihre Speicheradresse angesprochen, und so ist doch jede Zelle (oder zumindest jeder Block) direkt adressierbar. Warum sollte sich da ein Unterschied ergeben? Denkst du daran, dass der Speicher auf mehrere Chips verteilt ist, die quasi-simultan adressiert werden können, und so ein höheres Tempo ermöglichen als sequentielle Zugriffe auf denselben Baustein?

          Das Ziel ist es, bei allen Zellen eine möglichst gleichmäßige Verteilung zu erhalten - mit zunehmender (nennen wir es jetzt) Fragmentierung der Daten entsteht aber ein Ungleichgewicht und die Schreib-Performance leidet teilweise enorm.

          Hmm. Den Zusammenhang erkenne ich noch nicht. Es sei denn, du meinst ... siehe oben.

          Ein gebräuchliches Feature ist hier Wear-Leveling welches für eine gleichmäßige Beanspruchung der Zellen sorgt. Das erreicht einerseits eine höhere Performance und andererseits wird die Lebensdauer der SSDs dadurch erhöht.

          Ist mir auch schon zu Ohren gekommen. Und da man von der Anwendungsebene aus sowieso keinen Zugriff auf diesen Mechanismus hat, bleibt die Zuordnung von Sektornummern zu physikalischen Speicheradressen doch quasi-zufällig. Statistisch ergibt sich damit weder eine Verbesserung, noch eine Verschlechterung.

          So long,
           Martin

          --
          Lieber Hahn im Korb, als Tiger im Tank.
          Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
          1. Ja, klar. Aber die Zellen ("Sektoren") werden doch einfach über ihre Speicheradresse angesprochen, und so ist doch jede Zelle (oder zumindest jeder Block) direkt adressierbar. Warum sollte sich da ein Unterschied ergeben? Denkst du daran, dass der Speicher auf mehrere Chips verteilt ist, die quasi-simultan adressiert werden können, und so ein höheres Tempo ermöglichen als sequentielle Zugriffe auf denselben Baustein?

            Exakt.

            Das Ziel ist es, bei allen Zellen eine möglichst gleichmäßige Verteilung zu erhalten - mit zunehmender (nennen wir es jetzt) Fragmentierung der Daten entsteht aber ein Ungleichgewicht und die Schreib-Performance leidet teilweise enorm.

            Hmm. Den Zusammenhang erkenne ich noch nicht. Es sei denn, du meinst ... siehe oben.

            Ja meine ich.

            Angenommen du hast eine SSD mit 4 Speicherbausteinen - jetzt schreibst du etwas drauf und lastetest alle Speicherbausteine gleichmäßig aus - über die Zeit hin kommt es aber zu einem Ungleichgewicht, einer der Bausteine ist sagen wir zu 85% ausgelastet und die anderen nur mehr zu 5 %

            Wenn du jetzt weitere Daten schreibst, ist irgendwann der erste Baustein voll und die Schreibzugriffe verteilen sich auf die verbleibenden drei - das bedeutet 25 % Performanceeinbruch.

            Ist mir auch schon zu Ohren gekommen. Und da man von der Anwendungsebene aus sowieso keinen Zugriff auf diesen Mechanismus hat, bleibt die Zuordnung von Sektornummern zu physikalischen Speicheradressen doch quasi-zufällig. Statistisch ergibt sich damit weder eine Verbesserung, noch eine Verschlechterung.

            Sag' das den SSDs wenn sie in die Knie gehen :)

            Du darfst ja nicht davon ausgehen, dass die Daten linear geschrieben werden, denn dann würden sie sich tatsächlich gleichmäßig verteilen.

            Um beim Beispiel von Oben zu bleiben: du schreibst 4 Files gleichzeitig und irgend ein Mechanismus (z.B. NCQ) dafür sorgt, dass die Daten in einer Reihenfolge geschrieben werden, die sich zwar über den Schreibzugriff hinweg gleichmäßig verteilt, aber die Daten ansich nicht über die entsprechenden Speicherbausteine bzw. Zellen.

            Jetzt hast du im schlimmsten Fall bei der 4-Speicherbausteine SSD je 1 File auf einem Speicherbaustein - löscht du jetzt eines der Files, hast du schon ein Ungleichgewicht.

            Ich hab' auf die schnelle keinen Artikel mit einer brauchbaren Erklärung gefunden - der hier muss her halten:
            http://www.anandtech.com/show/2829

            Wie man an den Zahlen sieht, geht die Gesamtperformance der Corsair P256 SSD auf etwa 70 % zurück, während es mit TRIM nur noch 91 % sind.

            1. Moin!

              Angenommen du hast eine SSD mit 4 Speicherbausteinen - jetzt schreibst du etwas drauf und lastetest alle Speicherbausteine gleichmäßig aus - über die Zeit hin kommt es aber zu einem Ungleichgewicht, einer der Bausteine ist sagen wir zu 85% ausgelastet und die anderen nur mehr zu 5 %

              Wenn du jetzt weitere Daten schreibst, ist irgendwann der erste Baustein voll und die Schreibzugriffe verteilen sich auf die verbleibenden drei - das bedeutet 25 % Performanceeinbruch.

              [...]

              Ich hab' auf die schnelle keinen Artikel mit einer brauchbaren Erklärung gefunden - der hier muss her halten:
              http://www.anandtech.com/show/2829

              DEINE Erklärung ist Unsinn. Die Erklärung im Artikel hingegen ist eine ganz andere:

              Die SSD kennt unbeschriebene Sektoren von 512 KB Größe, in die sie Blöcke von 4 KB reinschreiben kann, das Löschen aber geht nur sektorenweise. Sobald also der letzte Sektor einmal beschrieben wurde, kann jeder weitere Sektor nur durch Lesen-Löschen-Neubeschreiben beschrieben werden. Und das dauert länger.

              Wie man an den Zahlen sieht, geht die Gesamtperformance der Corsair P256 SSD auf etwa 70 % zurück, während es mit TRIM nur noch 91 % sind.

              TRIM erlaubt es dem PC, der SSD mitzuteilen, dass gewisse Sektoren bzw. Blöcke wieder als freigegeben zu betrachten sind und deshalb ohne Extra-Aufwand beschrieben werden können, weil sie - nach dem Löschen - wieder in den Pool "frischer" Sektoren kommen.

              - Sven Rautenberg

            2. Moin!

              Sven hat ja nun schon was dazu geschrieben, weshalb es ueberfluessig ist, noch weiter drauf rumzureiten.

              Deine 4 Speicherbereiche sind aber in der Tat ein Grund fuer Geschwindigkeitsprobleme. Allerdings voellig anderer Natur: Groessere SSDs sind in der Tat langsamer (ich glaube es war ab 400 GB?) als kleinere weil sie mehr Speicherbereiche haben aber nicht genug Pipes um jeden einzeln zu bedienen. Daraus ergibt sich ein Leistungseinbruch bei groesseren SSDs.

              Das sollte allerdings wohl nur eine Frage der Zeit sein.

              --
              Signaturen sind blöd!