Die Geschwindigkeit ist nicht das Problem, aber verteilte Daten Belegen _wesentlich_ mehr Platz als zusammenhängende und bei wirklich großen Files - sagen wir 25 GiB am Stück macht das einen enormen Unterschied - teilweise geht das in den 2-stelligen Prozentbereich.
äh, wie kommst du darauf? Wofür wollten die 2.5 GiB in deinem Beispiel denn verbraucht werden?
Beim Schreiben von fragmentierten Daten die dann herumkopiert, geschoben oder verändert werden erstellt Windows für jedes Fragement einen eigenen Restore-Punkt für die Schattenkopien (und die sollten per default aktiv sein).
Beim verschieben von Fragmenten werden diese aber nicht sauber wieder recyclet sondern bleiben einfach liegen und werden dupliziert und gammeln vor sich hin. Je mehr Fragmente eine Datei also hat, desto mehr unsinnigen Overhead produziert das Shadowcopy-Feature.
Das Problem ist, dass selbst die Windows-Interne Defragmentierungsfunktion scheinbar nicht unterscheiden kann, ob der Shadow-Copy-Stand unsinnig ist oder behalten werden muss: http://support.microsoft.com/kb/312067 (keine Ahnung, ob das schon gefixt ist).
Das ist besonders bei großen Files Problematisch, die oft geschrieben und manipuliert werden - also z.B. pagefile.sys und hiberfil.sys, denn seltsamerweise gibt's auch von denen Schattenkopien.
Dazu ist unter anderem auch dieser Hinweis interessant:
[http://www.mydefrag.com/FAQUsing-WhyDoIHaveMoreDiskspaceAfterRunningMyDefrag.html]
Wenn du also die Defragmentierung abgeschaltet hast: bitte einfach mal defragmentieren und schaun was unter dem strich an freiem Speicherplatz rauskommt. Bei einer 1 TiB-Platte ist das oft eine ganze Menge.