Das Performanceproblem steckt weniger in der Berechnung der Redundanzdaten selbst - sondern vielmehr in den dafür notwendigen Operationen. Denn das sind I/O-Operationen mit den Festplatten, und somit immer langsam.
Wenn ich exakt einen Sektor schreiben will, dann muss ich alle beteiligten Sektoren der anderen Platten lesen und dann den neuen sowie den Redundanzsektor neu schreiben. Das Lesen von Platte nimmt mir der Cache nur im Ausnahmefall ab.
Das Problem hast du aber bei einem gespiegelten Array auch - zumidnest beim Schreiben. Beim lineraen Lesen ist das gespiegelte Array natürlich schneller (sofern der Controller nicht dämlich ist).
Abgesehen davon ist die Performance im Fehlerfall mit RAID 5 extrem mies. Unter dem Strich erhält man natürlich weiterhin seine Daten - aber jeder gelesene Sektor der fehlenden Platte muss durch Lesen aller beteiligten Sektoren aller anderen Platten wiederhergestellt werden.
Kommt darauf an, wie du den Fehlerfall definierst. Wenn eine Platte des Arrays ausfällt, gibt es zwar einen Performanceeinbruch, aber der ist relativ zum Fehlerfall bei einem RAID 1 wesentlich geringer. Beim Live-Rebuild hat RAID 5 ohnehin die Nase vorn, da kann man sich mit RAID 1 beerdigen.
Das sind aber Bereiche, in denen ich derzeit noch keine tiefgehenden Erfahrungswerte gesammelt habe - außer durch das Studium diverser Papers und Videovorträge, die vor allem von Googles Rechenzentren existieren.
Hier gehts mir genauso wie dir ;)