Der grosse RAID-Test, Teil 2

In PC-Stuff

RAID 5

Ich habe mir nun noch die Mühe gemacht, im Nachgang zum ersten RAID-Test, auch noch dei Performance im RAID5 Betrieb unter verschiedenen Parametern zu testen. Die dabei wechselnden Parameter sind die Stripe-Grösse (32k, 64k, 128k) und die Firmware-Revision. Getestet wurden dabei die Firmware-Revision 2.39.05-R065 vom Dezember 2003 sowie die Revision 2.38.09-R060 von Mitte 2003. Die ursprüngliche Firmware 2.xx.xx-R056, die im Auslieferungszustand im Controller war, hatte ich leider nicht mehr zur Verfügung, so daß ich diese nicht testen konnte.

Testsetup

Die Testmaschine ist weiterhin unverändert:

Getestet wurde jeweils ein RAID 5 über alle 3 Platten, mit einer Kapazität von 240 GB. Das RAID 5 wurde jedesmal mit den entsprechenden Parametern unter Verwendung der jeweiligen Firmware neu erstellt unter Verwendung des ICP Raid Navigators. Dies führt dann zu folgenden Konfigurationen:

  • RAID 5 mit 3 Platten, Stripe-Size 32k, Firmware R065
  • RAID 5 mit 3 Platten, Stripe-Size 64k, Firmware R065
  • RAID 5 mit 3 Platten, Stripe-Size 128k, Firmware R065
  • RAID 5 mit 3 Platten, Stripe-Size 64k, Firmware R060

Da sich nach den ersten drei Tests herausgestellt hatte, das wohl eine Stripe-Size von 64k das Optimum für diesen Test und meine Konfiguration ist, wurde mit der älteren Firmware R060 nur ein Test mit dieser Stripe-Size durchgeführt. Der Grund dafür liegt auch in Zeitmangel, da das Einrichten des RAIDs jedesmal ca. 8 bis 11h dauert, und der anschließende Test nochmal ca. 3 bis 4 Stunden. D.h. für einen Test geht ein ganzer Tag drauf.

Als Vergleichswert wurde dann noch eine Maxtor 7Y250P0 250 GB IDE Platte herangezogen, die am gleichen Rechner getestet wurde und während der Tests das System aufgenommen hat.

Als Betriebssystem wurde Microsoft Windows XP Professional, Servicepack 1, eingesetzt. Es wurden jeweils die aktuellsten Treiber für die Controller verwendet.
Als Software zum Testen wurde H2Benchw von der c’t verwendet. Die Daten habe ich dann in Grafiken aufbereitet.
Im RAID-Controller waren alle Caches angeschaltet, sowohl die der einzelnen Platten als auch der des Controlers. Ebenso war Delayed Write aktiviert.

Ergebnisse Lesen

In der folgenden Grafik sind die Ergebnisse des lesenden Zugriffs zu sehen.

Zonenmessung lesen

Hier fallen zwei Sachen ins Auge: Erstens mal ist die sequentielle Leserate mit einer Stripe-Grösse von 128k erbärmlich schlecht, und sie ist auch sehr unregelmässig, wenn man es mit den anderen Datenreihen vergleicht. Dieses Ergebnis liegt durchgängig unter dem der einzelnen Maxtor 7Y250P0, was wirklich enttäuschend ist. Weiterhin fällt auf, das die Performance unter der alten Firmware im Lesebereich besser ist, allerdings nicht so linear durchgängig wie mit der neueren Firmware.
In allen Tests gibt es zu Beginn den Einbruch der Leserate, weil der Controller noch mit dem Flushen von Daten aus dem Cache beschäftigt ist.

Ergebnisse Schreiben

In der folgenden Grafik sind die Ergebnisse des schreibenden Zugriffs zu sehen.

Zonenmessung schreiben

Hier liegen die Ergebnisse alle sehr dicht aneinander, egal, welche Stripe-Size oder Firmware-Revision. Es liegt alles im Bereich von 1 bis 2 MByte/sec Unterschied, so daß dies kein relevanter Unterschied ist. Allein die Kurve der 32k Stripes verhält sich etwas merkwürdig mit dem Maximum in der Mitte, das dann wieder runtergeht. Das liegt möglicherweise in der Anordnung der Daten auf den Platten begründet. Um dies genauer zu analysieren, müsste man wissen, wie die Firmware das anordnet. Aber relevant ist es auch nicht.
Die einzelne Maxtor-Platte schlägt sich sehr gut, bis zu 75% der Größe liegt sie in der Performance über den RAID 5 Konfigurationen.

Transferraten

In der folgenden Grafik sind die Ergebnisse der Transferratentests aufgeführt.

Transferraten

Hier gibt es keine besonderen Auffälligkeiten bis auf die Konfiguration mit einer Stripe-Size von 128K, die vorher schon durch die schlechte Leseperformance aufgefallen ist.

Anwendungsprofile

In der folgenden Grafik sind die Ergebnisse der einzelnen Anwendungsprofile aufgeführt.

Anwendungsprofile

Bei den Anwendungsprofilen liegen die meisten Konfigurationen gleichauf. Ins Auge sticht der Vorsprung der 64K Stripe Konfiguration mit der älteren Firmware R060 beim Anwendungsprofil “Kopieren”. Dies ist auch das einzige Anwendungsprofil, in dem die RAID-Konfigurationen schneller sind als die einzelne Platte.
Anzumerken ist noch, das hier kein Unterschied in der 128K Stripe Size zu sehen ist, obwohl diese in der sequentiellen Leserate doch deutlich langsamer ist. Nur beim Kopieren liegt diese dann doch zurück.

Anwendungsindex

Zu guter letzt folgt noch eine grafische Darstellung des Anwendungsindex der einzelnen Konfigurationen.

Anwendungsindex

Hier sieht man das, was man als Endergebnis bezeichnen kann. Die einzelne Maxtor-Platte erreicht einen deutlich höheren Anwendungsindex als ein echter RAID-Controller für 500 € mit drei performanten Platten. Das ist wirklich enttäuschend. Weiterhin hat sich durch die Firmware-Revision R065 die Performance noch verschlechtert, anstelle das sie verbessert wurde.

Fazit

Allgemein kann man sagen, das die sequentielle Lese- und Schreibperformance, wenn man mal von dem Ausreißer mit der Stripe-Size von 128K absieht, in Ordnung ist. Immerhin ist es ein RAID 5, bei dem noch zusätzliche Parity-Informationen verarbeitet werden müssen. Aber es scheint so zu sein, das der ICP Vortex Controller gerade bei gemischten Zugriffen, wie sie in den Anwendungsprofilen vorkommen, Probleme hat. Dies deckt sich auch mit den Erfahrungen, die ich im Realbetrieb gesammelt habe, das in solchen Situationen die Performance doch leidet. Dies war ja auch der Anlass für diesen Test. Leider hat sich in keiner der getesteten Konfigurationen eine Situation ergeben, wo dieses Problem nicht auftrat.
Ich werde als nächstes noch einen Test mit dem IOMeter machen, bei dem ich ein Zugriffsmuster erstellen werde, das einen gemischten Schreib-Lese-Betrieb durchführt. Allerdings habe ich noch keinerlei Erfahrung in der Interpretation und Visualisierung der Ergebnisse davon, so daß dies einige Zeit dauern kann. Und ich werde auch da nicht alle Konfigurationen testen, das ist mir dann doch zu viel Aufwand. Ich werde weiterhin mit diesen bisherigen Ergebnissen nochmal den Support von ICP Vortex kontaktieren und hoffe, das diese mir erklären können, wodurch diese Probleme auftreten. Und ich hoffe, das sie auch eine Abhilfe dafür haben.

Falls jemand Kritik oder Verbesserungsvorschläge hat zu der Testmethodik, nur her damit. Email siehe Startseite.

Ergebnisse H2Benchw

Da alle Ergebnisse zu viel Platz eingenommen hätten, gibt es ein Gesamtarchiv zum Download, im dem alle Ergebnisse mit dem h2benchw zusammengefasst sind, sowohl die Textdateien als auch die Postscriptdateien, die dieser erzeugt. Darin sind auch die Ergebnisse vom ersten Teil dieses Tests enthalten.