Weichzeichner auf Reihen von Server-Racks, die mit buntem Computercode überlagert sind

NVMe: Redundanz und RAID

Wir haben erörtert, wie NVMe für heutige Rechenzentren verschiedene technische Möglichkeiten eröffnet, aber auch Herausforderungen darstellt. In der Theorie entkoppelt die Implementierung von NVMe das Speichergerät vom Hardware-Controller und leistet weit mehr als das, was mit SATA und SAS möglich ist.

Abgesehen von Überlegungen zur Leistung ist eine der größten Sorgen für Rechenzentrumsmanager die Redundanz. Während NVMe-Speicher an herkömmliche Hardware-Controller angeschlossen werden können, besteht ein effizienterer Ansatz für Redundanz in einer Software Defined Storage (SDS)-Plattform.

Wenn ein Unternehmen auf NVMe umsteigt, muss es untersuchen, wie es seine Hochverfügbarkeitspraktiken weiterhin erfüllen kann. Dies gilt insbesondere für Unternehmen, die sehr hohe SLAs haben.

Hersteller von hardwarebasierten RAID-Controllern müssen sich auf den Aufstieg von NVMe einstellen und Lösungen zum Anschluss an bestehende U.2-Server-Backplanes anbieten, damit sie hardwarebasierte NVMe-RAID-Lösungen unterstützen können. Es gibt bereits ein paar RAID-Controller-Karten auf dem Markt, die NVMe unterstützen, aber dieser Markt ist noch neu. Da sich HW-basiertes RAID noch in einem relativ frühen Entwicklungsstadium befindet und Unternehmen gerade erst auf NVMe umsteigen, müssen Architekturentscheidungen in Betracht gezogen werden. Denn sie müssen untersuchen, wie sie ihre Hochverfügbarkeitspraktiken weiterhin erfüllen können, sei es durch SW-basierte HCI-Lösungen wie vSAN, Ceph, Linux SW-basiertes RAID oder LVM-Spiegelung und anwendungsbasierte Hochverfügbarkeitsreplikation wie SQL Always-on oder Oracle ASM-Spiegelung. Man kann argumentieren, dass diese SW-basierten Design-Entscheidungen auch bei HW-basierten RAID-Controllern berücksichtigt werden sollten, da letztere nur gegen eine einzelne Fehlerstelle schützen.

Die Umstellung auf NVMe erfordert eine umfassende, vollständige Stack-Überprüfung durch IT-Architekten und Anwendungseigentümer, damit sichergestellt werden kann, dass auf jeder Ebene des Stacks Redundanz vorhanden ist, von der Berechnung über das Netzwerk bis hin zum internen Speicher, damit die erforderlichen Service-Level-Vereinbarungen (SLAs) erfüllt werden. Wenn Anwendungen Speicherressourcen gemeinsam nutzen, ist es wichtig, starke Redundanzverfahren auf der internen Speicherebene zu implementieren. Die benutzerdefinierte Lösung würde von der aktuellen zugrunde liegenden Architektur abhängen.

Wenn die Server beispielsweise virtualisiert sind, könnte der Wechsel zu einer SW-HCI-Lösung wie vSAN sinnvoll sein. vSAN bietet granulare Redundanz auf VM-Ebene und kann die VMs vor dem Ausfall von bis zu 2 kompletten Speicherknoten schützen. Wenn sich das Unternehmen auf All-Flash-Arrays als zentrale Speicherlösung verlässt, sind die meisten NVMe-All-Flash-Arrays bereits mit einer SW-basierten RAID-Implementierung ausgestattet. Damit jedoch ein weiterer Schutz vor einem kompletten Array-Ausfall gewährleistet werden kann, könnte eine Hochverfügbarkeitsreplikation des internen Speichers der Schlüssel sein.

Kingston fragt seine Kunden regelmäßig: „Wie verwalten Sie Ihren internen Speicher?“

Die meisten Kunden beginnen gerade, die Komplexität eines Wechsels von hardwaregesteuerten zu softwaredefinierten Architekturen zu testen. Einige haben Lösungen gekauft, die sie testen, während einige wenige ihr eigenes Linux-basiertes Software Defined Storage-Paket für die Verwaltung ihres Rechenzentrums schreiben mussten.

Für viele Unternehmen ist die softwaredefinierte Erweiterung des RAID-Controller-Teils nicht nur eine große Sache, sondern sie stellt eine grundlegende Veränderung dar. Für das Unternehmen gibt es viel zu durchdenken und zahlreiche Entscheidungen sind zu treffen. Aus diesem Grund gibt es jetzt Unternehmen, die Software Defined Storage anbieten.

#KingstonIsWithYou

Zugehörige Artikel