Wir stellen fest, dass Sie gerade die Website in Großbritannien besuchen. Möchten Sie stattdessen unsere Hauptseite besuchen?

Futuristische 3D-Grafik eines leuchtenden geometrischen Tunnels in einer Punktperspektive

Mit NVMe in die Zukunft

Zu Beginn des neuen Jahrzehnts wurde viel über die Zukunft von NVMe in Unternehmen und Cloud-Infrastrukturen gesprochen. Von Gerüchten über NVMe over Fabrics bis hin zu neuen Formfaktoren und sogar PCIe 5.0 werden in diesem Jahr eine Vielzahl von Innovationen vorgestellt.

Die Akzeptanz von NVMe nimmt gerade erst Fahrt auf, trotz der Atmosphäre rund um neue Erfindungen, neue Produktveröffentlichungen und neuartige Ansätze zur Implementierung. Auch wenn die Einführung langsamer verlaufen könnte als von Analysten und Journalisten erwartet, stellen wir sieben Vorhersagen vor, die die NVMe-Einführung in diesem Jahr vorantreiben werden.

1. Effizienz wird immer noch Hauptsache sein

Während sich die meisten Rechenzentrumsmanager auf den Rechenbereich konzentrieren, wird die Tatsache, dass NVMe die Dinge effizienter machen kann, viele dazu zwingen, den Wechsel einzuleiten. Durch mehr verfügbare Rechenressourcen und schnellere Übertragungsgeschwindigkeiten können Rechenzentren mit weniger mehr leisten, wodurch der Wechsel attraktiver wird.

2. Die Akzeptanz wird mit mehr Fertiglösungen steigen

Nicht jedes Rechenzentrum ist gleich. Branchenriesen verfügen über enorme Budgets, um kundenspezifische Komponenten zu entwickeln und müssen sich nicht auf Komponenten von der Stange verlassen, damit sie die besten oder schnellsten Produkte einsetzen. Wenn mehr Hersteller beginnen, erschwingliche NVMe-Speicherlösungen auf den Markt zu bringen, werden wir beobachten können, wie mehr und mehr Branchenriesen und kleinere Anbieter migrieren. Mit der Verfügbarkeit kommerzieller Produkte stehen gleichzeitig eine Reihe von Marktvalidierungen und Tests zur Verfügung, die sich bereits bewährt haben.

3. RAID-Methoden werden sich ändern

Server-Racks mit dazwischen schwebenden Binärzahlen und einer hellen Reflexion im Hintergrund

Theoretisch wird durch die Implementierung von NVMe das Speichergerät vom Hardware-Controller entkoppelt und Sie erhalten eine Leistung, die weit über dem liegt, was mit SATA und SAS erreichbar ist. Aber mit der Implementierung entstehen auch ganz neue Probleme, wenn die Architekturen bisher auf hardwarebasierte RAID-Controller und Redundanzverfahren angewiesen waren. Hersteller von hardwarebasierten RAID-Controllern müssen sich auf den Aufstieg von NVMe einstellen und Lösungen zum Anschluss an bestehende U.2-Server-Backplanes anbieten, damit sie hardwarebasierte NVMe-RAID-Lösungen unterstützen können. Es gibt bereits ein paar RAID-Karten auf dem Markt, die NVMe unterstützen, aber der Markt ist noch neu. Da sich HW-basiertes RAID noch in einem elementaren Entwicklungsstadium befindet und Unternehmen gerade erst auf NVMe umsteigen, müssen Entscheidungen zum Architekturdesign betrachtet werden. Dabei gilt zu berücksichtigen, wie sie ihre Hochverfügbarkeitspraktiken weiterhin erfüllen können, sei es durch SW-basierte HCI-Lösungen wie vSAN, Ceph, Linux SW-basiertes RAID oder LVM-Spiegelung und anwendungsbasierte Hochverfügbarkeitsreplikation wie SQL Always-on oder Oracle ASM-Spiegelung. Man kann argumentieren, dass diese SW-basierten Design-Entscheidungen auch bei HW-basierten RAID-Controllern berücksichtigt werden sollten, da letztere nur gegen eine einzelne Fehlerstelle schützen.

4. NVMe over Fabrics (NVMe-oF) wird eine große Sache werden

Abstraktes Bild von Gebäuden mit Lichtpfaden auf einer Straße, die Datenpfade darstellen

NVMe-oF ermöglicht den zentralen, gemeinsamen Zugriff auf NVMe-Geräte über ein spezielles Netzwerk (FC/RDMA/TCP), wodurch der Zugriff auf das netzwerkgebundene Laufwerk ermöglicht wird, als befände es sich lokal auf den Client-Servern. Zu den Vorteilen der zentralisierten Speicherverwaltung von NVMe gehören eine vereinfachte Verwaltung, eine bessere Kapazitätsauslastung und eine einfachere Beseitigung von einzelnen Fehlerstellen. Die NVMe-oF-Spezifikation sieht entweder Fibre Channel, RDMA oder TCP-Netzwerke vor. Das Fibre-Channel-Protokoll (FCP) ist seit Mitte der 1990er Jahre die führende Speichertransporttechnologie für Unternehmen, die für den Transport von SCSI-Paketen über Fibre-Channel-Netzwerke eingesetzt wird. Daher war es für NVM express von entscheidender Bedeutung, das neue „FC-NVMe“-Protokoll zu definieren, damit es sowohl SCSI- als auch NVMe-Verkehr über Fibre-Channel transportieren kann, sodass auch bestehende FCP-Anwender auf FC-NVMe umsteigen können. RDMA (Remote Direct Memory Access) ist ein weiteres Mainstream-Protokoll, das bereits seit Jahren auf Infiniband, RoCE (RDMA over converged ethernet) und iWARP Fabrics existiert. Deshalb war der Aufbau auf RDMA eine Möglichkeit für NVM express, diese bestehenden Transporttechnologien zu nutzen. TCP/IP ist mit seinen soliden Designprinzipien das am weitesten verbreitete Netzwerk-Transportprotokoll seit den späten 70er Jahren. Für NVM express war es naheliegend, eine Methodik für den Transport von NVMe-Befehlen über bestehende TCP-Netzwerke zu entwickeln, um so die Bereitstellungskosten zu senken und die Einrichtungszeit zu verkürzen.

Das Aufkommen von NVMe-oF bringt auch weitere Herausforderungen für die IT-Infrastruktur mit sich, da der Engpass, der bei SCSI-Geräten bestand, im System weiter nach oben zu den Netzwerk-Controllern und -Schnittstellen wandert. Aber viele Unternehmen haben in diesem Bereich mit Switches und NICs Innovationen entwickelt, die höhere Netzwerkgeschwindigkeiten und hochgradig abstimmbare QoS unterstützen. Alle Hersteller von Flash-Arrays bieten eine End-to-End-NVMe-oF-Implementierung mit einer Reihe von Tools an, um eine bessere QoS zu erzielen und störende Nachbarn zu eliminieren.

5. Software-definierte Kunden setzen sich durch

Immer mehr Cloud-Kunden suchen weit mehr als nur Lese-/Schreibfunktionen. Sie konzentreieren sich nun darauf, wie rechenintensive Dienste für ihre Endbenutzer maximiert werden können. Von Cloud-basierter Transkodierung bis hin zu intensiven Gaming-Anwendungen eröffnet NVMe eine weitere Leistungsebene. Außerdem können Anbieter die Anschaffungskosten für Infrastrukturinvestitionen rechtfertigen, indem sie Preismodelle anbieten, die auf Leistungsvorteilen beruhen. Bestehende softwaredefinierte Lösungen wie VMware vSAN und Ceph haben sich enorm entwickelt und unterstützen jetzt NVMe-Geräte und den Transport von NVMe-Datenverkehr zwischen Cluster-Nodes, damit Anwender ihre Recheninfrastruktur mit einer hoch skalierbaren, kostengünstigen Speicherimplementierung maximieren können.

6. Der Formfaktor ist ein Faktor

Einer der Knackpunkte für NVMe ist die Fähigkeit zum Hot-Swap. Einige Hersteller führen zwar neue Formfaktoren ein (u. a. U.2, M.2, EDSFF und E1.S), doch diese erfordern von den Rechenzentren größere Hardware-Überholungen. Ohne vorhandene Anschlüsse benötigen sie in der Regel neue Backplanes und Motherboard-Unterstützung. Mit der kommenden Gen4 ist PCIe Gen3 immer noch die bevorzugte Verbindung, da nur eine CPU-Architektur Gen4 unterstützt. Der U.2-Formfaktor ist der bekannteste, da er einen sehr vertrauten 2,5″-Formfaktor bietet und die Serverhersteller seit geraumer Zeit Frontloading-U.2-Gehäuse auf den Markt bringen. Abgesehen vom Formfaktor ist U.2 auch Hot-Swap-fähig, sodass es sich in Rechenzentren immer mehr durchsetzt.

7. Lebensdauer und vorhersagbare Leistung siegen über Geschwindigkeiten und Feeds

Während die überwiegende Mehrheit der Hersteller heute die Spitzenwerte für IOPS und die niedrigste Latenz auf ihren Datenblättern hervorhebt, konzentrieren sich immer mehr Rechenzentrumsmanager auf die Konsistenz und nicht auf die Spitzenleistung. Insgesamt stellen die Spitzenwerte einen angenommenen Leistungswert dar, aber bei voller Auslastung und Last werden diese Werte selten dauerhaft erreicht. Daher wünschen sich immer mehr Rechenzentrumsleiter eine zuverlässige und gleichbleibend hohe Leistung, die mehr Vorhersehbarkeit und Verlässlichkeit für ihre Investitionen bietet.

Dieses Jahr soll ein Boomjahr für NVMe-Produkte werden, vor allem auf der Client-Seite. NVMe wird die Zukunft des internen Speichers, allerdings wird es für die meisten Rechenzentrumsmanager noch eine Weile dauern, bis alle Teile an ihren Platz fallen, bevor sie vollständig von SATA- und SAS-Lösungen migrieren können.

#KingstonIsWithYou

Zugehörige Artikel