Grafik eines Mikrochips mit Würfeln um ihn herum, die den Speicher darstellen

Das NVMe-Versprechen: Holen Sie mehr aus vorhandenen CPUs heraus

Die Möglichkeit, die Leistung der SATA-Schnittstelle zu erhöhen, hat dazu geführt, dass die meisten Rechenzentren die NVMe-Technologie nur langsam übernehmen. Es ist einfacher, die Kapazität zu erhöhen oder die Leistung mit höheren IOPS oder geringerer Latenz zu steigern, wenn etwas Langsames wie SATA verwendet wird. Wenn man sich die heutigen Rechenzentren ansieht, konzentrieren sich die meisten Rechenzentrumsarchitekten auf die Verbesserung der CPU-Auslastung. Mit einem Rack voller teurer CPUs (unabhängig von der Anzahl der Kerne oder den gezahlten Lizenzkosten) sind Rechenzentren selten in der Lage, die CPUs auch nur annähernd zu dreißig Prozent ihrer maximalen Kapazität auszulasten.

Stellen Sie sich vor, Sie bezahlen für einen Serverraum voller Ferraris, nur um am Ende festzusitzen und sie mit 20 km/h zu fahren. Dies ist kein Ford-gegen-Ferrari-Moment, sondern eher ein Bleifrei-gegen-Hochoktan-Moment.

NVMe treibt neue Veränderungen voran, sowohl bei den Übertragungsgeschwindigkeiten als auch bei der In-Memory-Bereitstellung, die eine Verdoppelung der Auslastung von 30 auf fast 60 Prozent ermöglicht. Unter Verwendung der bestehenden Infrastruktur kann NVMe die CPUs dazu bringen, effizienter mit geringerer Latenz und höherem Durchsatz zu arbeiten. Sie müssen jedoch in der Lage sein, NVMe unterzubringen. Einschränkungen können Ihre vorhandenen Backplanes oder die Unmöglichkeit des Einsteckens und Ersetzens durch den aktuellen Formfaktor sein. Dies wird dann eine größere Überholung.

Kingston DC1000B Server-SSDs

Für den Wechsel von einem SAS-basierten System muss die Architektur des Servers geändert werden, es sei denn, Sie verwenden einen Adapter, um NVMe-SSDs mit dem PCIe-Bus zu verbinden. Für einen Kunden bedeutet dies einen vollständigen Plattformwechsel. Im Vergleich zur Verwendung von SATA- und SAS-hardwarebasierten Host-Controllern ist die PCIe-Schnittstelle softwaredefiniert und bietet eine höhere Effizienz für dedizierte Prozesse. Es ist erstaunlich, wie NVMe niedrige Latenzzeiten und die Fähigkeit der CPUs zum Multithreading ermöglicht.

Die nächste Frage, die Sie sich stellen könnten, ist: „Was ist heute wichtiger? Das ganze Auto aufrüsten oder nur den Motor hochrüsten?“

Für die meisten Rechenzentrumsmanager wird der Wechsel schrittweise erfolgen, beginnend mit leichten Upgrades wie den Kingston DC1500M und DC1000B.

Illustration eines Tachometers mit einem dadurch hindurchgehenden Lichtstreifen

NVMe over Fabrics

NVMe-oF ermöglicht den zentralen, gemeinsamen Zugriff auf NVMe-Geräte über ein spezielles Netzwerk (FC/RDMA/TCP), wodurch der Zugriff auf das netzwerkgebundene Laufwerk ermöglicht wird, als befände es sich lokal auf den Client-Servern. Zu den Vorteilen der zentralisierten Speicherverwaltung von NVMe gehören eine vereinfachte Verwaltung, eine bessere Kapazitätsauslastung und eine einfachere Beseitigung von einzelnen Fehlerstellen. Die NVMe-oF-Spezifikation sieht entweder Fibre Channel, RDMA oder TCP-Netzwerke vor. Das Fibre-Channel-Protokoll (FCP) ist seit Mitte der 1990er Jahre die führende Speichertransporttechnologie für Unternehmen, die für den Transport von SCSI-Paketen über Fibre-Channel-Netzwerke eingesetzt wird. Daher war es für NVMe von entscheidender Bedeutung, das neue „FC-NVMe“-Protokoll zu definieren, damit es sowohl SCSI- als auch NVMe-Verkehr über Fibre-Channel transportieren kann, sodass auch bestehende FCP-Anwender mit vorhandenen SAN-Umgebungen auf FC-NVMe umsteigen können. RDMA (Remote Direct Memory Access) ist ein weiteres Mainstream-Protokoll, das bereits seit Jahren auf Infiniband, RoCE (RDMA over converged Ethernet) und iWARP Fabrics existiert. Deshalb war der Aufbau auf RDMA eine Möglichkeit für NVMe, diese bestehenden Transporttechnologien zu nutzen. TCP/IP ist mit seinen soliden Designprinzipien das am weitesten verbreitete Netzwerk-Transportprotokoll seit den späten 70er Jahren. Für NVMe war es naheliegend, eine Methodik für den Transport von NVMe-Befehlen über bestehende TCP-Netzwerke zu entwickeln, um so die Bereitstellungskosten zu senken und die Einrichtungszeit zu verkürzen.

Das Aufkommen von NVMe-oF bringt auch weitere Herausforderungen für die IT-Infrastruktur mit sich, da der Engpass, der bei SCSI-Geräten bestand, im System weiter nach oben zu den Netzwerk-Controllern und -Schnittstellen wandert. Aber viele Unternehmen haben mit Switches und NICs Innovationen entwickelt, die höhere Netzwerkgeschwindigkeiten und hochgradig abstimmbare QoS unterstützen. Alle Hersteller von Flash-Arrays bieten eine End-to-End-NVMe-oF-Implementierung mit einer Reihe von Instrumenten an, um eine bessere QoS zu erzielen und störende Nachbarn zu eliminieren.

#KingstonIsWithYou

Zugehörige Artikel