Illustration d'une puce entourée de cubes qui représentent le stockage

La promesse NVMe : tirer davantage des CPU existants

La possibilité d'augmenter la performance de l'interface SATA a ralenti l'adoption de la technologie NVMe dans la majorité des datacenters. Il est plus facile d'augmenter la capacité ou de renforcer la performance à l'aide d'une valeur IOPS supérieure ou d'une latence inférieure quand vous utilisez une norme aussi lente que SATA. À l'heure actuelle, la majorité des architectes de datacenter se concentre sur l'amélioration de l'utilisation des CPU. Même avec une baie remplie de CPU coûteux (peu importe le nombre de cœurs ou les frais de licence), les datacenters parviennent rarement à utiliser les CPU ne serait-ce qu'à trente pour cent de leur capacité maximale.

Imaginez que vous avez payé pour une salle de serveurs remplie de Ferrari et que vous ne pouvez pas rouler à plus de 32km/h. La comparaison dans ce cas n'est pas entre Ford et Ferrari, mais bien entre essence sans plomb et essence à indice d'octane élevé.

Le protocole NVMe introduit des changements au niveau des vitesses de transfert et de l'approvisionnement en mémoire, ce qui permet de doubler l'utilisation et de passer de trente à près de soixante pour cent. En exploitant l'infrastructure actuelle, NVMe renforce l'efficacité des CPU par le biais de la réduction de la latence et de l'augmentation du débit. Toutefois, vous devez être en mesure d'accueillir les NVMe. Vos cartes d'insertion actuelles peuvent imposer certaines limites, tout comme l'impossibilité de remplacer votre facteur de forme actuel par un simple branchement. Dans ce cas, les modifications à réaliser sont plus importantes.

SSD Serveur DC1000B de Kingston

Pour pouvoir abandonner un système SAS, il faut modifier l'architecture du serveur, sauf si vous décidez d'utiliser un adaptateur pour pouvoir brancher les SSD NVMe sur le bus PCIe. Cela représentera un changement de plateforme complet pour un client. À la différence des contrôleurs d'hôte matériels SATA et SAS, PCIe est une interface à définition logicielle qui garantit une efficacité supérieure pour les processus dédiés. Il est remarquable de voir que le protocole NVMe garantit une faible latence et la capacité des CPU à pratiquer le multithread.

La question que vous pourriez vous poser maintenant est de savoir ce qui compte le plus aujourd'hui ? Mettre à niveau toute la voiture ou seulement lui donner un moteur plus puissant ?

Pour la majorité des responsables de datacenter, le changement va être progressif et débutera par de légères mises à niveau comme les SSD DC1500M et DC1000B de Kingston.

Image d'un compteur de vitesse traversé par un éclair

NVMe Over Fabrics

NVMe-oF apporte un accès centralisé et partagé des dispositifs NVMe sur un réseau spécialisé (FC/RDMA/TCP), ce qui permet d'accéder au disque connecté au réseau comme s'il était local pour les serveurs clients. Les avantages de la gestion centralisée du stockage NVMe incluent une gestion simplifiée, une meilleure utilisation de la capacité et une élimination plus facile des points de défaillance uniques. Les spécifications NVMe-oF exigent soit Fiber Channel, RDMA ou TCP Fabrics. Le protocole FCP (Fiber Channel Protocol) est la principale technologie de transport pour les stockages d'entreprise depuis le milieu des années 1990. Utilisé pour transporter des paquets SCSI sur les réseaux Fibre Channel, il joue maintenant un rôle essentiel pour NVMe afin de définir le nouveau protocole "FC-NVMe" et rendre possible le transport du trafic SCSI et NVMe sur la fibre optique, permettant ainsi aux utilisateurs actuels du FCP dans des environnements SAN de passer à la FC-NVMe. RDMA (Remote Direct Memory Access) est aussi un protocole courant utilisé depuis des années sur Infiniband, RoCE (RDMA sur Ethernet convergé), et les fabrics iWARP. La construction sur RDMA était donc un moyen pour NVMe de tirer profit de ces technologies de transport existantes. TCP/IP est le protocole de transport en réseau le plus courant, offrant de solides principes de conception depuis la fin des années 70. Il était naturel pour NVMe de développer une méthodologie de transport des commandes NVMe sur les réseaux TCP existants, afin de réduire les coûts de déploiement et d'accélérer la mise en place.

L'émergence de la NVMe-oF génère des défis supplémentaires dans l'infrastructure informatique, car le goulot d'étranglement qui existait avec les dispositifs SCSI remonte dans le stack vers les contrôleurs et les interfaces de réseau. Cependant, de nombreuses entreprises ont innové et utilisent des commutateurs et des cartes réseau qui prennent en charge des vitesses de réseau plus élevées et une qualité de service hautement réglable. Tous les fabricants de matrices - flash ont également innové en proposant une implémentation NVMe-oF de bout en bout avec un ensemble d'outils permettant d'améliorer la qualité de service et d'éliminer les bruits voisins.

#KingstonIsWithYou

Articles