Gráfico de microchip con cubos a su alrededor para representar el almacenamiento

La promesa de NVMe: sacar más partido de las actuales CPU

La capacidad de mejorar el rendimiento de la interfaz SATA ha provocado que la mayoría de los centros de datos tardasen en adoptar la tecnología NVMe. Es más fácil incrementar la capacidad o el rendimiento mediante más IOPS o menor latencia cuando se utiliza algo lento, como SATA. Si observamos los centros de datos actuales, la mayoría de los arquitectos de los mismos están centrados en intensificar la utilización de las CPU. Con un armario lleno de caras CPU (sean cuales fueren los costes del número de núcleos o de licencias), raras veces los centros de datos son capaces de utilizar las CPU incluso en torno al 30% de su capacidad máxima.

Imagínese tener que pagar por una sala de servidores llena de Ferraris para finalmente tener que conducirlos a 20 km/h. No se trata de una carrera de Ford contra Ferrari, sino más bien una comparación entre combustibles sin plomo y de alto octanaje.

NVMe está propiciando un nuevo cambio, con velocidades de transferencia y provisionamiento en memoria que posibilitan duplicar el grado de utilización desde el 30% hasta prácticamente el 60%. Utilizando las infraestructuras existentes, NVMe permite sacar más partido de las CPU, para que funcionen de manera más eficiente, con menor latencia y mejor rendimiento. Sin embargo, tendría que poder dar entrada a NVMe. Las limitaciones pueden incluir sus actuales placas base o la imposibilidad de insertarlas y sustituirlas por su actual factor de forma. La situación requiere una importante reforma.

Discos SSD para servidor DC1000M y DC1000B de Kingston

Para realizar la transición desde un sistema basado en SAS, es necesario cambiar la arquitectura del servidor, salvo que utilice un adaptador para conectar discos SSD NVMe al bus de PCIe. Para el cliente esto supondrá un cambio integral de la plataforma. En comparación con el uso de controladores de host SATA y SAS basados en hardware, la interfaz PCIe está definida por software y ofrece una mayor eficiencia en los procesos dedicados. Es asombroso cómo NVMe posibilita una baja latencia y permite el procesamiento de las CPU en paralelo.

Entonces, lo más probable es que se pregunte: “¿Qué es más importante hoy? ¿Actualizar el coche entero, o sobrealimentar el motor?”

Para la mayoría de los gerentes de los centros de datos, el cambio va a ser gradual... Empezará por mínimas actualizaciones, como la adopción de las unidades DC1000M y DC1000B de Kingston.

Ilustración de un velocímetro atravesado por un relámpago

NVMe Over Fabrics

NVMe-oF posibilita el acceso centralizado y compartido de dispositivos NVMe a través de una red especializada (FC/RDMA/TCP), lo cual a su vez posibilita acceder a las unidades vinculadas a la red como si fuesen locales de servidores clientes. Las ventajas de la gestión centralizada del almacenamiento que ofrece NVMe incluyen una administración simplificada, mejor utilización de la capacidad y eliminación más fácil de los puntos de error únicos. La especificación NVMe-oF requiere canal de fibra, RDMA o TCP. El protocolo de canal de fibra (FCP) viene siendo la principal tecnología de transporte de almacenamiento empresarial desde mediados de 1990, y se empleó para transportar paquetes SCSI a través de redes de canal de fibra, por lo cual fue fundamental que NVMe definiese el nuevo protocolo “FC-NVMe” de modo que fuese posible transportar tanto tráfico SCSI como NVMe a través de canal de fibra, permitiendo a los actuales usuarios de FCP en entornos SAN actualizar a FC-NVMe. RDMA (Remote Direct Memory Access) es otro protocolo central que existe desde hace varios años en redes Infiniband, RoCE (RDMA sobre Ethernet convergente) e iWARP, por lo cual aprovechar RDMA fue una manera mediante la cual NVMe aprovechó las tecnologías de transporte existentes. TCP/IP es el principal protocolo de transporte por red, gracias a sus sólidos principios de diseño desde finales de la década de 1970. Fue natural que NVMe desarrollase una metodología para transportar comandos de NVMe a través de las redes TCP existentes con el objeto de reducir los costes de implementación y agilizar los plazos de configuración.

Además, la aparición de NVMe-oF implica más retos para las infraestructuras de TI, por cuanto los atascos que se producían en los dispositivos SCSI se desplazan y llegan a los controladores e interfaces de red. No obstante, muchas empresas han innovado con conmutadores y NIC compatibles con mayores velocidades de red y QoS muy flexibles. Por otra parte, todos los fabricantes de matrices Flash han innovado ofreciendo una implementación integral de NVMe-oF con una serie de herramientas para afinar la QoS y eliminar vecinos ruidosos.

#KingstonIsWithYou

Productos relacionados

Para consultar información acerca de cómo el virus COVID-19 ha afectado a nuestras operaciones comerciales, haga clic aquí.