Tiene varias opciones de estructura NVMe al implementar NVMe sobre estructuras. NVMe sobre canal de fibra es uno, que utiliza el almacenamiento de redes de canal de fibra que los profesionales conocen bien. La mayoría de las otras opciones de NVMe-oF se basan en el acceso directo a memoria remota, incluido RDMA sobre Ethernet convergente e iWARP.
NVMe ingresará a muchos centros de datos en aplicaciones de rendimiento extremadamente alto que generalmente requieren hardware dedicado. De las opciones de telas NVMe, espero que las telas RDMA tomen la delantera. El hardware especializado requerido para NVMe sobre RDMA ya está disponible. Estas son tarjetas de interfaz de red (RNIC) habilitadas para RDMA. Casi todas las NIC de 10 Gigabit Ethernet también son RNIC, aunque no todas son del mismo tipo y no se pueden mezclar y combinar.
A medida que NVMe reemplace a SCSI como la lengua franca del almacenamiento, las empresas accederán a arreglos con todas las funciones, como Dell EMC PowerMax o NetApp All-Flash FAS, a través del canal de fibra (FC) que conocen y aman. La mayoría de Ethernet NVMe terminará en TCP, que se ejecuta en equipos Ethernet estándar sin requerir RNIC especializados o adaptadores de bus de host (HBA). RDMA se mantendrá para las conexiones de controlador a estante en arreglos, como FlashArray // X de Pure Storage, pero no espero que sea la corriente principal.
Recomendaciones de tejido NVMe
Si bien el RDMA confiable sobre Ethernet convergente y el protocolo RDMA de área amplia de Internet en teoría pueden ejecutarse en redes sin una configuración especial, los proveedores de RoCE aún recomiendan que los usuarios habiliten el control de flujo de prioridad (PFC) y la Notificación de congestión explícita (ECN) para eliminar los paquetes caídos. Habilitar PFC y ECN requiere cierto trabajo de configuración.
Las descargas de RDMA pueden reducir la latencia y la utilización de la CPU, pero a medida que aumenta la potencia de procesamiento de Intel Xeon, espero que los patrones de estructura de NVMe sigan el camino que han seguido los usuarios de iSCSI. En los primeros días de iSCSI, se necesitaban HBA iSCSI y tarjetas de motor de descarga TCP. Pero a medida que aumentaba la potencia de la CPU, los usuarios pronto descubrieron que los iniciadores de software integrados en sus sistemas operativos y los hipervisores proporcionaban un gran rendimiento al usar solo una pequeña fracción de la CPU del servidor. Hoy en día, muchas NIC y adaptadores de red convergentes ofrecen descargas de iSCSI y TCP, pero cuando pregunto, no puedo encontrar un solo usuario.
La Ethernet convergente en RoCE proviene del puente del centro de datos (DCB), que surgió para habilitar FC sobre Ethernet al eliminar los paquetes perdidos de Ethernet. Considero que la configuración del conmutador DCB es análoga a las tramas gigantes en una SAN iSCSI. Ambos requieren que el administrador de la red establezca algunos parámetros para cada puerto para obtener un mejor rendimiento y se volverán inestables cuando hay uno o dos dispositivos o puertos no configurados correctamente. Los proveedores de servicios con automatización de red pueden lidiar con eso fácilmente, mientras que los administradores de sistemas que tienen que esperar dos semanas para que el equipo de red configure los dos puertos para un nuevo servidor probablemente decidan simplemente pasar a TCP.
NVMe-oF es mucho más que un reemplazo más rápido de las SAN. El tejido NVMe que elija hará más que aumentar la velocidad. JBOF adjuntos a la tela, especialmente JBOF de disco duro, como OpenFlex D3000 de Western Digital, tienen que ver con la componibilidad y la flexibilidad que crea, pero esa es otra historia.