¿Cuál es la diferencia entre niveles tradicionales y niveles sub-LUN?
La clasificación por niveles significa mover datos de un tipo de almacenamiento a otro de la manera que mejor equilibre los requisitos de acceso y las características de valor comercial de los datos. La organización en niveles de sub-LUN se trata menos de optimizar la capacidad de almacenamiento, colocando los bits correctos en el tipo correcto de almacenamiento, que de optimizar el rendimiento (velocidad) del acceso a los datos con la cantidad mínima de unidades de disco que consumen energía.
Sin embargo, para comprender la evolución de la clasificación por niveles, tenemos que remontarnos bastante atrás.
Lo llamo «lágrimas de almacenamiento» en estos días porque, francamente, hace 30 años teníamos un modelo de niveles que estaba integrado directamente en el sistema operativo del mainframe. Se llamó DFHSM. Este era el software de IBM para realizar Hierarchical Storage Management (HSM) como una función del sistema operativo. Este sistema jerárquico era una forma simplificada de organización por niveles. Los datos, después de un cierto período de tiempo de acuerdo con la política especificada, migraron de un tipo de almacenamiento a otro para optimizar el uso del almacenamiento.
Pero la memoria era escasa, por lo que deseaba sacar sus datos de allí rápidamente. Para hacerlo, lo bajó a un dispositivo de almacenamiento de acceso directo, que era un disco. Pero el disco en esos días era muy grande, con muy poca capacidad. Si necesitaba agregar más matrices de discos, necesitaba un nuevo edificio para albergarlas. Entonces, queríamos mover las cosas del disco lo más rápido posible a la cinta. La cinta era portátil, era muy espaciosa y no costaba tanto como la memoria o el disco.
Teníamos un modelo básico, un esquema de gestión de almacenamiento jerárquico que se desarrolló como parte del sistema operativo en el mundo de IBM. Cuando muchas empresas abandonaron el mainframe, tiraron al bebé con el agua de la bañera. Se perdió un esquema riguroso y confiable de almacenamiento en niveles.
Y al principio descubrimos que las redes lentas dañaban nuestra capacidad para traducir HSM del entorno de mainframe al panorama de la informática distribuida.
Las redes de hoy se han puesto al día en términos de velocidad. Eso no significa que en realidad estemos haciendo niveles entre diferentes plataformas en este momento. Los proveedores han decidido: «Le vamos a vender una caja que tiene algo de memoria flash, algo de disco, un disco rápido con baja capacidad y un disco lento con alta capacidad. Y vamos a clasificar dentro de la caja. , cobrando al consumidor un extra por ese privilegio: tanto por el software involucrado como por el aumento de los costos de todas las unidades de disco y unidades de estado sólido (SSD) «. Su argumento es simple: paga una prima por la clasificación por niveles en la caja porque está todo en un solo lugar y es muy conveniente.
Una mejora a lo largo del camino ha sido la clasificación por niveles «sub-LUN». Con algunas matrices de almacenamiento, la organización en niveles automática funciona en conexión con accesos concurrentes y frecuentes a bits de datos en la matriz. Si se está haciendo mucho acceso a un conjunto de datos específico, los datos se pueden copiar del disco al SSD para una respuesta más rápida. Cuando la frecuencia de acceso y la simultaneidad disminuyen, las solicitudes de datos se vuelven a dirigir a la copia del disco y se elimina la copia SSD. Esta estrategia tiene el mérito de mejorar el rendimiento de E / S sin agregar muchas unidades de disco al kit, lo que también reduce el consumo de energía.
El problema es que cuando te quedas sin espacio usando autotiering o sub-LUN tiering, tienes que hacer frente a otro. Ahora está administrando múltiples soluciones de niveles. Eso es, la clasificación tradicional en niveles se volvió loca.
Francamente, me gustaría ver eso arreglado. Creo que hay formas de hacerlo. Uno es virtualizar su almacenamiento. Creo que la forma más precisa de describir el almacenamiento definido por software es que es la implementación de un controlador de virtualización basado en software en la parte superior de su almacenamiento. Este tipo de controlador virtual debe ser independiente tanto del hardware como del software. Conocemos el agnosticismo del hardware. No nos importa si es un Hitachi, IBM o Netapp en el exterior de la caja. Queremos poder migrar datos fácilmente entre los volúmenes creados a partir de los ejes en todos estos diferentes equipos.
Pero el agnosticismo del software también es sumamente importante porque ahora escucha a todos los proveedores de software de virtualización en el espacio del servidor tratando de entrar en el juego de la virtualización del almacenamiento. En esencia, quieren ser propietarios del almacenamiento. Quieren ser dueños de la red. Así como ahora poseen la caja del servidor, tanto en términos de equipo físico como de software.
Los proveedores como VMware están haciendo esto en connivencia con sus socios, especialmente EMC. Dell está tratando de crear su propio modelo con todas las diferentes capas de hardware y software de su catálogo. HP, por supuesto, está tratando de llevar todo a sus servidores, conmutadores y plataformas de almacenamiento 3PAR.