Escalado horizontal frente a vertical para almacenamiento

Para los departamentos de TI, administrar el almacenamiento de datos puede parecer una tarea interminable. Las organizaciones capturan y administran más datos que nunca, los conservan durante más tiempo y dependen completamente de ellos para administrar el negocio.

Las empresas pueden adoptar dos enfoques al diseñar el almacenamiento para satisfacer la necesidad de una mayor capacidad: pueden escalar o escalar horizontalmente.

Así que vale la pena conocer la diferencia, y en este artículo analizamos el escalado horizontal vs vertical en el almacenamiento, los pros y los contras de cada uno y los escenarios en los que podría llevar a cabo cada uno de ellos, ya sea SAN, NAS, hiperconvergente, objeto, o en el almacenamiento en la nube.

Escala horizontal vs vertical

Los sistemas de TI pueden escalar verticalmente, horizontalmente y, a veces, ambos. En términos generales, el escalado vertical, o escalado, implica la instalación de sistemas más potentes o la actualización a componentes más potentes.

Esto podría significar instalar un nuevo procesador en un sistema x86, implementar un servidor más potente o incluso trasladar las cargas de trabajo a una nueva plataforma de hardware por completo. En la nube, se puede realizar mediante actualizaciones de procesadores y memoria.

Mientras tanto, el escalado horizontal aumenta los recursos al expandir el número de servidores u otras unidades de procesamiento. En lugar de depender de un sistema más potente, las actualizaciones de escalamiento horizontal operan dividiendo la carga de trabajo entre una gran cantidad de unidades de productos básicos de menor costo.

El sistema de búsqueda de Google es un ejemplo de un sistema escalonado masivamente paralelo. De hecho, Google posee algunas de las patentes clave para los sistemas MapReduce que permiten dividir las tareas en grupos masivos de procesamiento paralelo.

Escalado horizontal frente a vertical en almacenamiento

El escalado para el almacenamiento sigue un enfoque similar. Los departamentos de TI pueden escalar la capacidad a través de unidades más grandes o más en el subsistema de almacenamiento, o distribuyendo las cargas de trabajo entre más dispositivos.

Escalar hacia arriba, con unidades más grandes en servidores e infraestructura hiperconvergente (HCI) o mayor capacidad en sistemas NAS y SAN, es técnicamente relativamente sencillo. Sin embargo, incluso con las unidades NVMe, SSD y convencionales de mayor capacidad disponibles en la actualidad, aquellas con sistemas más grandes aún pueden sufrir cuellos de botella.

Más contenido para leer:  Wi-Fi HaLow begins real-world commercial IoT deployments

O el sistema no escalará bien cuando se acerque a los límites de capacidad, o aparecerán otros cuellos de botella. Normalmente, los cuellos de botella en el almacenamiento escalado verticalmente surgen de los límites de rendimiento en los controladores de almacenamiento porque la mayoría de los subsistemas de almacenamiento solo pueden acomodar dos controladores. Algunos sistemas, por supuesto, permiten actualizar los propios controladores. En el almacenamiento de red, la interfaz de red también puede convertirse en un cuello de botella.

La alternativa es escalar el almacenamiento agregando más nodos para trabajar en paralelo. Aquí, los nodos de almacenamiento operan juntos en clústeres, pero presentan su capacidad como un “grupo” para la aplicación.

Agregar nodos elimina los cuellos de botella del controlador y la interfaz de red, porque cada nodo tiene sus propios recursos. La HCI y el almacenamiento computacional llevan la idea un paso más allá. HCI combina almacenamiento, redes y computación en una unidad, mientras que el almacenamiento computacional permite que el propio subsistema de almacenamiento asuma algunas tareas de procesamiento, como el cifrado o la compresión, cerca del almacenamiento.

“La infraestructura hiperconvergente llevó este modelo de escala horizontal al centro de atención”, dice Naveeen Chhabra, analista de Forrester. “Este concepto de escalamiento horizontal fue introducido por los hiperescaladores y se está utilizando para los servicios de almacenamiento que ofrecen al mercado”.

Escalar el almacenamiento en las instalaciones

Ampliar el almacenamiento en un entorno local puede ser relativamente sencillo. En el nivel más básico, los equipos de TI pueden simplemente agregar más unidades o unidades de mayor capacidad. Esto se aplica al almacenamiento interno, al almacenamiento de conexión directa y al almacenamiento dentro de los sistemas HCI.

Para el almacenamiento en red, agregar o intercambiar unidades también es la opción más simple. Los proveedores de hardware apoyan en gran medida las actualizaciones sin herramientas, y el software de gestión de almacenamiento puede reconfigurar las configuraciones RAID automáticamente en los sistemas NAS y SAN.

Más contenido para leer:  Cisco acelera la estrategia de observabilidad con el monitoreo de la experiencia digital del cliente

Cambiar o actualizar controladores o interfaces de red requerirá más mano de obra y es probable que requiera apagar el arreglo.

En ambos casos, el tiempo de inactividad será un problema. Las actualizaciones de hardware significan desconectar los sistemas y los grupos RAID deberán reconstruirse. Además, los sistemas solo se pueden actualizar si están aprovisionados para capacidad adicional, como con bahías de unidades de repuesto o controladores intercambiables, por adelantado. Esto puede significar comprar una matriz más grande de la que se necesita inicialmente.

La alternativa, cambiar a un sistema más nuevo y más grande, puede minimizar el tiempo de inactividad, pero las empresas deben permitir el tiempo necesario para transferir datos y los riesgos de pérdida de datos.

Por lo tanto, los sistemas de escalamiento horizontal pueden parecer más fáciles. Los sistemas NAS y SAN modernos y la HCI están diseñados para escalar horizontalmente (y hasta cierto punto). Agregar más nodos o arreglos expande el grupo de almacenamiento y debería ser posible con poco o limitado tiempo de inactividad. No es necesario tocar el hardware existente y el software agregará la nueva capacidad al grupo de almacenamiento.

A veces, escalar es la única forma de manejar el rápido crecimiento de la demanda de almacenamiento, especialmente de datos no estructurados, pero tiene sus limitaciones. Los sistemas de escalamiento horizontal son menos adecuados para aplicaciones como las bases de datos transaccionales, por ejemplo.

Escalar el almacenamiento en la nube

El almacenamiento en la nube se basa en arquitecturas de escalamiento horizontal. Los componentes básicos (hardware básico paralelo y almacenamiento de objetos) se diseñaron desde el principio para acomodar conjuntos de datos cada vez más grandes.

Los sistemas de nube pública son, por lo tanto, en gran parte sistemas de escalamiento horizontal. Esto funciona bien para cargas de trabajo elásticas, donde las organizaciones quieren comenzar con poco a poco y construir, y donde las aplicaciones pueden operar en sistemas escalados horizontalmente, como bases de datos escalables.

Más contenido para leer:  Pure Storage: HDD muertos para 2028 y nuestro flash lo reemplazará

Los sistemas en la nube escalables generalmente se construyen con servidores x86 con almacenamiento de conexión directa que actúan como nodos o clústeres de HCI, cada uno de los cuales ejecuta software de almacenamiento de objetos y usa codificación de borrado para crear el equivalente a la protección RAID. Todo esto permite a los usuarios de la nube agregar capacidad rápidamente, o incluso automáticamente.

Pero esto no significa que la única forma de escalar en un entorno de nube pública sea agregar capacidad. Los arquitectos de TI pueden especificar diferentes niveles de rendimiento de los principales proveedores de la nube.

Amazon Web Services, Google Cloud Platform y Microsoft Azure proporcionan cada uno un rango de rendimiento de almacenamiento, basado en sus sistemas SSD (y disco giratorio).

AWS, por ejemplo, tiene opciones de IOPS que van desde 16.000 a 64.000 por volumen a través de EBS. Azure Managed Disk alcanza hasta 160.000 IOP y Azure Files hasta 100.000 IOPS.

El disco persistente de GCP ejecuta hasta 100,000 IOPS leídas y su SSD local hasta 2,400,000 IOPS leídas. En todas las plataformas, la escritura suele ser más lenta.

¿Arriba o afuera?

Por supuesto, los costos aumentan con los niveles de mayor rendimiento, por lo que los CIO deberán equilibrar la capacidad y el rendimiento en todo su estado de nube.

Cada vez más, las arquitecturas híbridas admiten lo mejor de ambos mundos. Las organizaciones pueden escalar su hardware local, pero usar la nube pública para escalar horizontalmente con capacidad adicional fácil de implementar.

Tampoco el procesamiento y el almacenamiento tienen que moverse al unísono. Es bastante posible, y cada vez más común, escalar la computación para el rendimiento y escalar horizontalmente el almacenamiento, en las instalaciones o a través de la nube, para hacer uso de la capacidad y la resistencia de la tecnología de objetos.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales