Pasar al contenido principal

ES / EN

El almacenamiento definido por software se toma Londres
Jueves, Julio 10, 2014 - 16:20

Los grandes avances en la computación en los últimos años han sido gracias al trabajo en conjunto del hardware y software, configurando un ecosistema de aplicaciones y máquinas que están redefiniendo muchos aspectos de la infraestructura de TI clásicos.

“Cualquier tecnología suficientemente avanzada no se puede distinguir de la magia”, decía el escritor de ciencia ficción Artur C. Clarke. La tecnología conocida como Almacenamiento Definido por Software  (SDS, por sus siglas en inglés) es una tecnología que está produciendo un salto cuantitativo y cualitativo enorme en la gestión avanzada de datos, o mejor dicho, gestión avanzada de big data.

Aunque ya no resulte una novedad que el software es el rey y señor de la productividad empresarial, tampoco podemos desconocer que los grandes avances en las ciencias de la computación en los últimos 5 años han sido gracias al trabajo en conjunto del hardware y software, configurando un ecosistema de aplicaciones y máquinas que están redefiniendo muchos aspectos de la infraestructura de TI clásicos. Por más que algunos pregonen con exageración sobre ‘la nube’, este se compone no solo de software nebuloso, sino que también de hardware de alto rendimiento, o como dice Artur C. Clark, “de magia”.

Esta simbiosis avanzada que está experimentando la TI se enfrenta a dos retos de igual importancia: crear y ejecutar aplicaciones de nuevas maneras para nuevas oportunidades de negocios y reducir los costos de administración de las aplicaciones tradicionales. Para lograr ambas cosas, los clientes adoptarán un modelo de nube privada y acudirán de manera selectiva a proveedores de servicios de nube pública para algunas cargas de trabajo. El resultado es un ambiente de nube híbrida, elástica.

“Miles de millones de dispositivos, miles de millones de usuarios y millones de aplicaciones están impulsando un gran cambio en todos los sectores y organizaciones: nadie permanece ajeno”, dice David Goulden, director ejecutivo de infraestructura de información de EMC, en Londres durante el evento de la compañía llamado ‘Redefine Possible’. “Un giro dramático en el comportamiento de los consumidores y la creciente tasa de cambios tecnológicos presentan nuevas oportunidades de negocios”.

Una de las tecnologías presentadas en Londres por EMC fueron los nuevos sistemas híbridos VMAX3, incluyendo los modelos 100K, 200K y 400K, diseñados para apoyar la nube híbrida mediante la asignación dinámica de hasta 384 núcleos de procesamiento bajo demanda. VMAX3 permite a los clientes aplicaciones empresariales hiper-consolidar. Esta tecnología permite a los clientes comenzar de a poco con 100 máquinas virtuales e ir creciendo a decenas de miles de máquinas virtuales.

Recordemos que estamos hablando de tecnologías convergentes, puesto que VMAX3 ofrece hasta 3x rendimiento más rápido acelerando Oracle, SQL, procesamiento de transacciones SAP, análisis de datos de gran ancho de banda y la carga de trabajo de archivo.



“Muchas aplicaciones se pueden correr en estas nuevas arquitecturas  y nuevas actualizaciones. Pivoyal trabaja con Haadop  donde el paquete de analíticas es muy importante”, dice en la capital inglesa, Michael Cucchi, director de marketing de productos de Pivotal. “Y es muy importante el software SQL que se utiliza,  porque la demanda de este tipo de software es muy alta”.

Esta plataforma, tal como decía el analista de almacenamiento Mark Peters, de ESG está diseñada para permitir que las organizaciones de TI disfruten de una carga de trabajo-flexibilidad y aspectos de autoservicio con un enfoque en la nube en combinación con la gran confianza, disponibilidad y escalabilidad de un centro de datos tradicional. Como decíamos en un principio: hardware y software de la mano.

Ahora, esta tecnología, que más bien es una tendencia que solo pocas compañías pueden desarrollar e implementar, no es de exclusividad de EMC. HP cuenta con su StoreVirtual Virtual Storage Appliance (VSA) que incluyen tecnología LUN (número de unidad lógica),  el aumento de niveles de almacenamiento de VMware y la integración con Microsoft para mejorar la eficiencia y el rendimiento

Mientras que IBM cuenta con el "Application Aware, que sigue  políticas de automatización y funcionalidads de analítica para optimizar el entorno de almacenamiento en tiempo real. Además, la compañía cuenta con "Resource Smart", una asignación dinámica de infraestructura de almacenamiento para virtualizar e integrar.

Podríamos seguir con las tecnologías SDS de SAP, Oracle, Microsoft, Teradata, entre otros.

Esta convergencia y gestión avanzada de big data lleva a otra necesidad: contar con redes más potentes e inteligentes, sin tener que hacer grandes inversiones en hardware. Esta situación, crítica para las compañías de telecomunicaciones o los proveedores de data centers, es una necesidad transversal a toda la industria de TI. Más aún cuando la infraestructura de banda ancha y conectividad no siempre es de las mejores en Latinoamérica.



“La calidad y disponibilidad de banda ancha e internet de alta velocidad es vital para que estas tecnologías avanzadas puedan cumplir con su misión”, dice en Londres, David Ayvar, Analista de almacenamiento de IDC Perú. “Muchas empresas de la región no tienen sus aplicaciones de nivel crítico en la nube, entre otros motivos, por la poca confiabilidad en la banda ancha”.

Tal como dice el informe Technology Review 2014 de Accentures, todas las compañías se están convirtiendo en compañías digitales, donde la TI las está atravesando desde sus bases redefiniendo muchas de las estructuras clásicas de la gestión, de la TI y también, de las competencias del RRHH. Es por ello que la tarea de maximizar la eficiencia a través de la tecnología es el gran objetivo de hoy.
Y no podemos dejar de pensar que el hardware y el software son entes independientes. Tal como demostró EMC en Londres, juntos pueden hacer magia.

Autores

Pablo Albarracín