Pasar al contenido principal

ES / EN

La importancia del Grid Computing en la génesis de las soluciones empresariales
Martes, Marzo 13, 2012 - 18:12

El Grid Computing es una tecnología de computación distribuida que integra y coordina recursos informáticos como el cómputo, el almacenamiento y las aplicaciones. AETecno conversó con Néstor Camilo de Oracle Latinoamérica sobre esta poco conocida tecnología.

El Grid Computing implementa una serie de herramientas para el movimiento de datos, gestión de almacenamiento y otras infraestructuras sin limitaciones entre sí. Esta tecnología es por definición muy flexible, pues está basada en estándares abiertos. Esta red trabaja conectada sobre redes de área extensa, como por ejemplo internet.

Dicho de otra manera, es una forma de compartir tareas mejorando el rendimiento y las respuestas.

El Grid realiza sus primeras manifestaciones en lo años 70', pero fue en la década de los 90', con la masificación de internet y la necesidad de procesar y almacenar la gran cantidad de datos, que las soluciones Grid comenzaron a expandirse por las compañías, que veían cómo la red estaba generando mucha información que requería de nuevas herramientas.

El European Organization for Nuclear Research (CERN), que desarrolla el famoso experimento del colisionador de hadrones, utiliza conputación Grid, al igual que el Seti Institute. La computación Grid, ha evolucionado a las actuales soluciones de BI, DataWarehousing y Big Data, que representan algunos de los mayores desafíos para las empresas de hoy.

Para conocer más a fondo esta tecnología, AETecno conversó con Néstor Camilo, Senior Enterprise Architecture Manager y Strategic Account de Oracle Latinoamérica.

- ¿Cuáles fue la primera manifestación de la tecnología Grid?

- La tecnología empieza a evolucionar en los años 90', aunque habían algunos intentos en los 70' de desarrollar sistemas distribuidos que se pudieran instalar horizontalmente. El concepto era la escalabilidad horizontal donde yo no tuviera que comprar una máquina y después agregarle 10 CPU para darle más potencia.

La idea del escalamiento horizontal siempre fue un tema de poder iniciar proyectos con costos más bajos. Ahora, cuando la discusión se enfocó en incorporar una aplicación el tema se volvió un poco más complejo ¿Cómo una base de datos tiene que acceder físicamente desde el storage? Estos problemas son mucho más complejos de resolver.

- ¿Cuándo llega a las empresas?

- Comercialmente empieza a desarrollarse la tecnología en la versión 7 de la base de datos (Oracle Database) en los 90', que entregaba la posibilidad de correr la base de datos en varias máquinas. Las principales restricciones de esa época eran que la velocidad entre máquinas era lenta, entonces había que tener mucho compromiso en el diseño y servían sólo para algunos tipos de problemas.

En paralelo, hubo muchas empresas que empezaron a evolucionar este concepto para los servidores de aplicaciones. Una empresa, que ahora es parte de Oracle, Tuxedo, creó el concepto del Monitor Transaccional donde las aplicaciones pueden correr en una máquina sola o en un dominio, donde 20 máquinas operan y no se sabe si la transacción se ejecuta en la máquina 1 o en la 19. Era un programa de desarrollo simple, pero que corría en una de esas 20 máquinas.

Hubo varias empresas que evolucionaron tecnológicamente esos conceptos. Ahora, cuando comenzó el auge de internet los web servers también evolucionaron en ese modelo. Apache avanzó mucho en las granjas de servidores, que eran un Grid de servidores de http. También comienza a evolucionar Java y en el mundo de los aplication server de Java, también aparece este concepto de podetr distribuir una aplicación entre X servidores de aplicación y tener granjas de aplicaciones. En aquel momento una de las empresas líderes en desarrollar esa tecnología era Sun Microsystems y la otra era Bea Systems. Ambas también forman parte de Oracle.

- ¿Cómo afectó la explosión de internet a la tecnología Grid?

- La explosión de requerimientos que produjo la llegada de internet, permitió que una empresa que antes tenía 100 clientes, en un par de semanas tenía 1.000 y luego 10.000 y 100.000, y el problema que surgía era cómo hacer que los datos pudieran escalar con rapidez y de forma horizontal y ahí fue donde Oracle fue pionero ya que empezó por el año 1995 a desarrolar la tecnología de escalabilidad con Aplication Cluster que permitía a 2, 3 o 5 máquinas acceder al mimso storage compartiendo los datos, pero manteniendo la seguridad de la transacción. Cuando la base de datos se está ejecutando en varias máquinas, es un problema muy complejo.

La version 8i de la base de datos (donde la i era de 'internet'), tenía como principal carcaterística su escalabilidad horizontal, lo que genera todo un círculo virtuoso.

Escalabilidad y horizontalidad son la clave. "En el mundo Grid la alta disponibilidad es una característica principal. Si tengo una base de datos corriendo en Grid y necesito apagar una máquina, el sistema continúa funcionando de forma normal. Por esto es que muchas empresas comenzaron a buscar esta tecnlogía y no tan sólo por la escalabilidad horizontal", dice el ejecutivo de Oracle.

- ¿Cuando llegó a Latinoamérica las soluciones Grid?

- Casos puntuales en los años 96-97, donde algunas empresas de telecomunicaciones comenzaban a tener el problema de tamaños de máquina que necesitaban a raiz de la explosión de internet, lo que dio un impulso fundamental a la tecnología Grid. Las compañías de telecomunicaciones en Latinoamérica, sobre todo a fines de los 90'; y las punto com en el borde del 2000, comenzaron a utilizar esta tecnología y a partir de ahí se empezó a popularizar.

En ese tiempo, no todas las aplicaciones escalaban al 100% . Para ello desarrollamos el Real Aplication Cluster donde las aplicaciones podían correr sin hacer ningún cambio, aprovechando los beneficios de la disponibilidad y escalabilidad. Ahí explotó, porque pasó a ser muy simple llevar una aplicación a este tipo de tecnología, además de que esta tecnología es muy efectiva en costo.

- ¿Cómo evolucionó el Grid a las actuales nubes y soluciones de virtualización?

- Las evoluciones se dieron por el lado de la simplificación de la administración, y por otro lado, con los sistemas con ingeniería. En un inicio, teníamos que instalar un software y alguien tenía que administrarlo, lo que requería bastante trabajo manual, puesto que no es lo mismo hacerlo en 2 máquinas, 7 o 17, entonces hubo mucha evolución en la operación. En la versión 10, la base de datos se administraba como si fuera una sola máquina, pero aparecían pequeñas jeraquías en la interfaz gráfica y los cambios que yo hacía en el nodo 1 se podían aplicar en el resto de los nodos, lo que simplificó mucho la adminstración.

El Automatic Storage Managment (ASM) hacía que los administradores practicamente no hicieran nada con una base de datos con este tipo de tecnología. La versión 10 fue la que popularizó la administración.

En la versión 11 hicimos que algunas búsquedas se fueran directamente al storage y esta tecnología vino empaquetada dentro de un hardware y desde ese momento comenzamos a desarrollar sstemas de ingeniería donde uno busca sacar el máximo provecho a cada una de las piezas. Comenzamos a usar memoria flash como un mecanismo intermedio y también a usar inteligencia de los storage, es decir, utilizar los datos que me interesan en ese momento y no la totalidad de estos.

La necesidad de gestionar el Big Data en Latinoamérica. "El aumento de los volúmenes de datos va a  duplicar o triplicar la cantidad de personas que transaccionan con nuestros sistemas y vamos a querer tener mucho más información de esas transacciones. El efecto Facebook o redes sociales, permite poder contar con un caudal de información de los clientes enorme, o sensores, que pueden entregar información valiosa", Néstor Camilo.

- ¿Esto también sucede en Latinoamérica?

- A nivel mundial esto sucedió hace un par de años. En Latinoamérica, muchas empresas están comenzado a entender el potencial de procesar toda esta nueva información. En este sentido, el Big Data es uno de los elemntos que tendrá un impacto significativo en Latinoamérica. En sectores industriales, como la exploración petrolera o la minería, por ejemplo, donde los sensores que utilizan generan miles de datos por segundo los que en muchos casos se descartan o se almacenan, hoy ya existe la tecnología para poder trabajar con eso, lo que entregará una diferencia significativa en las empresas que utilicen esa información y las que sólo se queden con la información que les entrega su sistema administrativo.

- ¿En qué otros sectores se puede ver la utilización de este nivel de procesamiento de datos?

En medicina por ejemplo, tiene un potencial muy grande y un impacto enorme pues ayudaría a mejorar la calidad de vida y hacer más eficiente la inversión en medicina preventiva.

- ¿Cómo podríamos comparar el Big Data con el Grid?

- El Big Data tiene cosas conceptualmente muy parecidas al Grid. Por ejemplo, este concepto de la escalabilidad masiva es totalmente apliacable al Big Data, de hecho hemos anunciado una máquina exclusivamente para trabajarlo: el Big Data Appliance. Esta es una solución de software y hardware pensada para transaccionar en tiempo real volúmenes que uno no logra identificar... terabytes por segundo de información.

Autores

Pablo Albarracín