Pasar al contenido principal

ES / EN

¿Por qué debería importarnos la computación in-memory?
Mié, 30/11/2011 - 09:34

Emilio Mariño

In-Memory: edificación de una empresa que opera en tiempo real
Emilio Mariño

Emilio Mariño es SVP, Business Analytics & Technology para SAP en America Latina y el Caribe.

Hace 26 años, el norteamericano Jim Gray, reconocido científico en computación, definió la “regla de los cinco minutos”, que demuestra que cualquier dato que sea “llamado” con una frecuencia de cinco minutos o menos, resulta más económico de almacenar en una memoria que en un disco. Eso fue en la época en que una memoria principal de computador costaba más de US$5.000 por GB. Hoy, cuesta menos de un centavo.

Por otra parte, el desarrollo de tarjetas con más de 1.000 núcleos se vislumbra en el horizonte de los próximos 24 meses. La conjugación de estas dos tendencias, la proporcionalidad inversa del desempeño y el precio de las memorias y la prevalencia de arquitecturas que soportan la implementación masiva de múltiples núcleos, está transformando el sector del software empresarial a una escala similar a la observada hace una década, cuando se llevó a cabo la transición hacia las arquitecturas cliente/servidor, ya que hoy, como entonces,  el software necesita ser esencialmente rediseñado para que pueda sacar el debido provecho a las innovaciones en hardware.

Desde la perspectiva de los tecnólogos, el progreso acelerado de la ingeniería y la noción de que todo está cambiando y es diferente al pasado es evidente y no admite discusión. ¿Pero cuáles son las implicaciones reales y tangibles que conlleva dicho desarrollo desde el punto de vista de la generación de valor para el cliente?

Indiscutiblemente, uno de los principales beneficios que ofrece la computación in-memory es la velocidad. A manera de ejemplo, las compañías que corren sus operaciones sobre motores de análisis y gestión de datos tipo in-memory pueden llevar a cabo análisis de costos y rentabilidad que involucran cientos de millones de registros en unos pocos segundos, en tanto que con tecnologías convencionales de gestión de bases de datos demoran más de 30 minutos. Estas mejoras en los niveles de desempeño son aplicables a prácticamente cualquier escenario que contemple el uso intensivo de datos dentro del ERP. Por consiguiente, está claro que la tecnología in-memory permite correr los procesos existentes con una considerable mayor agilidad y sin interrupciones.

Además de los beneficios inherentes al incremento en velocidad, ofrece mejoras sustanciales en el desempeño, en términos del alcance de la información almacenada en los sistemas de back-end, que puede definirse esencialmente como el número de personas capaces de acceder y utilizar tales datos, multiplicado por el rango de escenarios de uso habilitados para ellas.

Hilti, una firma reconocida por sus sofisticadas herramientas mecánicas, constituye un valioso ejemplo a seguir: es una compañía que da un peso enorme a sus interacciones con los clientes, al putno que más de dos tercios de su plantilla de empleados tiene contacto directo con ellos. Un número considerable de estas interacciones se realiza en campo, en las obras de construcción, donde contar con un acceso en tiempo real a los datos del cliente (por ejemplo, los productos que adquirió durante el último trimestre) representa una ventaja de gran relevancia. Forzar hoy a un representante de ventas a esperar entre 15 y 20 minutos para correr un análisis de segmentación de clientes en un dispositivo móvil es inútil, pero si los datos surgen en cuestión de segundos, la naturaleza de esta interacción de negocios cambia sustancialmente y se abre un mundo de oportunidades, como la capacidad de ofrecer productos idóneos o descuentos apropiados en tiempo real.

Otro importante beneficio que se deriva del desempeño de la computación in-memory es la reactividad. El aplicativo in-memory de SAP HANA replica, en tiempo cuasi-real, los datos contenidos en los sistemas fuente en el motor in-memory. Esto, por supuesto, permite poner la información al alcance de los usuarios a una velocidad considerablemente mayor.

Pero el verdadero valor de este tipo de computación es que permite a las organizaciones de informática replantear la manera de ofrecer sus servicios y capacidades a quienes requieren de sus habilidades dentro de sus empresas. El Almacén de Datos Empresariales (Enterprise Data Warehouse-EDW) es un componente prácticamente universal de la mayoría de las implantaciones de inteligencia de negocios que se realizan a nivel empresarial. Dentro del enfoque EDW, los datos son copiados, transformados, agregados y sincronizados en una cadena de suministro que comienza con aplicaciones transaccionales tipo ERP y termina con herramientas de análisis y consulta de inteligencia de negocios (clientes BI). Una de las funciones esenciales que desempeña esta cadena es la optimización del desempeño. Con el fin de que las consultas se realicen más velozmente, el modelo de datos subyacente debe ser diseñado, optimizado y mantenido para ello, los datos agregados deben ser materializados y así sucesivamente. En consecuencia, cuando una línea de negocios necesita cambiar algo, como el alcance o los tipos de datos a ser analizados, debe presentar la solicitud al área de tecnología de la información. En corporaciones e industrias que manejan gigantescos volúmenes de datos, este proceso puede tardar semanas.

Con la computación in-memory, no se requieren ajustes de desempeño ni panoramas complejos para ofrecer soluciones de alta performance que resuelven problemas de negocios de forma tal que los usuarios pueden acceder y trabajar con datos sin necesidad de recurrir al apoyo de las áreas de TI. El resultado de esta “habilitación de línea de negocios” es una notoria reducción de la latencia y los tiempos que transcurren entre la detección y la resolución de un determinado problema. En este escenario, la ventaja evidente es la simplicidad, pues la organización de informática ya no tiene que gastar tiempo valioso en la manipulación de la cadena de suministro EDW y puede dedicarse a tareas eminentemente estratégicas.

La computación in-memory permite operar dentro de los escenarios existentes con mayor agilidad y efectividad en costos. Pero lo realmente revolucionario es su capacidad para habilitar actividades y procesos completamente nuevos: cosas que antes jamás podían hacerse realidad. La materialización de esta visión conlleva el desarrollo de nuevas aplicaciones que se construyen desde cero en centros de diseño de computación in-memory que operan en tiempo real. En tal sentido, el software SAP HANA puede percibirse como la semilla a partir de la cual germinará la siguiente generación de aplicaciones de SAP.

Los casos que apuntalan el uso de este software y que se fundamentan en este paradigma proliferan a través de diversas industrias y líneas de negocios. A manera de ejemplo, Medidata está anidando un motor in-memory en su software tipo SaaS de gestión de pruebas clínicas, con el fin de ayudar a las organizaciones de la industria de las ciencias de la vida a optimizar la eficiencia en ese terreno. Es un proceso que maneja gigantescos volúmenes de datos y que, a menudo, genera miles de millones de datos puntuales para demostrar la seguridad y la eficacia de tan sólo un medicamento o de un dispositivo médico en particular. La computación in-memory permite que esta información esté, de manera inmediata y segura, a disposición quienes más la necesiten.

Salta a la vista que el universo de la tecnología está experimentando un cambio vertiginoso y que las compañías deben ser conscientes de las transformaciones asociadas, pues podrán extraer un valor sustancialmente mayor de los activos que ya poseen y abrir la puerta a un nuevo mundo de oportunidades. La clave para materializar este valor no radica en la tecnología en sí, sino en cómo será empleada, como parte de las aplicaciones y herramientas que perfeccionan y suplementan la forma actual de llevar a cabo los negocios.

Países
Autores