Pasar al contenido principal

ES / EN

Consejos para que el big data no se convierta en un big problem
Martes, Marzo 26, 2013 - 16:16

El Big Data puede transformarse en un problema si desde los encargados de TI no se enfrentan las tres principales variables que influyen en el análisis de grandes datos: el volumen, la diversidad y la velocidad de los datos. AETecno habló con Vicente Millán, Market & Business Development Manager en Intel .

Lo quieran o no las empresas, el Big Data irá en franco aumento, puesto que la utilización de tecnología hace ya casi dos décadas en los procesos de gestión empresarial, ha generado una gran cantidad de información (facturas, planillas, reportes, informes, papers, memos, etcétera), configurando un enorme almacén de datos relevantes que puede transformarse en información útil, sí y sólo sí, están ordenados, analizados y transformados en respuestas en tiempo real que puedan resolver problemas específicos de una compañía. Ahora, niungún dato, por más antiguo o pequeño que parezca, es descartado.

Tal como dijimos hace algún tiempo, la masificación de internet y la banda ancha en casi todos países del continente, así como la rápida y mundialmente conocida afición de la región por las redes sociales, están creando un flujo y generación importante de Big Data.

Uno de los actores importantes en la cadena tecnológica del Big Data es Intel. Para conocer cómo la compañía se ocupa de esta tendencia hablamos con Vicente Millán, Market & Business Development Manager en Intel.

-¿Estas tecnologías sirven sólo para grandes empresas o las medianas también pueden usarlo?
-Todavía, sólo una pequeña fracción de las empresas es capaz de encontrar sentido en toda esta gran cantidad de datos debido a que las tecnologías, técnicas y habilidades disponibles actualmente son demasiado rígidas para los tipos de datos, o excesivamente caras para implementarlas.

Intel está adoptando un enfoque integral para Big data que se basa en nuestra historia de innovación, permitiendo el análisis de dispositivos hacia la nube con procesamientos de datos, software, almacenamiento y tecnologías de redes. Dada nuestra amplia y dilatada experiencia en computación, estamos en una posición única para impulsar la innovación del ecosistema y servir como un proveedor de confianza de una plataforma abierta para el análisis de datos.

El Big Data puede ayudar a las empresas a aumentar la eficiencia, mejorar la productividad y crear servicios que pueden generar experiencias nuevas para los consumidores.

-¿Las soluciones de Big Data requieren de nuevos profesionales expertos en analítica?
-Se necesitan recursos humanos con las habilidades necesarias para la identificación de los conjuntos de oportunidades a través del uso de las estadísticas, algoritmos, minería y visualización.

Las empresas de TI necesitan de un mayor número de oportunidades para aumentar su valor estratégico al aprovechar el análisis de grandes cantidades de datos y de herramientas informáticas de alto desempeño, lo anterior con el objetivo de ofrecer mejores productos y servicios de una manera más rápida.

-¿Cómo está la penetración de tecnologías Big Data en Latinoamérica?
-El mercado latinoamericano es uno de los con mayor ventas de Smartphones registrados por Intel. Toda esta gran cantidad de información generándose de manera remota, representa una amplia oportunidad paras el desarrollo de Big Data.

El efecto de la impresionante tasa de acumulación de información, aumenta casi un 50% cada año, de esto un 90% son datos que dificultan el análisis al ser imágenes, videos, etc. lo que vuelve escribir el enfoque tradicional de gestión de datos, que como resultado un mercado de US$370 millones en América Latina en 2012, incluyendo los servicios de hardware, software y los costos de gestión asociados con el “Big Data”.

-¿En qué punto el Big Data puede transformarse en “Big Problem”?
-El Big Data se puede transformar en un problema si desde la TI no se enfrentan las tres principales variables que influyen en el análisis de grandes datos como son el volumen, la diversidad y la velocidad de los datos.

El crecimiento de datos no estructurados supera las soluciones analíticas y almacenamiento tradicional. También, se debe afrontar la naturaleza variable y heterogénea de estos datos que vienen en formatos tan diferentes como e-mail, redes sociales, videos, imágenes, blogs, datos de sensores, etc. Además, es de suma importancia que los grandes volúmenes de datos se transmitan con velocidad a fin de maximizar su valor dentro de la empresa. Estas variables deben ser dirigidas en paralelo.

-¿Qué nuevas tecnologías están disponibles para aprovechar el Big Data?
-Intel cree que toda organización y persona en el mundo debería ser capaz de obtener la inteligencia disponible en Big Data, con el fin de enriquecer nuestras vidas a través de nuevos descubrimientos científicos, modelos de negocios y experiencias de usuarios. Sin embargo, las tecnologías, técnicas y habilidades disponibles en la actualidad son muy rígidas para los tipos de datos o demasiado costosas de implementar. Intel está abordando este problema mediante la entrega de la gestión de datos abiertos y plataformas de análisis, desde el dispositivo inteligente para datacenters, con el objetivo de estimular la innovación en la industria y reducir los costes.

Por esto, la compañía ha estado aumentando sus inversiones en software desde hace varios años para ayudar a asegurar que sus procesadores sean utilizados más allá de su bastión tradicional de la computación cliente/servidor.

Así, lanzamos nuestra propia distribución de Hadoop como una medida que busca acelerar la adopción de la plataforma de Big Data sobre los procesadores Intel Xeon. Un ejemplo de esto es el análisis de un terabyte de datos en tan sólo siete minutos.

Esta distribución de Apache Hadoop incluye piezas centrales de una plataforma de análisis de datos que Intel está lanzando como software de código abierto, además de herramientas de implementación y puesta a punto que la empresa ha desarrollado y que no son de código abierto, como Intel Manager para Apache Hadoop y una herramienta para la optimización del rendimiento.

Autores

Pablo Albarracín