Pasar al contenido principal

ES / EN

Inteligencia artificial: ¿es esta innovación la "nueva electricidad"?
Viernes, Noviembre 24, 2017 - 09:22

Al igual que este tipo de energía, que transformó a todas las grandes industrias, la IA ha avanzado de tal manera que puede impactar los principales sectores industriales en los próximos años.

UniversiaKnowledge@Wharton. Tal y como la electricidad transformó el funcionamiento de las industrias en el siglo pasado, la inteligencia artificial (IA) —la ciencia que programa habilidades cognitivas en máquinas— tiene el poder de cambiar drásticamente la sociedad en los próximos 100 años. La IA está encauzándose para permitir realizar tareas como robots domésticos, taxis-robots y chatbots especializados en salud mental, todo dirigido al bienestar del usuario.

Hay un startup que desarrolla robots con IA que los acercan a la inteligencia humana. La IA, por cierto, ya se está insinuando en la vida cotidiana, ella está detrás de los asistentes digitales Siri y Alexa. Permite al consumidor comprar e investigar online con mayor precisión y eficiencia, entre otras tareas que la gente da por sentadas.

La IA está encauzándose para permitir realizar tareas como robots domésticos, taxis-robots y chatbots especializados en salud mental, todo dirigido al bienestar del usuario.

La IA es la nueva electricidad”, dijo Andrew Ng, uno de los fundadores de Coursera y profesor adjunto de Stanford, responsable de la creación del Proyecto Google de Aprendizaje Mental Profundo. La frase fue pronunciada durante la conferencia de apertura del congreso AI Frontiers (Fronteras de la IA), realizado hace unas semanas en Silicon Valley. “Hace aproximadamente 100 años, la electricidad transformó a todas las grandes industrias. La IA ha avanzado de tal manera que puede” transformar los principales sectores industriales en los próximos años. Aunque existe la percepción de que la IA es algo que se ha desarrollado recientemente, en realidad existe desde hace décadas, dijo Ng. Sin embargo, sólo ahora está despegando debido a su capacidad de trabajar con escala de datos y computación.

Ng dijo que la mayor parte del valor creado por la IA hoy en día se debe al aprendizaje supervisado, en que la entrada de X lleva a Y. Sin embargo, hubo dos grandes olas de progreso: la primera de ellas recurrió al aprendizaje profundo para hacer posibles cosas como prever si el consumidor hará clic en un anuncio online después de que el algoritmo haya reunido información acerca de ello. La segunda ola vino cuando la salida de datos dejó de ser un número o una integral dando lugar a cosas como el reconocimiento de voz, la estructura de una frase en otra lengua o un audio. Por ejemplo, en los coches autónomos, la entrada de una imagen puede llevar a una salida de datos con la posición de los otros coches en la carretera.

Aunque existe la percepción de que la IA es algo que se ha desarrollado recientemente, en realidad existe desde hace décadas

El aprendizaje profundo —en el que el ordenador aprende de un conjunto de datos a realizar funciones, en lugar de realizar tareas específicas para las que fue programado— fue fundamental para que se llegase a la paridad humana en el caso del reconocimiento de voz, dijo Xuedong Huang, líder del equipo de Microsoft con motivo de la conquista histórica de 2016, cuando su sistema registró un índice de errores del 5,9%, el mismo de una transcripción realizada por un humano. “Gracias al aprendizaje profundo, pudimos llegar a la paridad humana después de 20 años”, dijo en un congreso. Desde entonces, el equipo ha reducido aún más su índice de errores llegando al 5,1%.

*Crédito: Flickr / Kārlis Dambrāns

El auge de los asistentes digitales

A partir de 2010, la calidad del reconocimiento de voz en la industria comenzó a mejorar, lo que llevó a la creación de Siri y de Alexa. “Ahora, pasa casi desapercibido”, dijo Ng. Pero eso no es todo. El reconocimiento de voz debería ocupar el lugar de la mecanografía en la entrada de datos, dijo Ruhi Sarikaya, director de Amazon Alexa. La clave para una mayor precisión consiste en comprender el contexto. Por ejemplo, si una persona le pregunta a Alexa qué debe hacer para la cena, el asistente digital tendrá que evaluar la intención del usuario.

¿Está pidiendo a Alexa que haga una reserva en un restaurante, quiere que pida comida o encuentre una receta? Si pide a Alexa que encuentre “Hunger Games”, ¿quiere que el asistente busque la música, el vídeo o el audiolibro? Lo que el futuro reserva al asistente digital es algo aún más avanzado: comprender “el sentido más allá de las palabras”, dijo Dilek Hakkani-Tur, científico investigador de Google. Por ejemplo, si la persona usa las palabras “más tarde”, puede que se refiera a un período entre las 7 y 9 de la noche, en el caso de una cena, o entre las 3 y 4 de la tarde, en el caso de una reunión. El próximo nivel incluirá también diálogos más complejos y dinámicos, tareas en áreas variadas e interacciones entre fronteras de dominios, dijo Dilek Hakkani-Tur. Además, prosiguió Hakkani-Tur, los asistentes digitales deben ser capaces de hacer cosas como leer y resumir correos electrónicos fácilmente.

La clave para una mayor precisión consiste en comprender el contexto. Por ejemplo, si una persona le pregunta a Alexa qué debe hacer para la cena, el asistente digital tendrá que evaluar la intención del usuario. 

Después del reconocimiento de voz, la “visión de ordenador” o la capacidad de reconocer imágenes y clasificarlas, fue el salto siguiente, dijeron los oradores. Con tanta gente cargando imágenes y videos, se volvió engorroso agregar metadatos al contenido para clasificarlo. Facebook ha desarrollado una IA para comprender y clasificar videos en grandes cantidades llamada Lumos, dijo Manohar Paluri, líder del sector de investigaciones en la empresa. Facebook utiliza Lumos, por ejemplo, para recopilar datos de imágenes y videos en los que aparecen fuegos artificiales. La plataforma también puede utilizar la actitud de las personas para identificar un video: por ejemplo, clasifica como gente pasando (o matando) el tiempo a aquellos que están en posición relajada en los sofás.

Es imprescindible determinar el contenido semántico elemental del video publicado, añadió Rahul Sukthankar, director de la comprensión de vídeo de Google. Y para ayudar al ordenador a identificar correctamente el contenido del vídeo —por ejemplo, si son profesionales o aficionados los que aparecen bailando— su equipo recurre a YouTube en busca de contenido similar con el que la IA pueda aprender. Sukthankar añade que una dirección prometedora para futuras investigaciones consistirá en entrenamientos a través del ordenador usando videos. Así, si se muestra a un robot el video de una persona sirviéndose cereales en un tazón desde varios ángulos diferentes, debería aprender viendo el video.

Después del reconocimiento de voz, la “visión de ordenador” o la capacidad de reconocer imágenes y clasificarlas, fue el salto siguiente.

En Alibaba, la IA se utiliza para estimular las ventas. Por ejemplo, quien compra en Taobao, el sitio de comercio electrónico de la empresa, puede subir la imagen de un producto que le gustaría comprar: por ejemplo, un bolso de moda usado por un desconocido en la calle. El sitio mostrará entonces varios bolsos a la venta que se parecen al de la foto publicada. Alibaba recurre también a la realidad aumentada y virtual para que las personas vean y compren en tiendas como Costco. En Youku, sitio de vídeos de la empresa similar a YouTube, Alibaba está desarrollando una forma de insertar objetos virtuales en 3D en los videos publicados por los usuarios para elevar los ingresos. Esto se debe al hecho de que muchos sitios de video luchan por ser rentables. “YouTube todavía tiene pérdidas”, dijo Xiaofeng Ren, científico jefe de Alibaba.

*Crédito: Flickr / Sarah Worthy

Rosie y el robot doméstico 

Sin embargo, a pesar de todos los avances en el campo de la IA, todavía no es equiparable al cerebro humano. Vicarious es una startup cuyo objetivo es llenar esa laguna a través del desarrollo de la inteligencia de nivel humano en robots. Dileep George, fundador de la empresa, dijo que ya existen componentes para robots más inteligentes. “Tenemos motores más baratos, sensores, baterías, plásticos y procesadores […] entonces ¿por qué todavía no tenemos a Rosie?” Se refería a la empleada robot que realizaba varias funciones en los dibujos animados de los años 60, Los Jetsons, cuyas historias tenían lugar en la era espacial. George compara el nivel actual de la IA, que él llama “cerebro viejo”, con la habilidad cognitiva de los ratones. El “cerebro nuevo” es más desarrollado, tal y como vemos en primates y ballenas.

George dijo que la IA de “cerebro viejo” se siente confundida cuando hay cambios en datos de entrada de pequeño tamaño. Por ejemplo, un robot capaz de jugar videojuegos se siente confuso cuando los colores se vuelven tan solo un 2% más intensos. “La IA actual aún no está lista”, dijo. Vicarious utiliza el aprendizaje profundo para que el robot quede más cerca de la capacidad de reconocimiento del ser humano. En la misma prueba, un robot con IA de Vicarious continuó jugando aunque la intensidad de los colores había sido alterada. Otra cosa que confunde el “cerebro viejo” de la IA ocurre cuando se colocan dos objetos juntos. Las personas logran distinguir dos cosas superpuestas como, por ejemplo, una taza de café que oscurece en parte un vaso en una foto, pero los robots lo confunden con un objeto no identificado. Vicarious, que tiene entre sus inversores a Mark Zuckerberg, consejero delegado de Facebook, pretende solucionar este tipo de problema.

Dileep George, fundador de la empresa Vicarious, dijo que ya existen componentes para robots más inteligentes. “Tenemos motores más baratos, sensores, baterías, plásticos y procesadores […] entonces ¿por qué todavía no tenemos a Rosie?” 

La inteligencia en el interior de Kuri, un robot creado para cumplir funciones de compañía y de camarógrafo para el hogar, es diferente. Kaijen Hsiao, director de tecnología de la empresa de creación Mayfield Robotics, dijo que hay una cámara detrás del ojo izquierdo del robot que filma en HD. Kuri tiene sensores de profundidad que mapean la casa y usan imágenes para perfeccionar la navegación. Está equipado también con recursos para la detección de animales domésticos y de personas, de manera que pueda sonreír o reaccionar en presencia de ellos. Kuri opera también con reconocimiento espacial, de modo que pueda recordar que ya ha estado en un determinado lugar antes, aunque la iluminación se vea alterada como, por ejemplo, el ambiente de la cocina durante el día y la noche. La selección del momento es otra característica del robot, lo que le permite reconocer videos similares grabados por él —como el del padre que juega con el bebé en la sala de estar— y borrar otros parecidos.

“Su trabajo es llevar a la casa del usuario un poco de vida. El proporciona entretenimiento, puede reproducir música, podcasts, audiolibros. El usuario puede ver lo que pasa en su casa desde cualquier lugar”, dijo Hsiao. Kuri es el camarógrafo de la familia: él va por la casa grabando y no deja a nadie fuera. El robot elige los videos y muestra los mejores. Para eso, Kuri utiliza algoritmos de visión y de aprendizaje profundo. “Lo que él tiene de especial es la personalidad […] Es una compañía agradable”, dijo Hsiao. Kuri llegará al mercado en diciembre por 799 dólares.

La respuesta de las empresas a la IA

Estados Unidos y China lideran el mundo de las inversiones en IA, según explica James Manyika, presidente y director del Instituto Global McKinsey. El año pasado, la inversión en IA en América del Norte se ubicó entre US$15.000 y US$23.000 millones, en Asia (principalmente en China), el total fue de US$8.000 millones a US$12.000 millones, y Europa se situó por detrás con US$3.000 millones a US$4.000 millones. Los gigantes de la tecnología son los principales inversores en IA, volcando en el sector entre US $ 20.000 millones y US $ 30.000 millones, además de US $ 6.000 millones a US $ 9.000 millones provenientes de otros sectores, tales como capitalistas de riesgo y empresas de private equity.

¿Dónde se ha invertido ese dinero? El aprendizaje de máquina se quedó con el 56% de las inversiones, la visión a través de computadoras se situó en segundo lugar, con el 28%. El lenguaje natural representó el 7%; los vehículos autónomos, el 6%; y los asistentes virtuales recibieron el resto de las inversiones. Sin embargo, a pesar del nivel de inversión, la adopción efectiva de la IA por parte de las empresas sigue siendo limitada, incluso entre empresas que reconocen las capacidades de la IA, dijo Manyika. Cerca del 40% de ellas están analizando el tema, el 40% ya hizo experimentos y apenas el 20% adoptó de hecho la IA en algunas pocas áreas.

A pesar del nivel de inversión, la adopción efectiva de la IA por parte de las empresas sigue siendo limitada, incluso entre empresas que reconocen las capacidades de la IA

La razón de tal reticencia se explica por el hecho de que el 41% de las empresas encuestadas no están convencidas de obtener retorno con la inversión realizada; el 30% dijo que no hay propiamente un estudio de viabilidad y el resto comentó que no tienen los recursos para lidiar con la IA. Sin embargo, McKinsey cree que la IA puede más que duplicar el impacto de otras analíticas y tiene el potencial para mejorar materialmente el rendimiento de las empresas.

Algunas compañías entienden lo que esto significa. Entre los sectores que lideran el sector de IA están las empresas de telecomunicaciones y de tecnología, instituciones financieras y fabricantes de automóviles. Muchasika dijo que estas empresas pioneras en el sector suelen ser de mayor tamaño y digitalmente maduras, incorporando la IA a actividades básicas, dando prioridad al crecimiento y la innovación en detrimento del ahorro de costes, además de contar con el apoyo de los ejecutivos que dirigen la empresa. Las empresas que se demoran más en adoptar la IA son las del área de salud, viajes, servicios profesionales, educación y construcción.

Sin embargo, a medida que la IA se está ampliando, será sólo cuestión de tiempo que las empresas empiecen a usarla, dicen los expertos.

Autores

UniversiaKnowledge@Wharton