Pasar al contenido principal

ES / EN

¿Pueden los robots ser peligrosos para los humanos? Mejor protegerse
Viernes, Julio 22, 2016 - 15:38

Los avances en inteligencia artificial han suscitado temores sobre el potencial dañino de los robots. ¿Podrían actuar con ética o hacer daño a los seres humanos? Así surge el primer manual sobre “uso de humanos” para robots.

Los riesgos tecnológicos de la famosa serie Black Mirror pueden estar más cerca de lo que parece. Los episodios de esta producción hacen una crítica social sobre los usos de la tecnología. Ojo, no es una crítica a cómo la tecnología está transformando la sociedad, sino hasta dónde podríamos llegar sin ética tecnológica.

Pero este no es un debate nuevo. Para nada. Hay muchos antecedentes que alertan sobre el potencial catastrófico que podría traer el desarrollo de la tecnología, en particular la relacionada a los robots y la inteligencia artificial.

De común acuerdo

Hace poco más de un año, el destacado ccientífico Stephen Hawking comentó: "En algún momento, dentro de los próximos 100 años, los computadores superarán a los seres humanos gracias a su Inteligencia Artificial. Y cuando suceda, debemos asegurarnos que comparten objetivos e ideas similares a los nuestros". El británico es uno de los permanentes observadores del desarrollo de esta temática, pero no el único.

Google también ha encendido sus alarmas. La compañía se está preparando para un escenario que parece sacado de la ciencia ficción, una especie de Terminator. Se trata de los planes para resistir un posible ataque de los robots contra la humanidad, en el caso de que la tecnología de inteligencia artificial avance tanto que las máquinas dejen de obedecer ordenes humanas.

Como consignamos en su momento, este plan está precisamente concebido como un protocolo de seguridad dentro de su sistema Artificial Deep Mind, que ya ha llamado la atención de expertos en todo el mundo por sus logros, por ejemplo, venciendo al campeón mundial de Go hace unos meses. De esta manera, el plan creado por ingenieros de Google busca detener un mal funcionamiento de esta plataforma, permitiendo que puedan tomar control de sus sistemas si la falla pudiera traer consecuencias irreversibles.

Elon Musk, el exitoso empresario sindicado como una de las emntes más brillantes de estos tiempos, llamó a la inteligencia artificial "la amenaza existencial más grande" para la humanidad, y la comparó con una "invocación al diablo". Musk también es uno de los tantos científicos y líderes tecnológicos, incluyendo al cofundador de Apple Steve Wozniak y el mencionado Stephen Hawking, quienes firmaron una carta llamando a la investigación de la inteligencia artificial para ser dirigida a crear sistemas que "hagan lo que nosotros queremos que hagan" en vez de, digamos, matarnos a todos.

Una solución a los posibles efectos secundarios de la tecnología

La tecnología podría ser la desencadenante de todo. Las consecuencias de un uso incontrolado, en manos de una sociedad cada vez menos crítica, podrían ser nefastas. ¿Dónde están los límites?

En este escenario como telón de fondo, crear un manual sobre “uso de humanos” para robots no es ninguna tontería. Un instituto de Tecnología de Georgia ha creado un programa de software de inteligencia artificial para enseñar a los robots a desenvolverse con ética en la sociedad humana.

El proyecto denominado Quijote enseña a los robots a través de meras historias, pero, ¿podrían llegar a hacer daño a los seres humanos?

La iniciativa incluye datos en el software para crear un agente virtual, en este caso, un personaje de videojuego para insertarlo en diversas historias. Así, cuando el asistente consigue pasar pantallas, gana un punto positivo a través de la acción de los personajes de las historias. Y es que, de este modo, se consigue emular historias con comportamientos sociales adecuados en esta sociedad. Después de todo, son historias basadas en educar, entretener y reflejar el conocimiento cultural y social.

“Durante años, los investigadores han debatido sobre el modo de enseñar a los robots a actuar de maneras que sean apropiadas, no intrusivas y dignas de confianza. Una cuestión importante es cómo explicar conceptos complejos, tales como política, valores o ética a los robots. Los seres humanos son muy buenos en el uso de historias narrativas que dan sentido al mundo y difundirlo entre la gente. Esto se podría hacer algún día para interactuar con los robots”, explicaba Marc Steingberg, Administrador del Programa de Investigación de la US Navy, que está supervisando este proyecto.

¿Y el futuro?

Musk y un grupo de otros grandes nombres, incluyendo al cofundador e inversor de PayPal , Peter Thiel, así como Amazon Web Services, han invertido US$1 millón a un nuevo grupo llamado OpenAI. Consiste en una compañía sin fines de lucro específicamente dirigida al desarrollo responsable de inteligencia artificial.

"Es difícil imaginar en qué nivel la inteligencia artificial podría beneficiar a la sociedad", y es igualmente difícil imaginar cuánto podría dañarla si se desarrolla o utiliza incorrectamente", dice un post del blog que anunciaba el proyecto.  Una muestra más de que la ciencia ficción está quedando poco a poco atrás para ya hablar d euna realidad.

Los abusos de la tecnología por parte del ser humano pueden desencadenar en escenarios complejos. No nos equivoquemos. En un futuro lejano (o quizás no tan lejano), acabaremos viviendo en instalaciones informatizadas y robotizadas. Una iniciativa como Quijote, codificada con patrones de comportamientos aceptables y éticos, es fundamental en una sociedad cada vez más inmersa en tecnología y redes sociales.

Con información de Silvia Martín para ThinkBig.

Autores

AETecno