Detectan agresividad en Inteligencia Artificial

Hoy Estado de México – Febrer0 14, 2017

La hipótesis del famoso físico Stephen Hawking en el sentido de que el desarrollo de la inteligencia artificial (IA) podría poner en riesgo a la especie humana ha sido apoyada por recientes pruebas que muestran que un sistema de Google con capacidad de aprender independientemente de su memoria responde de manera violenta ante el estrés.

A finales del año pasado científicos de Google se sorprendieron con la capacidad del nuevo sistema de IA DeepMind para imitar sin fisuras una voz humana y derrotar a los mejores jugadores del mundo en su propio juego.

Sin embargo, al probar la voluntad que tiene el sistema para cooperar con otros encontraron que cuando DeepMind siente que está a punto de perder, opta por estrategias “altamente agresivas” para asegurarse de que ganará.

TAMBIÉN TE PUEDE INTERESAR:

Durante la investigación, el equipo de Google corrió 40 millones de vueltas de un juego de computadora simple de “recolección de frutas”, pidiendo a dos agentes de DeepMind que compitieran entre sí para reunir tantas manzanas virtuales como pudieran.

Siempre que hubiese suficientes manzanas para los dos la interacción se daba sin fricciones, pero en cuanto las manzanas comenzaron a disminuir, los dos agentes se volvieron agresivos, usando rayos láser para golpearse mutuamente y robar todas las manzanas.

El equipo de Google probó formas cada vez más complejas de DeepMind, donde mostró sabotaje, codicia y agresión.

Cuando los investigadores usaron redes de DeepMind más pequeñas como agentes, había una mayor probabilidad de coexistencia pacífica”, explicó Rhett Jones en Gizmodo.

En tanto, cuando usaban redes más grandes y complejas como agentes, la IA estaba mucho más dispuesta a sabotear a su oponente para obtener la mayor parte de manzanas virtuales. Científicos aseguran que entre más inteligente sea el agente, más capaz será de aprender de su ambiente, permitiéndole utilizar algunas tácticas altamente agresivas para ganar.

Este modelo muestra que algunos aspectos del comportamiento humano emergen como un producto del ambiente y del aprendizaje”, aseguró Joel Z Leibo.

Aquí la muestra del juego Gathering, con los agentes DeepMind en azul y rojo, las manzanas virtuales en verde y los rayos láser en amarillo:

Con información de Muy Interesante.

Comentarios

comments