Los impulsores de la inteligencia artificial predicen un nuevo mundo de autos voladores y curas para el cáncer. Los detractores se preocupan por un futuro en el que los humanos sean esclavizados por una raza malvada de señores robots. El veterano científico de inteligencia artificial Eric Horvitz y el gurú del Reloj del Juicio Final Lawrence Krauss, en busca de un término medio, reunieron a un grupo de expertos en el desierto de Arizona para discutir lo peor que podría suceder y cómo detenerlo.
Su taller se llevó a cabo el fin de semana pasado en la Universidad Estatal de Arizona con fondos del cofundador de Tesla Inc., Elon Musk, y del cofundador de Skype, Jaan Tallinn. Oficialmente apodado "Visualizar y abordar los resultados adversos de la IA", era una especie de juegos del fin del mundo de la IA que organizaban a unos 40 científicos, expertos en ciberseguridad y expertos en políticas en grupos de atacantes (el equipo rojo) y defensores (el equipo azul) jugando con la IA. -Escenarios muy equivocados, que van desde la manipulación del mercado de valores hasta la guerra global.
Horvitz es optimista, algo bueno porque la inteligencia artificial es el trabajo de su vida, pero algunos otros patrocinadores del proyecto con una mentalidad más distópica parecían encontrar su perspectiva demasiado positiva cuando los planes para este evento comenzaron hace unos dos años, dijo Krauss, un teórico. físico que dirige el Proyecto Origins de ASU, el programa que ejecuta el taller. Sin embargo, Horvitz dijo que para que estas tecnologías avancen con éxito y se ganen la confianza del público en general, todas las preocupaciones deben ventilarse y abordarse por completo.
“Existe un enorme potencial para que la IA transforme tantos aspectos de nuestra sociedad de muchas maneras. Al mismo tiempo, existen asperezas y posibles inconvenientes, como cualquier tecnología ”, dijo Horvitz, director gerente del Laboratorio de Investigación de Microsoft en Redmond, Washington. "Para sacar el máximo provecho de las ventajas, también tenemos que pensar en los posibles resultados con más detalle que antes y pensar en cómo lidiar con ellos".
A los participantes se les dio "tarea" para enviar trabajos para los peores escenarios. Debían ser realistas, basados en las tecnologías actuales o en las que parezcan posibles, y de cinco a 25 años en el futuro. Los participantes con las pesadillas "ganadoras" fueron elegidos para dirigir los paneles, que incluyeron a unos cuatro expertos en cada uno de los dos equipos para discutir el ataque y cómo prevenirlo.