Ex ingeniero de Google: 'Killer Robots' podría comenzar la guerra

¡Por favor comparta esta historia!
image_pdfimage_print
A medida que los gobiernos intensifican la carrera armamentista de la IA para dirigir robots autónomos con una 'licencia para matar', también aumenta el riesgo de errores horribles, incluida la posibilidad de comenzar una guerra de robots. ⁃ TN Editor

Una nueva generación de armas autónomas o "robots asesinos" podría iniciar accidentalmente una guerra o causar atrocidades masivas, un antiguo top Google El ingeniero de software ha advertido.

Laura Nolan, quien renunció a Google el año pasado en protesta por ser enviada a trabajar en un proyecto para mejorar dramáticamente Militar de Estados Unidos La tecnología de drones ha pedido que se prohíban todas las máquinas de matar AI que no sean operadas por humanos.

Nolan dijo que los robots asesinos no guiados por el control remoto humano deberían ser prohibidos por el mismo tipo de tratado internacional que prohíbe las armas químicas.

A diferencia de los drones, que son controlados por equipos militares a menudo a miles de kilómetros de donde se está desplegando el arma voladora, Nolan dijo que los robots asesinos tienen el potencial de hacer "cosas calamitosas para las que no fueron programados originalmente".

No hay ninguna sugerencia de que Google esté involucrado en el desarrollo de sistemas de armas autónomos. El mes pasado, un panel de expertos gubernamentales de la ONU debatió sobre las armas autónomas y descubrió que Google evitaba la IA para su uso en sistemas de armas y se involucraba en las mejores prácticas.

Nolan, quien se ha unido al Campaña detener a los robots asesinos y ha informado a los diplomáticos de la ONU en Nueva York y Ginebra sobre los peligros que representan las armas autónomas, dijo: "La probabilidad de un desastre es proporcional a cuántas de estas máquinas estarán en un área particular a la vez. Lo que está viendo son posibles atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se implementan cientos o miles de estas máquinas.

“Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada. Es por eso que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos ".

Google reclutó a Nolan, un graduado en informática del Trinity College de Dublín, para trabajar en el Proyecto Maven en 2017 después de haber sido empleada por el gigante tecnológico durante cuatro años, convirtiéndose en una de sus mejores ingenieros de software en Irlanda.

Ella dijo que estaba "cada vez más preocupada éticamente" por su papel en el programa Maven, que fue diseñado para ayudar al Departamento de Defensa de los Estados Unidos a acelerar drásticamente la tecnología de reconocimiento de video de drones.

En lugar de utilizar una gran cantidad de operativos militares para pasar horas y horas de imágenes de video de drones de posibles objetivos enemigos, se pidió a Nolan y otros que construyeran un sistema en el que las máquinas de IA pudieran diferenciar personas y objetos a una velocidad infinitamente más rápida.

Google permitió que el contrato del Proyecto Maven caducara en marzo de este año después de que más de 3,000 de sus empleados firmó una petición en protesta por la participación de la compañía.

“Como ingeniero de confiabilidad del sitio, mi experiencia en Google consistía en garantizar que nuestros sistemas e infraestructuras se mantuvieran en funcionamiento, y esto es con lo que se suponía que debía ayudar a Maven. Aunque no participé directamente en acelerar el reconocimiento del metraje de video, me di cuenta de que todavía era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas sean atacadas y asesinadas por el ejército de los EE. UU. en lugares como Afganistán ".

Aunque renunció al Proyecto Maven, Nolan ha predicho que las armas autónomas que se están desarrollando representan un riesgo mucho mayor para la raza humana que los drones a control remoto.

Ella describió cómo las fuerzas externas que van desde el cambio de los sistemas climáticos hasta las máquinas que no pueden resolver el comportamiento humano complejo podrían desviar a los robots asesinos, con posibles consecuencias fatales.

“Podría tener un escenario en el que las armas autónomas que se han enviado para hacer un trabajo confronten señales de radar inesperadas en un área que están buscando; podría haber un clima que no se incluyó en su software o se toparon con un grupo de hombres armados que parecen ser enemigos insurgentes pero que, de hecho, están fuera con armas buscando caza. La máquina no tiene el discernimiento o el sentido común que tiene el toque humano.

“La otra cosa aterradora de estos sistemas de guerra autónomos es que solo puedes probarlos realmente desplegándolos en una zona de combate real. Tal vez eso está sucediendo con los rusos actualmente en Siria, ¿quién sabe? Lo que sí sabemos es que, en la ONU, Rusia se ha opuesto a cualquier tratado y mucho menos prohibir estas armas por cierto.

“Si está probando una máquina que está tomando sus propias decisiones sobre el mundo que lo rodea, entonces tiene que ser en tiempo real. Además, ¿cómo se entrena un sistema que se ejecuta únicamente en software para detectar comportamientos humanos sutiles o discernir la diferencia entre cazadores e insurgentes? ¿Cómo distingue la máquina de matar en su propio vuelo sobre el combatiente de 18 y el de 18 que está cazando conejos?

Lea la historia completa aquí ...

¡Únete a nuestra lista de correos!


Suscríbete
Notificar de
invitado
1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Steve

Esto me recuerda a esa escena de War Games, un poco anticuada para ver ahora, pero muy relevante. https://www.youtube.com/watch?v=NHWjlCaIrQo