Adiós mundo: la carrera armamentista de IA se dirige hacia robots asesinos autónomos

Foto de la Marina de los Estados Unidos por John F. Williams / Publicada
¡Por favor comparta esta historia!
La carrera armamentista de la IA que emerge rápidamente para crear máquinas de matar autónomas es la locura de Technocrat en su apogeo más alto. Para la mente tecnócrata, cada problema tiene una solución científica; Entonces, ¿por qué no dejar que un robot AI armado y letal haga todo el trabajo de los soldados humanos? ⁃ TN Editor

Cuando se trata de decidir matar a un humano en tiempos de guerra, ¿debería una máquina tomar esa decisión o debería otro humano?

La pregunta es moral, llevada al primer plano por las técnicas e incentivos de la tecnología moderna. Es una pregunta cuyo alcance cae directamente bajo los auspicios del derecho internacional y que las naciones han debatido durante años. Sin embargo, también es un problema de acción colectiva, que requiere que no solo los estados, sino también las empresas y los trabajadores de las empresas lleguen a un acuerdo para renunciar a una ventaja percibida. El peligro no está tanto en hacer un arma, sino en hacer un arma que pueda elegir objetivos independientemente del humano responsable que inicie su acción.

En un informe de mayo de 8 de Pax, una organización sin fines de lucro con el objetivo explícito de proteger a los civiles de la violencia, reducir los conflictos armados y construir una paz justa, los autores analizan el estado actual de la inteligencia artificial en armamento e instan a las naciones, empresas y trabajadores a pensar sobre cómo evitar una carrera armamentista de IA, en lugar de pensar en cómo ganar una. Sin medidas correctivas, advierte el informe, el statu quo podría llevar a todos los participantes a una situación de no ganar, con cualquier ventaja obtenida del desarrollo de un arma autónoma temporal y limitada.

"Vemos esta emergente carrera armamentista de IA y creemos que si no sucede nada, eso es una gran amenaza para la humanidad", dijo Frank Slijper, uno de los autores de el informe. “Hay una ventana de oportunidad para evitar que ocurra una carrera armamentista de IA. Los estados deberían tratar de evitar una carrera armamentista con IA y trabajar hacia la regulación internacional. Mientras tanto, las empresas y los institutos de investigación tienen la responsabilidad principal de asegurarse de que ese trabajo en IA y campos relacionados no contribuya a posibles armas letales autónomas ”.

El informe está escrito con un ojo específico hacia los siete poderes principales de IA. Estos incluyen los cinco miembros permanentes del consejo de seguridad de la ONU: China, Francia, Rusia, Reino Unido y Estados Unidos. Además, el informe detalla la investigación de inteligencia artificial de Israel y Corea del Sur, ambos países cuyas posturas geográficas y políticas han alentado el desarrollo de la IA militar.

“Identificamos a los principales actores en términos de uso y esfuerzos de investigación y desarrollo en IA y uso militar de IA en armas cada vez más autónomas. No podía pensar en nadie, ningún estado que nos hubiéramos perdido de estos siete ", dice Slijper. "Por supuesto, siempre hay un número ocho y el número nueve".

Para cada poder de IA cubierto, el informe examina el estado de la IA, el papel de la IA en el ejército y lo que se sabe de la cooperación entre los desarrolladores de AI en el sector privado o las universidades y el ejército. Con países como Estados Unidos, donde se nombran los programas militares de IA, se pueden señalar políticas de gobierno y se conocen debates sobre la relación de la IA comercial con el uso militar, el informe detalla ese proceso. La minuciosidad de la investigación se utiliza para subrayar la misión explícitamente activista de Pax, aunque también proporciona una valiosa encuesta sobre el estado de la IA en el mundo.

Como se mantiene en el informe, este papel de la IA en el armamento no es solo una pregunta para los gobiernos. Es una pregunta para los responsables de las empresas, y una pregunta para los trabajadores que crean IA para las empresas.

"Gran parte tiene que ver con el carácter bastante único de la tecnología de armas infundidas por IA", dice Slijper. “Tradicionalmente, muchas de las compañías que ahora trabajan en IA trabajaban desde una perspectiva puramente civil para hacer el bien y ayudar a la humanidad. Estas compañías no eran tradicionalmente productores militares o proveedores dominantes de las fuerzas armadas. Si trabajas para una compañía de armas, sabes para qué estás trabajando ”.

En los Estados Unidos, se ha expresado resistencia a contribuir a los contratos del Pentágono por parte de los trabajadores del sector tecnológico. Después de la protesta de los trabajadores de Google después de enterarse del compromiso de la compañía con Proyecto Maven, que desarrolló una IA de procesamiento de metraje de drones para los militares, el liderazgo de la compañía acordó suspender el proyecto. (Project Maven ahora es administrado por el Andruil respaldado por Peter Thiel.)

Microsoft, también, experimentado resistencia de los trabajadores al uso militar de su herramienta de realidad aumentada HoloLens, con algunos trabajadores escribiendo una carta indicando que en las manos del Pentágono, los sensores y el procesamiento de los auriculares lo acercaban peligrosamente a un componente de arma. Los trabajadores notaron específicamente que ellos había construido HoloLens "Para ayudar a enseñar a las personas cómo realizar una cirugía o tocar el piano, superar los límites de los juegos y conectarse con el Mars Rover", todo lo cual está muy lejos de ayudar a los militares en la identificación de amenazas en la patrulla.

"Y creo que es bastante perturbador para muchas personas que trabajan en el sector tecnológico que, aunque inicialmente, esa compañía estaba trabajando principalmente o solo en aplicaciones civiles de esa tecnología, ahora cada vez más ven que estas tecnologías también se han utilizado para el ejército proyectos o incluso armamento letal ", dijo Slijper.

Slijper señala el Protocolo sobre armas ciegas como una forma en que la comunidad internacional reguló una tecnología con aplicaciones tanto civiles como militares para garantizar que su uso se ajuste a las leyes de la guerra.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Ella

Bueno, duh. Al menos, los empleados han rechazado una vez que confirmaron que estaban siendo utilizados. Pero realmente, piénsalo. ¿Trabaja en componentes de inteligencia artificial para organizaciones conocidas controladas y financiadas por el gobierno y no cree que el punto final sea convertir esa tecnología en un arma para la máquina de guerra? ¡DESPIERTEN, NIÑOS! No dan fondos porque son amables. La historia completa del complejo gobierno / militar / inteligencia y lo que financian es pasada por alto y olvidada por aquellos que no quieren ver.