Expertos: la única defensa contra la IA asesina no lo está desarrollando

¡Por favor comparta esta historia!
image_pdfimage_print
La IA asesina fuera de control en la guerra es inevitable porque se volverá demasiado compleja para la gestión y el control humano. La única respuesta real es no desarrollarla en primer lugar. ⁃ TN Editor

Un análisis reciente sobre el futuro de la guerra indica que los países que continúan desarrollando IA para uso militar corren el riesgo de perder el control del campo de batalla. Los que no corren el riesgo de erradicación. Ya sea que estés a favor o en contra de la carrera armamentista de la IA: está sucediendo. Esto es lo que eso significa, según un trío de expertos.

Investigadores de ASRC Federal, una empresa privada que brinda apoyo a las comunidades de inteligencia y defensa, y la Universidad de Maryland publicó recientemente un documento sobre el servidor de preimpresión ArXivdiscutir las ramificaciones potenciales de la integración de sistemas de IA en la guerra moderna.

El papel - leer aquí - se centra en las consecuencias de un futuro cercano para la carrera armamentista de IA bajo el supuesto de que AI lo hará no de alguna manera ejecutar amok o toma de control. En esencia, es una mirada corta, sobria y aterradora de cómo se desarrollará toda esta tecnología de aprendizaje automático basada en el análisis de las actuales tecnologías militares de IA de vanguardia y la integración prevista a escala.

El documento comienza con una advertencia sobre una catástrofe inminente, explicando que casi con certeza habrá un "accidente normal" con respecto a la IA, un incidente esperado de una naturaleza y alcance que no podemos predecir. Básicamente, los ejércitos del mundo romperán algunos huevos civiles haciendo que la tortilla de armas de la IA sea:

El estudio de este campo comenzó con accidentes como Three Mile Island, pero las tecnologías de IA representan riesgos similares. Encontrar y explotar estas debilidades para inducir un comportamiento defectuoso se convertirá en una característica permanente de la estrategia militar.

Si crees que los robots asesinos se escabullen en nuestras ciudades mientras los civiles corren gritando por refugio, no te equivocas, pero los robots como proxy de los soldados no son la mayor preocupación de la humanidad cuando se trata de la guerra de la IA. Este artículo discute lo que sucede después de que llegamos al punto en que resulta obvio que los humanos están reteniendo las máquinas en la guerra.

Según los investigadores, el problema no es uno que podamos enmarcar como bueno y malo. Claro que es fácil decir que no deberíamos permitir que los robots maten humanos con autonomía, pero no es así como va a funcionar el proceso de toma de decisiones del futuro.

Los investigadores lo describen como una pendiente resbaladiza:

Si los sistemas de IA son efectivos, la presión para aumentar el nivel de asistencia al guerrero sería inevitable. El éxito continuo significaría sacar gradualmente al ser humano del círculo, primero a un rol de supervisión y, finalmente, al rol de un "operador de interrupción de la muerte" que monitorea una LEY siempre activa.

LAWS, o sistemas de armas autónomos letales, escalará casi de inmediato más allá de la capacidad de los humanos para trabajar con computadoras y máquinas, y probablemente antes de lo que la mayoría de la gente piensa. El combate cuerpo a cuerpo entre máquinas, por ejemplo, será completamente autónomo por necesidad:

Con el tiempo, a medida que la IA se vuelva más capaz de pensar de forma reflexiva e integradora, el componente humano tendrá que eliminarse por completo a medida que la velocidad y la dimensionalidad se vuelvan incomprensibles, incluso teniendo en cuenta la asistencia cognitiva.

Y, eventualmente, las tácticas y la capacidad de respuesta necesarias para intercambiar golpes con IA estarán más allá del alcance de los humanos:

Dado un espacio de batalla tan abrumador que los humanos no pueden involucrarse manualmente con el sistema, el papel humano se limitará al análisis forense post hoc, una vez que las hostilidades hayan cesado o se hayan firmado los tratados.

Si esto suena un poco sombrío, es porque lo es. Como Importar IA's Jack Clark señala: "Este es un documento rápido que expone las preocupaciones de AI + War de una comunidad de la que no escuchamos con frecuencia: personas que trabajan como proveedores directos de tecnología gubernamental".

Puede ser de interés para todos prestar atención a cómo los académicos y el gobierno continúan enmarcando el problema en el futuro.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado
2 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Elle

Siempre me sorprende cómo se tiene que realizar un 'estudio' para 'determinar' las probabilidades de que se produzcan las acciones más obvias. Bueno, ¡DUH! en el frente de la IA, muchachos. Me recuerda que me invitó a cenar la esposa del director ejecutivo de una empresa de marketing. Lo defino como tal porque eso es todo de lo que hablaba. Durante la comida siguió hablando de su compañía, hasta la saciedad para el resto de nosotros. Cuando finalmente, alcanzó la recompensa. Le dijo a la mesa que su 'increíble' empresa había recibido $ 4 millones para averiguar por qué la gente eligió una.... Leer más »