La carrera armamentista de inteligencia artificial es inevitable, pero ¿se puede controlar?

¡Por favor comparta esta historia!

El Foro Económico Mundial entiende que AI ha provocado una carrera armamentista internacional, pero el resultado aún no está claro. Desde una mente tecnócrata, la IA es la solución a todos los problemas sociales y personales de la humanidad.  TN Editor

Las máquinas se elevan, subyugando a la humanidad. Es un tropo de ciencia ficción que es casi tan viejo como las máquinas mismas. Los escenarios del fin del mundo girados en torno a este tema son tan extravagantes, como La matriz, en el que la inteligencia artificial creada por humanos conecta a los humanos con una realidad simulada para extraer energía de sus cuerpos; es difícil visualizarlos como amenazas serias.

Mientras tanto, los sistemas artificialmente inteligentes continúan desarrollándose rápidamente. Los autos sin conductor están comenzando a compartir nuestras carreteras; los dispositivos de bolsillo responden a nuestras consultas y gestionan nuestros horarios en tiempo real; los algoritmos nos ganaron en Go; los robots se vuelven mejores para levantarse cuando se caen. Es obvio cómo el desarrollo de estas tecnologías beneficiará a la humanidad. Pero, entonces, ¿no comienzan todas las historias de ciencia ficción distópicas de esta manera?

Cualquier discusión sobre el potencial distópico de la IA corre el riesgo de gravitar hacia uno de los dos extremos. Uno es excesivamente crédulo y trata de asustar. Por supuesto, Siri no está a punto de transformarse en HAL asesino de 2001: Una odisea del espacio. Pero el otro extremo es igualmente peligroso: la complacencia de que no necesitamos pensar en estos temas, porque la IA que amenaza la humanidad está a décadas o más de distancia.

Es cierto que la "superinteligencia" artificial amada por la ciencia ficción puede ser muchas décadas en el futuro, si es posible. Sin embargo, un encuesta reciente de investigadores líderes en IA realizada por TechEmergence Encontró una gran variedad de preocupaciones sobre los peligros de seguridad de la IA en un marco de tiempo 20 mucho más realista, incluido el colapso del sistema financiero a medida que los algoritmos interactúan inesperadamente y el potencial de la IA para ayudar a los actores maliciosos a optimizar las armas biotecnológicas.

Estos ejemplos muestran cómo, junto con el progreso tecnológico en muchos frentes, la Cuarta Revolución Industrial promete una democratización rápida y masiva de la capacidad de causar estragos a gran escala. En el lado oscuro de la "red profunda", donde la información está oculta de los motores de búsqueda, ya existen herramientas destructivas en una gama de tecnologías emergentes, desde armas impresas con 3D hasta material fisible y equipos para ingeniería genética en laboratorios domésticos. En cada caso, la IA exacerba el potencial de daño.

Considere otra posibilidad mencionada en la encuesta TechEmergence. Si combinamos una pistola, un dron quadrocopter, una cámara de alta resolución y un algoritmo de reconocimiento facial que no necesitaría ser mucho más avanzado que el corriente mejor en su clase, en teoría podríamos hacer una máquina que podamos programar para volar sobre multitudes, buscando caras particulares y asesinando objetivos a la vista.

Tal dispositivo no requeriría superinteligencia. Es concebible usar IA actual, "estrecha" que aún no puede dar el tipo de salto creativo de comprensión a través de distintos dominios que los humanos pueden. Cuando se desarrolla la "inteligencia general artificial", o AGI, como parece probable, tarde o temprano, aumentará significativamente los beneficios potenciales de la IA y, en el palabras de Jeff Goddell, sus riesgos de seguridad, "forzando un nuevo tipo de contabilidad con el genio tecnológico".

Pero no se está pensando lo suficiente sobre el potencial armable de la IA. Como Wendell Wallach dice: "Navegar por el futuro de las posibilidades tecnológicas es una empresa peligrosa", observa. "Comienza aprendiendo a hacer las preguntas correctas, preguntas que revelan las trampas de la inacción y, lo que es más importante, los pasillos disponibles para trazar un curso hacia un puerto seguro".

Desafíos de no proliferación

Destacados académicos que incluyen Stuart Russell han emitido un llamado a la acción para evitar "posibles dificultades" en el desarrollo de IA que ha sido Respaldados por destacados tecnólogos como Elon Musk, Demis Hassabis, Steve Wozniak y Bill Gates. Una trampa de alto perfil podría ser "sistemas letales de armas autónomas" (LEYES) o, más coloquialmente, "robots asesinos". Los avances tecnológicos en robótica y la transformación digital de la seguridad ya han cambiado el paradigma fundamental de la guerra. Conforme a Christopher Coker "La tecnología del siglo 21 está cambiando nuestra comprensión de la guerra de maneras profundamente inquietantes". Las LEYES completamente desarrolladas probablemente transformarán la guerra moderna tan dramáticamente como la pólvora y las armas nucleares.

El Consejo de Derechos Humanos de la ONU tiene pidió una moratoria sobre el desarrollo posterior de LAWS, mientras que otros grupos activistas y campañas han abogado por una prohibición total, estableciendo una analogía con las armas químicas y biológicas, que la comunidad internacional considera más allá de los límites. Por tercer año consecutivo, los Estados miembros de las Naciones Unidas se reunieron el mes pasado para debatir el llamado a la prohibición y cómo garantizar que cualquier desarrollo adicional de las LEYES se mantenga dentro del derecho internacional humanitario. Sin embargo, cuando la tecnología de armas innovadoras ya no se limita a unos pocos ejércitos grandes, los esfuerzos de no proliferación se vuelven mucho más difíciles.

El debate se complica por el hecho de que las definiciones permanecen sumidas en la confusión. Las plataformas, como los drones, se confunden comúnmente con las armas que se pueden cargar en las plataformas. La idea de que se solicite a los sistemas que ejecuten tareas definidas de manera limitada, como identificar y eliminar vehículos blindados que se mueven en un área geográfica específica, no siempre se distingue de la idea de que los sistemas tengan un alcance discrecional para interpretar misiones más generales, como “ganar la guerra" .

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

0 Comentarios
Comentarios en línea
Ver todos los comentarios