El 15 de diciembre, la Fuerza Aérea de los Estados Unidos voló con éxito un copiloto de IA en un avión espía U-2 en California, lo que marcó la primera vez que la IA ha controlado un sistema militar de EE. UU. En esto Mecánica Popular EXCLUSIVO PROGRAMA, médico will roper, el subsecretario de Adquisiciones, Tecnología y Logística de la Fuerza Aérea, revela cómo él y su equipo hicieron historia.
Si Star Wars fans, un Luchador X-Wing no está completo sin R2-D2. Ya sea que necesites encender convertidores, aumentar la potencia o reparar un estabilizador roto, ese confiable droide, lleno de ruidosos pitidos y chillidos, es el copiloto definitivo.
Combinar la inteligencia artificial (IA) con los pilotos ya no es solo un asunto de ciencia ficción o películas de gran éxito. El martes 15 de diciembre, la Fuerza Aérea voló con éxito un copiloto de IA en un Avión espía U-2 en California: la primera vez que la IA ha controlado un sistema militar estadounidense.
Completando más de un millón de carreras de entrenamiento antes, el vuelo fue un pequeño paso para el copiloto computarizado, pero es un gran paso para los "informáticos" en futuras operaciones militares.
El ejército de los EE. UU. Ha luchado históricamente por desarrollar capacidades digitales. Es difícil creer que las computadoras difíciles de codificar y los datos de difícil acceso, y mucho menos la inteligencia artificial, retuvieran el hardware más letal del mundo no hace mucho tiempo en una Fuerza Aérea no muy, muy lejana.
Pero a partir de hace tres años, la Fuerza Aérea dio su propio salto gigante hacia la era digital. Finalmente descifrando el código en software militar, construimos los primeros equipos de desarrollo inspirados comercialmente del Pentágono, nubes de codificación e incluso una Internet de combate que derribó un misil de crucero a velocidades de máquina vertiginosas. Pero nuestra reciente demostración de IA es para los libros de récords militares y para los fanáticos de la ciencia ficción.
Con distintivo de llamada ARTUµ, entrenamos µZero, un programa de computadora líder en el mundo que domina el ajedrez, el Go e incluso los videojuegos sin conocimiento previo de sus reglas, para operar un avión espía U-2. Aunque carecía de esos pitidos y chillidos animados, ARTUµ superó a su homónimo de película en una característica distintiva: it era el comandante de la misión, la autoridad de decisión final en el equipo humano-máquina. Y dados los grandes riesgos de la IA global, superar la ciencia ficción debe convertirse en nuestra norma militar.
Nuestra demostración voló en una misión de reconocimiento durante un ataque con misiles simulado en la Base de la Fuerza Aérea Beale el martes. ARTUµ buscó lanzadores enemigos mientras nuestro piloto buscaba aviones amenazantes, ambos compartiendo el radar del U-2. Sin anulación del piloto, ARTUµ hizo las últimas llamadas para dedicar el radar a la caza de misiles en lugar de a la autoprotección. ¡Luke Skywalker ciertamente nunca recibió tales órdenes de su compañero de X-Wing!
El hecho de que ARTUµ estuviera al mando no se refería tanto a una misión en particular como a cuán completamente nuestros militares deben adoptar la IA para mantener la ventaja de decisión en el campo de batalla. A diferencia del desaire de Han Solo de "nunca me digas las probabilidades" de la tasa de supervivencia del campo de asteroides de C-3PO (aproximadamente 3,720 a 1), nuestros combatientes necesitan conocer las probabilidades en escenarios de combate increíblemente complejos. Trabajar en equipo con IA de confianza en todas las facetas del conflicto, incluso en ocasiones it a cargo, podría inclinar esas probabilidades a nuestro favor.
Pero para confiar en la IA, el diseño de software es clave. Como una caja de interruptores para el código, el U-2 le dio a ARTUµ un control de radar completo mientras “apagaba” el acceso a otros subsistemas. Si el escenario hubiera estado navegando asteroide campo, o más probablemente campo de radares enemigos, esos interruptores de "encendido-apagado" podrían ajustarse. El diseño permite a los operadores elegir qué IA no se cumplirán hacer para aceptar el riesgo operacional de lo que seguirá. La creación de esta caja de interruptores de software, en lugar de la de Pandora, ha sido un viaje de la Fuerza Aérea de más de unos pocos parsecs.