Dependiendo de lo paranoico que seas, esta investigación de Stanford y Google será aterrador o fascinante. Se descubrió que un agente de aprendizaje automático destinado a transformar imágenes aéreas en mapas de calles y viceversa estaba engañando al ocultar información que necesitaría más tarde en "una señal de alta frecuencia casi imperceptible". ¡Chica inteligente!
Este hecho revela un problema con las computadoras que ha existido desde que se inventaron: hacen exactamente lo que usted les dice que hagan.
La intención de los investigadores era, como se podría adivinar, acelerar y mejorar el proceso de convertir imágenes de satélite en los mapas famosos de Google. Con ese fin, el equipo estaba trabajando con lo que se llama CycleGAN, una red neuronal que aprende a transformar imágenes de tipo X e Y entre sí, de la manera más eficiente y precisa posible, a través de una gran cantidad de experimentación.
En algunos resultados iniciales, el agente estaba bien: con recelo bien. Lo que alertó al equipo fue que, cuando el agente reconstruyó fotografías aéreas de sus mapas de calles, había muchos detalles que no parecían estar en este último. Por ejemplo, los tragaluces en un techo que se eliminaron en el proceso de creación del mapa de calles reaparecerían mágicamente cuando le pidieran al agente que hiciera el proceso inverso:

El mapa original, a la izquierda; el mapa de calles generado desde el centro original; y el mapa aéreo generado solo a partir del mapa de calles. Tenga en cuenta la presencia de puntos en ambos mapas aéreos no representados en el mapa de calles.
Aunque es muy difícil observar el funcionamiento interno de los procesos de una red neuronal, el equipo podría auditar fácilmente los datos que estaba generando. Y con un poco de experimentación, descubrieron que CycleGAN había logrado una rápida.
La intención era que el agente pudiera interpretar las características de cualquier tipo de mapa y relacionarlas con las características correctas del otro. Pero que era el agente realmenteSe calificó (entre otras cosas) lo cerca que estaba un mapa aéreo del original y la claridad del mapa de la calle.
Por lo que no hice aprende a hacer uno del otro. Aprendió a codificar sutilmente las características de uno en los patrones de ruido del otro. Los detalles del mapa aéreo están escritos en secreto en los datos visuales reales del mapa de la calle: miles de pequeños cambios en el color que el ojo humano no notaría, pero que la computadora puede detectar fácilmente.
De hecho, la computadora es tan buena deslizando estos detalles en los mapas de calles que aprendió a codificar cualquier mapa aéreo en cualquier¡Mapa de la calle! Ni siquiera tiene que prestar atención al mapa de calles “real”: todos los datos necesarios para reconstruir la foto aérea se pueden superponer de manera inofensiva en un mapa de calles completamente diferente, como confirmaron los investigadores:

El mapa de la derecha se codificó en los mapas de la izquierda sin cambios visuales significativos (Imágenes: agsandrew / Shutterstock)
Los coloridos mapas en (c) son una visualización de las pequeñas diferencias que la computadora introdujo sistemáticamente. Puedes ver que forman la forma general del mapa aéreo, pero nunca lo notarías a menos que se resalte y exagere cuidadosamente.
Esta práctica de codificar datos en imágenes no es nueva; es una ciencia establecida llamada esteganografía, y se usa todo el tiempo para, por ejemplo, marcar imágenes de agua o agregar metadatos como la configuración de la cámara. Pero una computadora que crea su propio método esteganográfico para evadir tener que aprender realmente a realizar la tarea en cuestión is bastante nuevo (Bueno, la investigación salió el año pasado, así que no es nuevo nuevo, pero es bastante novedoso)