Si ver para creer, prepárate para ser engañado

Wikipedia Commons
¡Por favor comparta esta historia!
Cuando el mundo ecológico tiene en sus manos un software de inteligencia artificial 'profundamente falso', pueden crear imágenes de la tierra que no pueden detectarse como falsas, insertando cosas que no están allí y eliminando las que están allí. Olvídese de "mentir con las estadísticas"; Ahora está mintiendo con imágenes. ⁃ Editor TN

Paso 1: usa AI para hacer cambios indetectables en las fotos al aire libre. Paso 2: suéltalos en el mundo de código abierto y disfruta del caos.

Se preocupa por falsificaciones profundas—Los videos manipulados por máquinas de celebridades y líderes mundiales que supuestamente dicen o hacen cosas que realmente no hicieron — son pintorescos en comparación con una nueva amenaza: imágenes manipuladas de la Tierra misma.

China es el líder reconocido en el uso de una técnica emergente llamada redes generativas de confrontación para engañar a las computadoras para que vean objetos en paisajes o en imágenes satelitales que no están allí, dice Todd Myers, líder de automatización y Director de Información en la Oficina del Director de Tecnología en la Agencia Nacional de Inteligencia Geoespacial.

“Los chinos están muy por delante de nosotros. Esta no es información clasificada ”, dijo Myers el jueves en la segunda reunión anual. Máquinas geniales cumbre, organizada por Defensa Uno y  Nextgov. “Los chinos ya han diseñado; ya lo están haciendo ahora, utilizando GAN, que son redes de confrontación generativas, para manipular escenas y píxeles para crear cosas por nefastas razones ".

Por ejemplo, dijo Myers, un adversario podría engañar a sus analistas de imágenes asistidos por computadora para que informen que un puente cruza un río importante en un punto dado.

“Entonces, desde una perspectiva táctica o planificación de la misión, entrenas a tus fuerzas para ir a una ruta determinada, hacia un puente, pero no está allí. Entonces hay una gran sorpresa esperándote ”, dijo.

Primero descrito en 2014, Las GAN representan una gran evolución en la forma en que las redes neuronales aprenden a ver y reconocer objetos e incluso detectar la verdad de la ficción.

Supongamos que le pide a su red neuronal convencional que averigüe qué objetos son qué en las fotos de satélite. La red dividirá la imagen en múltiples piezas, o grupos de píxeles, calculará cómo se relacionan esas piezas rotas entre sí y luego tomará una determinación sobre cuál es el producto final o si las fotos son reales o manipuladas. Todo se basa en la experiencia de mirar muchas fotos satelitales.

Las GAN invierten ese proceso al enfrentar dos redes entre sí, de ahí la palabra "adversario". Una red convencional podría decir: "La presencia de x, y y z en estos grupos de píxeles significa que esta es una imagen de un gato". Pero una red GAN podría decir: “Esta es una imagen de un gato, por lo que x, y y z deben estar presentes. ¿Qué son x, y y z y cómo se relacionan? ”La red de adversarios aprende a construir, o generar, x, y, y z de una manera que convence a la primera red neuronal, o al discriminador, de que hay algo allí. cuando, tal vez, no lo es.

Muchos académicos han encontrado que las GAN son útiles para detectar objetos y clasificar imágenes válidas de falsas. En 2017, los eruditos chinos usaban GAN para identificar carreteras, puentes y otras características en fotos satelitales.

La preocupación, como tecnólogos de IA les dijo a Quartz el año pasado, es que la misma técnica que puede distinguir los puentes reales de los falsos también puede ayudar a crear puentes falsos que la IA no puede distinguir de los reales.

A Myers le preocupa que a medida que el mundo se base cada vez más en imágenes de código abierto para comprender el terreno físico, solo un puñado de conjuntos de datos manipulados por expertos ingresados ​​en la línea de suministro de imágenes de código abierto podría crear estragos. “Olvídate del [Departamento de Defensa] y la [comunidad de inteligencia]. ¿Imagina que Google Maps se infiltra con eso, a propósito? E imagine cinco años a partir de ahora cuando el Tesla [auto-conducción] semis ¿hay cosas de enrutamiento por ahí? ”, dijo.

Cuando se trata de videos falsos profundos de personas, indicadores biométricos como el pulso y el habla pueden vencer el efecto falso. Pero el paisaje falso no es vulnerable a las mismas técnicas.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios