Científicos: los datos y la inteligencia artificial pueden decir quién está mintiendo

Fotos de la Universidad de Rochester / J. Adam Fenster
¡Por favor comparta esta historia!
A medida que proliferen los algoritmos de análisis facial de IA, se implementarán en todas las aplicaciones y circunstancias imaginables. Sin embargo, tal software nunca será 'certificado' como 100% efectivo, creando un caos social a medida que vuelan las acusaciones. Los científicos tecnócratas que inventan estas cosas no tienen una visión de la ética o las implicaciones sociales. ⁃ Editor TN

Alguien está inquieto en una larga fila en una puerta de seguridad del aeropuerto. ¿Está esa persona simplemente nerviosa por la espera?

¿O es este un pasajero que tiene algo siniestro que ocultar?

Incluso los oficiales de seguridad aeroportuaria de la Administración de Seguridad del Transporte (TSA) altamente capacitados aún tienen dificultades para decir si alguien está mintiendo o diciendo la verdad, a pesar de los miles de millones de dólares y años de estudio que se han dedicado al tema.

Ahora, los investigadores de la Universidad de Rochester están utilizando ciencia de datos y un marco de crowdsourcing en línea llamado ADDR (Automated Dyadic Data Recorder) para ampliar nuestra comprensión del engaño basado en señales faciales y verbales.

También esperan minimizar los casos de perfil racial y étnico que los críticos de la TSA sostienen que ocurre cuando los pasajeros son apartados bajo el programa de Técnicas de Observación (SPOT, por sus siglas en inglés) de la agencia.

"Básicamente, nuestro sistema es como Skype con esteroides", dice Tay Sen, un estudiante de doctorado en el laboratorio de Ehsan Hoque, profesor asistente de Ciencias de la Computación. Sen colaboró ​​estrechamente con Karmul Hasan, otro estudiante de doctorado en el grupo, en dos documentos en IEEE Reconocimiento Automático de Rostros y Gestos y Actas de la ACM sobre tecnologías interactivas, móviles, portátiles y ubicuas. Los documentos describen el marco que el laboratorio ha utilizado para crear el mayor conjunto de datos de engaño disponible públicamente hasta ahora, y por qué algunas sonrisas son más engañosas que otras.

El juego revela la verdad detrás de una sonrisa

Así es como funciona ADDR: dos personas se registran en Amazon Mechanical Turk, el mercado de internet de crowdsourcing que une a las personas con las tareas que las computadoras actualmente no pueden hacer. Un video asigna a una persona para ser el descriptor y la otra para ser el interrogador.

A continuación, se muestra una imagen al descriptor y se le indica que memorice tantos detalles como sea posible. La computadora le indica al descriptor que mienta o diga la verdad sobre lo que acaba de ver. El interrogador, que no ha estado al tanto de las instrucciones para el descriptor, luego le hace al descriptor una serie de preguntas de referencia que no son relevantes para la imagen. Esto se hace para capturar las diferencias de comportamiento individuales que podrían usarse para desarrollar un "modelo personalizado". Las preguntas de rutina incluyen "¿qué te pusiste ayer?" - para provocar un estado mental relevante para recuperar un recuerdo - y "¿cuánto es 14 por 4?" - provocar un estado mental relevante para la memoria analítica.

"Muchas veces las personas tienden a verse de cierta manera o mostrar algún tipo de expresión facial cuando recuerdan cosas", dijo Sen. "Y cuando se les da una pregunta computacional, tienen otro tipo de expresión facial".

También son preguntas sobre las que el testigo no tendría ningún incentivo para mentir y que proporcionan una base de las respuestas "normales" de ese individuo al responder honestamente.

Y, por supuesto, hay preguntas sobre la imagen en sí, a las cuales el testigo da una respuesta veraz o deshonesta.

Todo el intercambio se graba en un video separado para su posterior análisis.

1 millones de caras

Una ventaja de este enfoque de crowdsourcing es que permite a los investigadores aprovechar un grupo mucho mayor de participantes en la investigación, y recopilar datos mucho más rápido, de lo que ocurriría si los participantes tuvieran que ser llevados a un laboratorio, dice Hoque. No tener un conjunto de datos estandarizado y consistente con una verdad fundamental confiable ha sido el mayor revés para la investigación del engaño, dice. Con el marco ADDR, los investigadores reunieron 1.3 millones de cuadros de expresiones faciales de pares de individuos 151 que juegan el juego, en unas pocas semanas de esfuerzo. Más recolección de datos está en marcha en el laboratorio.

La ciencia de datos permite a los investigadores analizar rápidamente todos esos datos de formas novedosas. Por ejemplo, utilizaron un software automatizado de análisis de características faciales para identificar qué unidades de acción se estaban utilizando en un marco dado y para asignar un peso numérico a cada una.

Luego, los investigadores utilizaron una técnica de agrupación en clústeres no supervisada: un método de aprendizaje automático que puede encontrar patrones automáticamente sin que se le asignen etiquetas o categorías predeterminadas.

Nos dijo que básicamente había cinco tipos de 'caras' relacionadas con la sonrisa que la gente hacía al responder preguntas ”, dijo Sen. La más frecuentemente asociada con la mentira fue una versión de alta intensidad de la llamada sonrisa de Duchenne que involucra los músculos de las mejillas / ojos y la boca. Esto es consistente con la teoría de "Duping Delight" de que "cuando engañas a alguien, tiendes a deleitarte", explicó Sen.

Más desconcertante fue el descubrimiento de que testigos honestos a menudo contraían sus ojos, pero no sonreían para nada con la boca. "Cuando volvimos y reproducimos los videos, descubrimos que esto a menudo ocurría cuando la gente intentaba recordar lo que había en una imagen", dijo Sen. "Esto demostró que se estaban concentrando e intentando recordar honestamente".

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Tomsen

Me pregunto cómo la gente puede vivir una vida completamente sin contenido, solo con ilusiones.
Si AI Facial puede decir quién está mintiendo, ¿por qué no lo intentaron con Al Gore, Obama, Bush y el 9 de septiembre hace mucho tiempo?
La respuesta es que la IA se basa en premisas falsas, por qué el resultado fuera de curso también debe ser falso