AI de lectura de caras le dice a la policía cuándo estás mintiendo

detección de mentiras
¡Por favor comparta esta historia!
La policía tiene poca moderación en el uso de tecnología que se sabe que tiene serios problemas de precisión, como es el caso de la IA que realiza análisis predictivos previos al delito, detección de mentiras y reconocimiento facial. ⁃ TN Editor

La investigación del psicólogo estadounidense Paul Ekman sobre expresiones faciales generó una carrera completamente nueva de detectores de mentiras humanas hace más de cuatro décadas. La inteligencia artificial pronto podría tomar su trabajo.

Si bien los Estados Unidos han sido pioneros en el uso de tecnologías automatizadas para revelar las emociones y reacciones ocultas de los sospechosos, la técnica aún es incipiente y una gran cantidad de emprendimientos empresariales están trabajando para hacerlo más eficiente y menos propenso a las señales falsas.

Facesoft, una empresa emergente del Reino Unido, dice que ha construido una base de datos de 300 millones de imágenes de caras, algunas de las cuales han sido creadas por un sistema de IA modelado en el cerebro humano, informó The Times. El sistema creado por la compañía puede identificar emociones como la ira, el miedo y la sorpresa basadas en microexpresiones que a menudo son invisibles para el observador casual.

"Si alguien sonríe sin sinceridad, su boca puede sonreír, pero la sonrisa no llega a sus ojos: las microexpresiones son más sutiles que eso y más rápidas", cofundador y director ejecutivo, Allan Ponniah, quien también es cirujano plástico y reconstructivo. en Londres, le dijo al periódico.

Facesoft se ha acercado a la policía en Mumbai sobre el uso del sistema para monitorear multitudes para detectar la dinámica de la mafia en evolución, dijo Ponniah. También ha promocionado su producto a las fuerzas policiales en el Reino Unido.

El uso de algoritmos de IA entre la policía ha suscitado controversia recientemente. Un grupo de investigación cuyos miembros incluyen Facebook Inc., Microsoft Corp., Alphabet Inc., Amazon.com Inc. y Apple Inc. publicó un informe en abril que indica que los algoritmos actuales destinados a ayudar a la policía a determinar a quién se debe otorgar la libertad bajo fianza, la libertad condicional o la libertad condicional, y que ayudan a los jueces a tomar decisiones de sentencia, son potencialmente parciales, opacos y es posible que ni siquiera funcionen.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios