BCI: The Frontier of Mind Reading Tech está muy cerca

BCIYouTube
¡Por favor comparta esta historia!
image_pdfimage_print
Los tecnócratas se esfuerzan por penetrar en su mente para leer sus pensamientos. Las interfaces cerebro-computadora junto con la IA tendrán una gran demanda corporativa y perderá toda la privacidad. ⁃ TN Editor

Las compañías de redes sociales ya pueden usar datos en línea para hacer conjeturas confiables sobre el embarazo o la ideación suicida, y la nueva tecnología BCI lo impulsará aún más.

IEstá lloviendo en su camino a la estación después del trabajo, pero no tiene paraguas. Por el rabillo del ojo, ves una chaqueta de lluvia en un escaparate. Usted piensa: "Una chaqueta de lluvia como esa sería perfecta para un clima como este".

Más tarde, cuando te desplazas por Instagram en el tren, ves una chaqueta de aspecto similar. Miras más de cerca. En realidad, es exactamente el mismo, y es una publicación patrocinada. Sientes una repentina ola de paranoia: ¿dijiste algo en voz alta sobre la chaqueta? ¿De alguna manera Instagram leyó tu mente?

Si bien los algoritmos de las redes sociales a veces parecen "conocernos" de una manera que puede parecer casi telepática, en última instancia, sus ideas son el resultado de una triangulación de millones de grabaciones externalizadas en línea acciones: clics, búsquedas, me gusta, conversaciones, compras, etc. Esta es la vida bajo vigilancia del capitalismo.

A pesar de lo poderosos que se han vuelto los algoritmos de recomendación, aún asumimos que nuestro diálogo más interno es interno a menos que se revele lo contrario. Pero los recientes avances en la tecnología de interfaz cerebro-computadora (BCI), que integra la actividad cognitiva con una computadora, podrían desafiar esto.

En el último año, los investigadores han demostrado que es posible traducir directamente de la actividad cerebral al habla o texto sintético grabando y decodificando las señales neuronales de una persona, utilizando sofisticados algoritmos de IA.

Si bien dicha tecnología ofrece un horizonte prometedor para quienes padecen afecciones neurológicas que afectan el habla, esta investigación también se está siguiendo de cerca, y ocasionalmente financiado, por empresas tecnológicas como Facebook. Proponen que un cambio a las interfaces cerebro-computadora ofrecerá una forma revolucionaria de comunicarse con nuestras máquinas y entre sí, una línea directa entre la mente y el dispositivo.

Pero, ¿el precio que pagamos por estos dispositivos cognitivos será una incursión en nuestro último bastión de privacidad real? ¿Estamos listos para renunciar a nuestra libertad cognitiva para obtener servicios en línea más optimizados y anuncios mejor orientados?

Un BCI es un dispositivo que permite la comunicación directa entre el cerebro y una máquina. Fundamental para esta tecnología es la capacidad de decodificar señales neuronales que surgen en el cerebro en comandos que pueden ser reconocidos por la máquina.

Debido a que las señales neuronales en el cerebro a menudo son ruidosas, la decodificación es extremadamente difícil. Si bien las últimas dos décadas han tenido éxito decodificando señales sensoriales-motoras en comandos computacionales, permitiendo hazañas impresionantes como emocionante un cursor a través de una pantalla con la mente o manipulando un brazo robótico: la actividad cerebral asociada con otras formas de cognición, como el habla, ha seguido siendo demasiado compleja para decodificarla.

Pero los avances en el aprendizaje profundo, una técnica de IA que imita la capacidad del cerebro para aprender de la experiencia, está cambiando lo que es posible. En abril de este año, un equipo de investigación de la Universidad de California, San Francisco, publicado resultados de un intento exitoso de traducir la actividad neuronal al habla a través de un BCI potenciado por aprendizaje profundo.

El equipo colocó pequeños conjuntos electrónicos directamente en el cerebro de cinco personas y registró su actividad cerebral, así como el movimiento de sus mandíbulas, bocas y lenguas mientras leían en voz alta los libros infantiles. Luego, estos datos se usaron para entrenar dos algoritmos: uno aprendió cómo las señales cerebrales instruían a los músculos faciales a moverse; el otro aprendió cómo estos movimientos faciales se convirtieron en habla audible.

Una vez que se entrenaron los algoritmos, nuevamente se les pidió a los participantes que leyeran los libros para niños, esta vez simplemente imitando las palabras. Usando solo datos recopilados de la actividad neuronal, los sistemas algorítmicos podrían descifrar lo que se decía y producir versiones sintéticas inteligibles de las oraciones simuladas.

Lea la historia completa aquí ...

¡Únete a nuestra lista de correos!


Suscríbete
Notificar de
invitado
1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios