Los investigadores encuentran que los programas de IA están aprendiendo prejuicios raciales y de género

Wikipedia Commons
¡Por favor comparta esta historia!
image_pdfimage_print

Un programa de IA que aprende de lo que los humanos saben y escriben, naturalmente detectaría todos los prejuicios y se daría cuenta de que son normales. Básicamente, esto implica que los aspectos negativos del comportamiento humano simplemente se transferirán a la Inteligencia Artificial.  TN Editor

Se ha demostrado que una herramienta de inteligencia artificial que ha revolucionado la capacidad de las computadoras para interpretar el lenguaje cotidiano exhibe sorprendentes sesgos de género y raciales.

Los hallazgos aumentan el espectro de desigualdades sociales y prejuicios existentes que se refuerzan de formas nuevas e impredecibles a medida que un número creciente de decisiones que afectan nuestra vida cotidiana se ceden a los autómatas.

En los últimos años, la capacidad de programas como Google Translate para interpretar el lenguaje ha mejorado dramáticamente. Estas ganancias han sido gracias a las nuevas técnicas de aprendizaje automático y la disponibilidad de grandes cantidades de datos de texto en línea, sobre los cuales se pueden entrenar los algoritmos.

Sin embargo, a medida que las máquinas se están acercando a la adquisición de habilidades lingüísticas similares a las de los humanos, también están absorbiendo los prejuicios profundamente arraigados ocultos en los patrones de uso del lenguaje, revela la investigación más reciente.

Joanna Bryson, científica informática de la Universidad de Bath y coautora, dijo: “Mucha gente dice que esto demuestra que la IA tiene prejuicios. No. Esto demuestra que tenemos prejuicios y que AI lo está aprendiendo ".

[the_ad id = "11018 ″]

Pero Bryson advirtió que la IA tiene el potencial de reforzar los prejuicios existentes porque, a diferencia de los humanos, los algoritmos pueden no estar equipados para contrarrestar de manera consciente los prejuicios aprendidos. "Sería peligroso si tuvieras un sistema de IA que no tuviera una parte explícita impulsada por ideas morales, eso sería malo", dijo.

La investigación, publicada en la revista Ciencia, se centra en una herramienta de aprendizaje automático conocida como "incrustación de palabras", que ya está transformando la forma en que las computadoras interpretan el habla y el texto. Algunos sostienen que el siguiente paso natural para la tecnología puede involucrar máquinas que desarrollan habilidades similares a las humanas, como el sentido común y la lógica.

"Una razón importante por la que elegimos estudiar la inserción de palabras es que han tenido un éxito espectacular en los últimos años para ayudar a las computadoras a dar sentido al lenguaje", dijo Arvind Narayanan, científico informático de la Universidad de Princeton y autor principal del artículo.

El enfoque, que ya se utiliza en la búsqueda web y la traducción automática, funciona mediante la construcción de una representación matemática del lenguaje, en el que el significado de una palabra se destila en una serie de números (conocidos como vectores de palabras) en función de qué otras palabras con mayor frecuencia aparecen a su lado. Quizás sorprendentemente, este enfoque puramente estadístico parece capturar el rico contexto cultural y social de lo que significa una palabra en la forma en que una definición de diccionario sería incapaz de hacerlo.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado
1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Nigel

El prejuicio es parte de la condición humana: nos asociamos con personas que se ven como nosotros, nos reunimos en grupos que son como nosotros y mantenemos nuestros puntos de vista, miramos con sospecha a quienes no lo son y no lo hacen, ese es nuestro camino evolutivo. Este es otro punto de división identificado por esta tecnocracia: es un insulto, una tensión colocada en la estructura misma de quiénes somos. Negarnos nuestras diferencias y negarnos a permitirnos celebrarlas es contrario a nuestra naturaleza, nos causa una profunda angustia y apuntar a lo que... Leer más »