¿Qué pasa si un robot decide que te odia?
Puede parecer una pregunta tonta, pero según la investigación, desarrollar prejuicios hacia los demás no requiere un alto nivel de capacidad cognitiva y podría ser exhibido fácilmente por robots y otras máquinas artificialmente inteligentes.
El estudio, llevado a cabo por expertos en informática y psicología de la Universidad de Cardiff y el MIT, reveló que grupos de máquinas autónomas podían demostrar prejuicios simplemente identificando, copiando y aprendiendo el comportamiento unos de otros. Los hallazgos fueron publicados en la revista. Artículo en Nature.
Los robots son capaces de formar prejuicios como los humanos.
In un comunicado de prensa, el equipo de investigación explicó que si bien puede parecer que se requeriría cognición humana para formar opiniones y estereotipar a otros, parece que ese no es el caso. El prejuicio no parece ser un fenómeno humano específico.
Algunos tipos de algoritmos informáticos ya han exhibido prejuicios como el racismo y el sexismo que las máquinas aprenden de los registros públicos y otros datos generados por los humanos. En dos instancias anteriores de IA que exhibía tal prejuicio, los chatbots de Microsoft Tay y Zo fueron cerrados después de que la gente les enseñó a decir comentarios racistas y sexistas en las redes sociales.
Esto significa que los robots podrían ser tan odiosos como los seres humanos. Y dado que son miles de veces más inteligentes que nosotros, ¿te imaginas el futuro si desarrollaron un sesgo contra la humanidad?
No se requiere aportación humana.
No es necesaria la orientación de los humanos para que los robots aprendan a disgustar a ciertas personas.
Sin embargo, este estudio mostró que la IA no necesita provocación e inspiración de los trolls para que muestre prejuicios: es capaz de formarlos por sí solo.
Para llevar a cabo la investigación, el equipo estableció simulaciones por computadora de cómo las personas con prejuicios pueden formar un grupo e interactuar entre sí. Crearon un juego de "dar y recibir", en el que cada robot de IA tomó la decisión de donar o no a otra persona dentro de su propio grupo de trabajo u otro grupo. Las decisiones se tomaron en función de la reputación de cada individuo y su estrategia de donación, incluidos sus niveles de prejuicio hacia los individuos en grupos externos.
A medida que el juego progresaba y una supercomputadora acumulaba miles de simulaciones, cada individuo comenzó a aprender nuevas estrategias copiando a otros dentro de su propio grupo o de toda la población.
Coautor del estudio, el profesor Roger Whitaker, del Instituto de Investigación de Crimen y Seguridad de la Universidad de Cardiff y de la Facultad de Informática e Informática, dijo de los hallazgos:
Al ejecutar estas simulaciones miles y miles de veces, comenzamos a comprender cómo evoluciona el prejuicio y las condiciones que lo promueven o lo impiden.
Los hallazgos involucran a individuos que actualizan sus niveles de prejuicio copiando preferentemente aquellos que obtienen un mayor beneficio a corto plazo, lo que significa que Estas decisiones no requieren necesariamente habilidades cognitivas avanzadas.
Es factible que las máquinas autónomas con la capacidad de identificarse con discriminación y copiar otras puedan ser susceptibles en el futuro de fenómenos perjudiciales que vemos en la población humana.
Muchos de los desarrollos de IA que estamos viendo involucran autonomía y autocontrol, lo que significa que el comportamiento de los dispositivos también está influenciado por otros a su alrededor. Los vehículos y el Internet de las cosas son dos ejemplos recientes. Nuestro estudio ofrece una visión teórica en la que los agentes simulados recurren periódicamente a otros para obtener algún tipo de recurso. (fuente)
Autonomía y autocontrol. ¿No es eso lo que pasó en la franquicia Terminator?
Almizcle añadido, "Con inteligencia artificial, estamos convocando al demonio".