En el futuro, su futuro podría depender de una serie de ceros y unos cuidadosamente calculados.
A medida que la tecnología mejora, los humanos se involucran menos en las decisiones que afectan nuestras vidas, y eso no es exactamente algo bueno.
A medida que la inteligencia artificial gana terreno, los profesores universitarios de la Universidad de Massachusetts-Amherst han desarrollado un programa para evaluar el software en busca de sesgos y discriminación.
Sí, discriminación racial. Pero más que eso. Decisiones sanitarias. Decisiones de préstamos. Diablos, incluso cómo Amazon decide las tarifas de envío de paquetes.
"Hoy, el software determina quién obtiene un préstamo o es contratado, calcula los puntajes de evaluación de riesgos que ayudan a decidir quién va a la cárcel y quién queda en libertad, y ayuda a diagnosticar y tratar a los pacientes médicos". conforme a los desarrolladores del programa.
Con eso, es fundamental "el software no discrimina a grupos o individuos", argumentan los investigadores, agregando que su campo de estudio está "infravalorado" y "han surgido innumerables ejemplos de software injusto".
En una escuela artículo publicado para una próxima ingeniería de software conferencia, los informáticos Alexandra Meliou y Yuriy Brun, quienes crearon el programa junto con el estudiante de doctorado Sainyam Galhotra, detallan la "creciente preocupación" de la discriminación de software.
En el documento, los dos profesores pronostican la influencia creciente y creciente que el software tendrá en la vida humana en el futuro, y argumentan que el software actualmente juega un papel descomunal en la sociedad.
"En el futuro, la importancia de garantizar la equidad en el software solo aumentará", señala el documento.
Los eruditos usaron ejemplos que ilustran el prejuicio contra los ricos y los oprimidos.
Uno de los ejemplos de discriminación de software proporcionados por Brun y Meliou es la programación utilizada por Amazon.com para determinar qué áreas geográficas recibirían entrega gratuita el mismo día. Tras el lanzamiento del programa el año pasado, fue presunto que los barrios minoritarios recibieron el beneficio a una tasa mucho más baja que los barrios predominantemente blancos.
Los autores también destacan cómo el software utilizado en el sector público puede proyectar sesgos, destacando la tecnología utilizada en varios estados que calcula las puntuaciones sobre la probabilidad de que un criminal pueda cometer delitos adicionales. Según los investigadores, se ha descubierto que el software "señala falsamente a los acusados negros como futuros delincuentes, etiquetándolos de esta manera de manera errónea a casi el doble de la tasa de acusados blancos".
En nuestro sistema económico de capitalismo basado en mercados "libres", la parte de los mercados ya es 90% artificial (HFT)