Más que nunca, Facebook está bajo presión para demostrar que sus algoritmos se están implementando de manera responsable.
El miércoles, en su conferencia de desarrolladores F8, la compañía reveló que formó un equipo especial y desarrolló un software discreto para garantizar que sus sistemas de inteligencia artificial tomen decisiones de la manera más ética posible, sin prejuicios.
Me gusta Facebook otras grandes empresas tecnológicas con productos utilizados por grandes y diversos grupos de personas, es incorporando más profundamente AI en sus servicios. Facebook dijo esta semana que comenzará a ofrecer traducir los mensajes que las personas reciben a través de la aplicación Messenger. Los sistemas de traducción primero deben recibir formación sobre los datos, y el impulso ético podría ayudar a garantizar que los sistemas de Facebook aprendan a ofrecer traducciones justas.
Facebook dijo que estos esfuerzos no son el resultado de ningún cambio que haya tenido lugar en las siete semanas desde que se reveló que la firma de análisis de datos Cambridge Analytica mal uso de datos personales de los usuarios de la red social antes de las elecciones de 2016. Pero está claro que el sentimiento público hacia Facebook se ha vuelto dramáticamente negativo últimamente, tanto que el CEO mark Zuckerberg Tuve que pasar horas de interrogatorios en el Congreso el mes pasado.
Cada anuncio está ahora bajo un microscopio.
Facebook no llegó a formar una junta centrada en la ética de la inteligencia artificial, ya que Axon (anteriormente Taser) lo hizo la semana pasada. Pero los movimientos se alinean con un reconocimiento más amplio de la industria de que los investigadores de IA deben trabajar para que sus sistemas sean inclusivos. El grupo DeepMind AI de Alphabet formó equipo de ética y sociedad el año pasado. Antes de que, Microsoft La organización de investigación estableció un grupo de equidad, responsabilidad, transparencia y ética.
El campo de la IA ha tenido muchos problemas, como cuando Google Photos fue visto hace tres años. categorizando a los negros como gorilas.
El año pasado, el equipo de Kloumann desarrolló una pieza de software llamada Fairness Flow, que desde entonces se ha integrado en el ampliamente utilizado FBLearner Flow software interno para entrenar y ejecutar más fácilmente sistemas de inteligencia artificial. El software analiza los datos, teniendo en cuenta su formato, y luego produce un informe que los resume.
Kloumann dijo que ha estado trabajando en el tema de la equidad desde que se unió a Facebook en 2016, justo cuando la gente de la industria tecnológica comenzó a hablar de ello de manera más abierta y surgieron preocupaciones sociales sobre el poder de la IA.
Lea la historia completa aquí ...