Expertos: las naciones europeas deberían prohibir la calificación del crédito social

Europa
¡Por favor comparta esta historia!
image_pdfimage_print
Los tecnócratas de la UE están empeñados en la vigilancia total y el control de las personas, pero un grupo asesor independiente de alto nivel advirtió contra el uso de la inteligencia artificial para la vigilancia masiva y la puntuación del crédito social. ⁃ Editor TN

Un grupo de expertos independientes encargado de asesorar a Comisión Europea Para informar su respuesta regulatoria a la inteligencia artificial, para respaldar el objetivo declarado de los legisladores de la UE de garantizar que los desarrollos de IA estén "centrados en el ser humano", ha publicado sus recomendaciones de política e inversión.

Esto sigue las pautas de ética anteriores para la "IA confiable", presentada por el Grupo de Expertos de Alto Nivel (HLEG) para IA nuevamente en Abril, cuando la Comisión también solicitó a los participantes que probaran el proyecto de reglas.

Las recomendaciones de políticas completas de AI HLEG comprenden un documento de página 50 altamente detallado, que se puede descargar desde este página web. El grupo, que se creó en junio 2018, está compuesto de una mezcla de expertos en IA de la industria, representantes de la sociedad civil, asesores políticos y expertos en políticas, académicos y expertos legales.

El documento incluye advertencias sobre el uso de IA para la vigilancia y puntuación masiva de ciudadanos de la UE, como Sistema de credito social de china, con el grupo pidiendo una prohibición total de "puntuación de individuos en escala masiva habilitada por IA". También insta a los gobiernos a comprometerse a no participar en la vigilancia general de las poblaciones con fines de seguridad nacional. (Entonces quizás sea mejor que el Reino Unido haya votado para abandonar la UE, dado el poder de vigilancia estatal se convirtió en ley al final de 2016.)

"Si bien puede haber una fuerte tentación para que los gobiernos 'aseguren la sociedad' mediante la construcción de un sistema de vigilancia generalizado basado en sistemas de inteligencia artificial, esto sería extremadamente peligroso si se empujara a niveles extremos", escribe el HLEG. "Los gobiernos deben comprometerse a no participar en la vigilancia masiva de personas y desplegar y procurar solo sistemas de IA confiables, diseñados para ser respetuosos de la ley y los derechos fundamentales, alineados con principios éticos y robustos socio-técnicamente".

El grupo también pide que se "contrarreste" la vigilancia comercial de las personas y las sociedades, sugiriendo que la respuesta de la UE a la potencia y el potencial para el mal uso de las tecnologías de inteligencia artificial debería incluir garantizar que el seguimiento de personas en línea esté "estrictamente en línea con los derechos fundamentales como la privacidad ", Incluido (el grupo especifica) cuando se trata de servicios" gratuitos "(aunque con una ligera advertencia sobre la necesidad de considerar cómo se ven afectados los modelos de negocio).

La semana pasada, el perro guardián de protección de datos del Reino Unido disparó un tiro aún más específico a la industria de la publicidad conductual en línea, advirtiendo que el procesamiento a gran escala de adtech de los datos personales de los usuarios web para orientar anuncios no cumple con los estándares de privacidad de la UE. Se le dijo a la industria que sus prácticas que infringen los derechos deben cambiar, incluso si la Oficina del Comisionado de Información no está a punto de derribar el martillo todavía. Pero la advertencia de reforma fue clara.

Mientras los legisladores de la UE trabajan en la elaboración de un marco regulatorio que respete los derechos para la IA, buscando dirigir los próximos diez años + de desarrollos tecnológicos de vanguardia en la región, la atención y el escrutinio más amplios que atraerán las prácticas digitales y los modelos de negocios parecen estar listos para impulsar una limpieza de las prácticas digitales problemáticas que han podido proliferar bajo ninguna regulación táctil o muy ligera, antes de ahora.

El HLEG también pide apoyo para desarrollar mecanismos para la protección de datos personales y para que las personas "controlen y se empoderen con sus datos", lo que, según ellos, abordaría "algunos aspectos de los requisitos de la IA confiable".

"Las herramientas deben desarrollarse para proporcionar una implementación tecnológica del GDPR y desarrollar la preservación de la privacidad / privacidad mediante el diseño de métodos técnicos para explicar los criterios, la causalidad en el procesamiento de datos personales de los sistemas de inteligencia artificial (como el aprendizaje automático federado)", escriben.

“Apoyar el desarrollo tecnológico de las técnicas de anonimización y encriptación y desarrollar estándares para el intercambio seguro de datos basado en el control de datos personales. Promover la educación del público en general en la gestión de datos personales, incluida la conciencia y el empoderamiento de los individuos en los procesos de toma de decisiones basados ​​en datos personales de AI. Cree soluciones tecnológicas para proporcionar a las personas información y control sobre cómo se utilizan sus datos, por ejemplo, para la investigación, la gestión del consentimiento y la transparencia a través de las fronteras europeas, así como cualquier mejora y resultado que se derive de esto, y desarrolle estándares de seguridad intercambio de datos basado en el control de datos personales ".

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado
1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios