La UE sobre la ética de la IA: debe 'mejorar el cambio social positivo'

Imagen: Comisión Europea
¡Por favor comparta esta historia!
image_pdfimage_print
Los tecnócratas de la UE definen la ética para la IA: “Bienestar ambiental y social - Los sistemas de IA deben ser sostenibles y "mejorar el cambio social positivo". Esta es la codiciada 'Ciencia de la Ingeniería Social' que se remonta al movimiento original de Tecnocracia en la década de 1930. ⁃ Editor TN
 

La Unión Europea ha publicado hoy un conjunto de pautas sobre cómo las empresas y los gobiernos deberían desarrollar aplicaciones éticas de inteligencia artificial.

Estas reglas no son como las "Tres leyes de la robótica" de Isaac Asimov. No ofrecen un marco moral ágil que nos ayudará a controlar robots asesinos. En cambio, abordan los problemas turbios y difusos que afectarán a la sociedad a medida que integramos la IA en sectores como la atención médica, la educación y la tecnología de consumo.

Entonces, por ejemplo, si un sistema de IA lo diagnostica con cáncer en algún momento en el futuro, las pautas de la UE querrían asegurarse de que ocurran una serie de cosas: que el software no esté sesgado por su raza o género, que no No anule las objeciones de un médico humano, y que le dio al paciente la opción de que le explicaran su diagnóstico.

Entonces, sí, estas pautas tratan de evitar que la IA se ejecute de manera desordenada, pero en el nivel de administración y burocracia, no en misterios de asesinato al estilo Asimov.

Para ayudar con este objetivo, la UE convocó a un grupo de expertos de 52 que presentaron siete requisitos que creen que deberían cumplir los futuros sistemas de IA. Son los siguientes:

  • Agencia humana y supervisión - La IA no debería pisotear la autonomía humana. Las personas no deben ser manipuladas o coaccionadas por los sistemas de IA, y los humanos deben poder intervenir o supervisar cada decisión que tome el software.
  • Robustez técnica y seguridad - La IA debe ser segura y precisa. No debería verse fácilmente comprometido por ataques externos (como ejemplos adversos), y debe ser razonablemente confiable.
  • Privacidad y gobierno de datos - Los datos personales recopilados por los sistemas de IA deben ser seguros y privados. No debería ser accesible para cualquiera, y no debería ser fácilmente robado.
  • Transparencia - Los datos y algoritmos utilizados para crear un sistema de IA deben ser accesibles, y las decisiones tomadas por el software deben ser "entendidas y rastreadas por los seres humanos". En otras palabras, los operadores deben poder explicar las decisiones que toman sus sistemas de IA.
  • Diversidad, no discriminación y equidad. - Los servicios proporcionados por AI deben estar disponibles para todos, independientemente de su edad, sexo, raza u otras características. Del mismo modo, los sistemas no deben estar sesgados en esta línea.
  • Bienestar ambiental y social - Los sistemas de IA deben ser sostenibles (es decir, deben ser ecológicamente responsables) y "mejorar el cambio social positivo"
  • Rendición de cuentas - Los sistemas de IA deben ser auditables y estar cubiertos por las protecciones existentes para los denunciantes corporativos. Los impactos negativos de los sistemas deben ser reconocidos y reportados de antemano.

Notarás que algunos de estos requisitos son bastante abstractos y serían difíciles de evaluar en un sentido objetivo. (Las definiciones de "cambio social positivo", por ejemplo, varían enormemente de persona a persona y de país a país). Pero otras son más directas y podrían probarse a través de la supervisión gubernamental. Compartir los datos utilizados para entrenar los sistemas de inteligencia artificial del gobierno, por ejemplo, podría ser una buena manera de luchar contra algoritmos sesgados.

Estas pautas no son legalmente vinculantes, pero podrían dar forma a cualquier legislación futura redactada por la Unión Europea. La UE ha dicho repetidamente que quiere ser un líder en IA ética, y ha demostrado con LGPD que está dispuesto a crear leyes de gran alcance que protejan los derechos digitales.

Pero este papel ha sido forzado en parte en la UE por las circunstancias. No puede competir con Estados Unidos y China, los líderes mundiales en IA, cuando se trata de inversiones e investigación de vanguardia, por lo que ha elegido la ética como su mejor apuesta para dar forma al futuro de la tecnología.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado
2 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
RL

El problema es ... La idea de las personas que hoy controlan la UE de lo que puede ser un “cambio social positivo” es, con toda probabilidad, muy diferente de lo que la población en general ve como un “cambio social positivo”. Por ejemplo, están a favor de la abolición de los estados nacionales a favor del globalismo y la inmigración ilegal sin restricciones, nosotros no. Es complicado cuando juegan con la semántica ...