Lanzamiento oficial de la ética del robot: no hacer daño, obedecer órdenes

¡Por favor comparta esta historia!

Un profesor de robótica en Inglaterra dice: “El problema con los sistemas de inteligencia artificial en este momento, especialmente estos sistemas de aprendizaje profundo, es que Es imposible saber por qué toman las decisiones que toman.“Si esto es cierto, entonces los robots ya están fuera de control.  TN Editor

Isaac Asimov nos dio las reglas básicas del buen comportamiento del robot: no dañar a los humanos, obedecer las órdenes y protegerse. Ahora el British Standards Institute ha emitido un versión más oficial destinado a ayudar a los diseñadores a crear robots éticamente sólidos.

El documento, BS8611 robots y dispositivos robóticos, está escrito en el lenguaje seco de un manual de salud y seguridad, pero los escenarios indeseables que destaca podrían tomarse directamente de la ficción. El engaño a los robots, la adicción a los robots y la posibilidad de que los sistemas de autoaprendizaje superen sus competencias se consideran riesgos que los fabricantes deben considerar.

Acogiendo con beneplácito las directrices en el Robótica Social e IA En una conferencia en Oxford, Alan Winfield, profesor de robótica en la Universidad del Oeste de Inglaterra, dijo que representaban "el primer paso para incorporar valores éticos en la robótica y la IA".

"Hasta donde yo sé, este es el primer estándar publicado para el diseño ético de los robots", dijo Winfield después del evento. "Es un poco más sofisticado que las leyes de Asimov: básicamente establece cómo hacer una evaluación de riesgo ético de un robot".

El documento BSI comienza con algunos principios éticos generales: “Los robots no deben diseñarse única o principalmente para matar o dañar a los humanos; los humanos, no los robots, son los agentes responsables; debería ser posible averiguar quién es responsable de cualquier robot y su comportamiento ".

Continúa destacando una gama de cuestiones más polémicas, como si es deseable un vínculo emocional con un robot, particularmente cuando el robot está diseñado para interactuar con niños o ancianos.

Noel Sharkey, profesor emérito de robótica e IA en la Universidad de Sheffield, dijo que este era un ejemplo de dónde los robots podrían engañarnos involuntariamente. "Hubo un estudio reciente donde pequeños robots fueron incrustados en una guardería", dijo. “A los niños les encantó y en realidad se unieron con los robots. Pero cuando se les preguntó después, los niños claramente pensaron que los robots eran más cognitivos que su mascota familiar ".

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Jerry Day

Los robots tienen que saber lo que un humano considera "daño" para poder hacer eso. Eso podría ser cualquier cosa, desde eliminar nuestros trabajos hasta comentarios microagresivos. La policía ya ha usado robots para volar a un "sospechoso" en pedazos, así que al igual que todo lo demás, el gobierno y sus robots pueden ignorar las reglas mientras nosotros y nuestros robots debemos obedecerlas.