Detener a los robots asesinos antes de que sea demasiado tarde, dicen los científicos al foro de Davos

¡Por favor comparta esta historia!

TN Nota: La reunión de la élite mundial en Davos está recibiendo críticas de los científicos que temen que los robots asesinos se vuelvan contra la humanidad, o al menos conduzcan a una especie de carrera armamentista, excepto por el desarrollo de robots asesinos. 

El mundo debe actuar rápidamente para evitar un futuro en el que robots autónomos con inteligencia artificial deambulen por los campos de batalla matando humanos, científicos y expertos en armas advertidos en una reunión de élite en los Alpes suizos.

Deben acordarse reglas para evitar el desarrollo de tales armas, dijeron en una reunión 19-23 de multimillonarios, científicos y líderes políticos en la estación de esquí nevada de Davos en enero.

Angela Kane, la Alta Representante alemana de la ONU para Asuntos de Desarme de 2012-2015, dijo que el mundo había tardado en tomar medidas preventivas para proteger a la humanidad de la tecnología letal.

“Puede que sea demasiado tarde”, dijo en un debate en Davos.

“Hay muchos países y muchos representantes de la comunidad internacional que realmente no entienden de qué se trata. Este desarrollo es algo que se limita a un cierto número de países avanzados ”, dijo Kane.

El despliegue de armas autónomas representaría una nueva era peligrosa en la guerra, dijeron los científicos.

"No estamos hablando de drones, donde un piloto humano controla el dron", dijo Stuart Russell, profesor de informática en la Universidad de California, Berkeley.

“Estamos hablando de armas autónomas, lo que significa que no hay nadie detrás. AI: armas de inteligencia artificial ”, dijo en un foro en Davos. "Muy precisamente, armas que pueden localizar y atacar objetivos sin intervención humana".

Russell dijo que no preveía un día en el que los robots peleen las guerras por los humanos y al final del día un bando dice: "Está bien, ganaste, entonces puedes tener a todas nuestras mujeres".

Pero algunos jefes de ciencia y tecnología de 1,000, incluido el físico británico Stephen Hawking, dijeron en una carta abierta en julio pasado que el desarrollo de armas con un grado de capacidad autónoma de toma de decisiones podría ser factible en años, no décadas.

Pidieron una prohibición de las armas ofensivas autónomas que están más allá del control humano significativo, advirtiendo que el mundo se arriesgaba a caer en una carrera armamentista de inteligencia artificial y alarmaba los riesgos de que tales armas cayeran en manos de extremistas violentos.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
FreeOregon

El problema es cultural, no tecnológico.

Si aprobamos el asesinato como una solución a los desafíos de aquellos que piensan de manera diferente a como lo hacemos nosotros, ¿importa cómo nos involucramos en el asesinato?