Científico advierte: robots inteligentes de inteligencia artificial capaces de destruir a la humanidad

Wikipedia Commons
¡Por favor comparta esta historia!

TN Nota: Es posible que el Dr. Eden haya estado viendo demasiadas películas de ciencia ficción, pero su biografía es impresivo. Pregunta a continuación: "¿La era de lo sobrehumano marcaría el comienzo de una era en la que ha pasado la noción de ser humano?" TN publica estas historias para que el espectador comprenda que muchos científicos e ingenieros destacados realmente creen en estas cosas; o simplemente se han saltado los rieles.

Los robots de IA de pensamiento libre podrían terminar destruyendo a la humanidad o incluso cambiar por completo lo que significa ser humano si dejamos que piensen por sí mismos, advirtió un científico.

El Dr. Amnon Eden dijo que se necesita hacer más para analizar los riesgos de continuar hacia un mundo de IA.

Advirtió que nos estábamos acercando al punto de no retorno en términos de IA, sin una comprensión adecuada de las consecuencias.

El Dr. Eden dijo: “El Año Nuevo necesita ver esta controversia mal informada reemplazada por un análisis mejor informado del impacto potencial de la IA y de sus aplicaciones.

“En 2016, el análisis de riesgos de expertos debe ganar un papel mucho más importante en el pensamiento de los responsables políticos y de la toma de decisiones, de gobiernos y corporaciones”.

El Dr. Eden es director del Proyecto Sapience, un grupo de expertos que se ha formado para analizar el posible impacto disruptivo de la inteligencia artificial de inteligencia artificial.

La ciencia ficción ha explorado regularmente si los robots podrían destruir a la humanidad, más famoso en las películas de Terminator protagonizadas por Arnold Schwarzenegger.

La postura del Dr. Eden se produce después de que el profesor de Oxford Nick Bostrom dijera que la superinteligencia AI puede "avanzar hasta un punto en el que sus objetivos no sean compatibles con los de los humanos".

Afirmó que, a diferencia del cambio climático y la ingeniería genética, donde dijo que los gobiernos de todo el mundo están poniendo en marcha mecanismos para minimizar los riesgos de lo que son, "no se está haciendo nada para controlar el avance de la IA".

Bostrom dijo: "Hay un vacío de política que debe llenarse si se quiere utilizar sabiamente este avance inevitable".

Al comentar los riesgos potenciales, dijo: “Una computadora es básicamente una caja y lo que hay en ella es todo lo que puede usar, así que a menos que le digamos que la gente en los países fríos puede morir si no tiene calefacción, y eso es malo, ¿cómo? lo sabrá? ¿Cómo podemos definir qué es realmente 'bueno' o 'amigable'?

“El resultado de la singularidad puede no ser que la IA esté siendo maliciosa, pero bien puede ser que no sea capaz de 'pensar fuera de su caja' y no tenga una concepción de la moral humana.

“La otra preocupación de la IA es una que Hollywood ha estado usando durante años como tema y es el surgimiento del tipo 'Terminator' y la lucha por sobrevivir contra un ejército de robots hostiles que cambian de forma dirigidos por un AI llamado Skynet ".

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

0 Comentarios
Comentarios en línea
Ver todos los comentarios