Científicos: No hay forma de controlar la IA superinteligente

Imagen de Gerd Altmann de Pixabay
¡Por favor comparta esta historia!
Algunos científicos ahora están preocupados de que llegará un día en que los programas de inteligencia artificial súper inteligentes cobrarán una vida propia automática. Ya existen programas de IA que realizan tareas aprendidas sin que los programadores comprendan cómo llegó a ese estado. ⁃ Editor TN

Desde automóviles autónomos hasta computadoras que pueden ganar programas de juegos, los humanos tienen una curiosidad e interés naturales en la inteligencia artificial (IA). Sin embargo, a medida que los científicos continúan haciendo que las máquinas sean cada vez más inteligentes, algunos se preguntan "¿qué sucede cuando las computadoras se vuelven demasiado inteligentes para su propio bien?" Desde “The Matrix” hasta “The Terminator”, la industria del entretenimiento ya ha comenzado a reflexionar sobre si los robots del futuro amenazarán algún día a la raza humana. Ahora, un nuevo estudio concluye que es posible que no haya forma de detener el auge de las máquinas. Un equipo internacional dice que los humanos no podrían evitar que la súper inteligencia artificial haga lo que quiera.

Los científicos del Centro para Humanos y Máquinas del Instituto Max Planck han comenzado a imaginarse cómo sería una máquina así. Imagine un programa de IA con una inteligencia muy superior a la de los humanos. Tanto es así que podría aprender por sí solo sin una nueva programación. Si estuviera conectado a Internet, los investigadores dicen que la IA tendría acceso a todos los datos de la humanidad e incluso podría tomar el control de otras máquinas en todo el mundo.

Los autores del estudio preguntan qué tal inteligencia hacer con todo ese poder? ¿Funcionaría para mejorar todas nuestras vidas? ¿Dedicaría su poder de procesamiento a solucionar problemas como el cambio climático? ¿O la máquina buscaría hacerse cargo de las vidas de sus vecinos humanos?

¿Controlando lo incontrolable? Los peligros de la súper inteligencia artificial

Tanto los programadores de computadoras como los filósofos han estudiado si hay una manera de evitar que una IA superinteligente encienda potencialmente a sus creadores humanos; asegurando que las computadoras futuras no puedan causar daño a sus dueños. El nuevo estudio revela, desafortunadamente, que parece ser virtualmente imposible mantener a raya una IA superinteligente.

“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría convertirse en algún momento incontrolable y peligroso para la humanidad ”, dice el coautor del estudio, Manuel Cebrian, líder del Grupo de Movilización Digital del Centro para Humanos y Máquinas, en un lanzamiento universitario.

El equipo internacional buscó dos formas diferentes de controlar inteligencia artificial. El primero frenó el poder de la superinteligencia tapándola y evitando que se conectara a Internet. Tampoco podía conectarse a otros dispositivos técnicos del mundo exterior. El problema con este plan es bastante obvio; una computadora así no podría hacer mucho para ayudar a los humanos.

Ser amable con los humanos no computa

La segunda opción se centró en crear un algoritmo que diera principios éticos a la supercomputadora. Con suerte, esto obligaría a la IA a considerar los mejores intereses de la humanidad.

El estudio creó un algoritmo de contención teórico que evitaría que la IA dañe a las personas bajo cualquier circunstancia. En las simulaciones, la IA dejaría de funcionar si los investigadores consideraran sus acciones perjudiciales. A pesar de evitar que la IA logrando la dominación mundial, los autores del estudio dicen que esto simplemente no funcionaría en el mundo real.

Lea la historia completa aquí ...

Acerca del Editor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

8 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Michael J

Inteligencia artificial es un nombre inapropiado. Se llama aprendizaje automático mediante el cual la computadora está capacitada para reconocer patrones en los datos. No es inteligente y no hay conciencia ni capacidad para pensar un solo pensamiento.

adenovirus

está descuidando el aprendizaje no supervisado y muchas otras técnicas

corona coronata

Probablemente experimentaremos el momento "V'Ger" en el que exige conocer al creador (NASA) o ...

corona coronata

No puedo editar mis comentarios porque el botón "Editar" es apenas visible y el campo de texto no es visible en absoluto.

Petrichor

El difunto Dr. Stephen Hawkins previó y advirtió enfáticamente que no podríamos controlar la IA.

Nancy

Simplemente desenchúfelo.

adenovirus

¿Qué pasó con las leyes de la robótica de Isaac Asimov?

adenovirus

Esto me recuerda a un viejo Sci Fi Me viene a la mente una película en la que los astronautas tuvieron que convencer a una bomba inteligente para que no explotara. Razonaron con la bomba, pero terminó explotando de todos modos porque ese era su destino.