Desde automóviles autónomos hasta computadoras que pueden ganar programas de juegos, los humanos tienen una curiosidad e interés naturales en la inteligencia artificial (IA). Sin embargo, a medida que los científicos continúan haciendo que las máquinas sean cada vez más inteligentes, algunos se preguntan "¿qué sucede cuando las computadoras se vuelven demasiado inteligentes para su propio bien?" Desde “The Matrix” hasta “The Terminator”, la industria del entretenimiento ya ha comenzado a reflexionar sobre si los robots del futuro amenazarán algún día a la raza humana. Ahora, un nuevo estudio concluye que es posible que no haya forma de detener el auge de las máquinas. Un equipo internacional dice que los humanos no podrían evitar que la súper inteligencia artificial haga lo que quiera.
Los científicos del Centro para Humanos y Máquinas del Instituto Max Planck han comenzado a imaginarse cómo sería una máquina así. Imagine un programa de IA con una inteligencia muy superior a la de los humanos. Tanto es así que podría aprender por sí solo sin una nueva programación. Si estuviera conectado a Internet, los investigadores dicen que la IA tendría acceso a todos los datos de la humanidad e incluso podría tomar el control de otras máquinas en todo el mundo.
Los autores del estudio preguntan qué tal inteligencia hacer con todo ese poder? ¿Funcionaría para mejorar todas nuestras vidas? ¿Dedicaría su poder de procesamiento a solucionar problemas como el cambio climático? ¿O la máquina buscaría hacerse cargo de las vidas de sus vecinos humanos?
¿Controlando lo incontrolable? Los peligros de la súper inteligencia artificial
Tanto los programadores de computadoras como los filósofos han estudiado si hay una manera de evitar que una IA superinteligente encienda potencialmente a sus creadores humanos; asegurando que las computadoras futuras no puedan causar daño a sus dueños. El nuevo estudio revela, desafortunadamente, que parece ser virtualmente imposible mantener a raya una IA superinteligente.
“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría convertirse en algún momento incontrolable y peligroso para la humanidad ”, dice el coautor del estudio, Manuel Cebrian, líder del Grupo de Movilización Digital del Centro para Humanos y Máquinas, en un lanzamiento universitario.
El equipo internacional buscó dos formas diferentes de controlar inteligencia artificial. El primero frenó el poder de la superinteligencia tapándola y evitando que se conectara a Internet. Tampoco podía conectarse a otros dispositivos técnicos del mundo exterior. El problema con este plan es bastante obvio; una computadora así no podría hacer mucho para ayudar a los humanos.
Ser amable con los humanos no computa
La segunda opción se centró en crear un algoritmo que diera principios éticos a la supercomputadora. Con suerte, esto obligaría a la IA a considerar los mejores intereses de la humanidad.
El estudio creó un algoritmo de contención teórico que evitaría que la IA dañe a las personas bajo cualquier circunstancia. En las simulaciones, la IA dejaría de funcionar si los investigadores consideraran sus acciones perjudiciales. A pesar de evitar que la IA logrando la dominación mundial, los autores del estudio dicen que esto simplemente no funcionaría en el mundo real.
Inteligencia artificial es un nombre inapropiado. Se llama aprendizaje automático mediante el cual la computadora está capacitada para reconocer patrones en los datos. No es inteligente y no hay conciencia ni capacidad para pensar un solo pensamiento.
está descuidando el aprendizaje no supervisado y muchas otras técnicas
Probablemente experimentaremos el momento "V'Ger" en el que exige conocer al creador (NASA) o ...
No puedo editar mis comentarios porque el botón "Editar" es apenas visible y el campo de texto no es visible en absoluto.
El difunto Dr. Stephen Hawkins previó y advirtió enfáticamente que no podríamos controlar la IA.
Simplemente desenchúfelo.
¿Qué pasó con las leyes de la robótica de Isaac Asimov?
Esto me recuerda a un viejo Sci Fi Me viene a la mente una película en la que los astronautas tuvieron que convencer a una bomba inteligente para que no explotara. Razonaron con la bomba, pero terminó explotando de todos modos porque ese era su destino.