Criando Robots: ¿Se puede enseñar la moral a la IA a través de las habilidades de crianza?

Youtube
¡Por favor comparta esta historia!

Es una fantasía tonta tratar a la Inteligencia Artificial y a los robots como seres humanos sensibles, cuando no lo son ni podrán serlo jamás. Sin embargo, mientras los hombres japoneses tienen relaciones sexuales con muñecos de silicona, otros intentan enseñarles la moral a los robots utilizando "habilidades de crianza".  TN Editor

Las máquinas inteligentes, prometidas durante mucho tiempo y nunca entregadas, finalmente son en el horizonte. Los robots suficientemente inteligentes podrán operar de forma autónoma desde el control humano. Podrán tomar decisiones genuinas. Y si un robot puede tomar decisiones, hay una pregunta real sobre si tomará decisiones moral opciones Pero, ¿qué es moral para un robot? ¿Es esto lo mismo que lo que es moral para un humano?

Los filósofos y los informáticos tienden a centrarse en la dificultad de implementar la moralidad humana sutil en máquinas de mentalidad literal. Pero hay otro problema, uno que realmente debería venir primero. Es la cuestión de si debemos tratar de imponer nuestra propia moralidad a las máquinas inteligentes. De hecho, argumentaría que hacerlo probablemente sea contraproducente e incluso poco ético. El verdadero problema de la moral del robot no son los robots, sino us. ¿Podemos manejar compartir el mundo con un nuevo tipo de criatura moral?

Nos gusta imaginar que la inteligencia artificial (IA) será similar a la de los humanos, porque somos la única inteligencia avanzada que conocemos. Pero somos probablemente mal. Si aparece AI, probablemente será muy diferente a nosotros. Puede que no razone de la forma en que lo hacemos, y podríamos tener dificultades para comprender sus elecciones.

En 2016, un programa de computadora desafió a Lee Sedol, el jugador líder de la humanidad del antiguo juego de Go. El programa, un proyecto de Google llamado AlphaGo, es un ejemplo temprano de cómo podría ser la IA. En el segundo juego del partido, AlphaGo hizo un movimiento, 'Move 37', que sorprendió a los comentaristas expertos. Algunos pensaron que fue un error. Lee, el oponente humano, se levantó de la mesa y salió de la habitación. Nadie sabía muy bien lo que estaba haciendo AlphaGo; Esta era una táctica que los jugadores humanos expertos simplemente no usaban. Pero funcionó. AlphaGo ganó ese partido, ya que tenía el juego anterior y el siguiente. Al final, Lee ganó solo un juego de cinco.

AlphaGo es muy, muy bueno en Go, pero no es bueno de la misma manera que los humanos. Ni siquiera sus creadores pueden explicar cómo se ajusta a su estrategia en cada juego. Imagine que podría hablar con AlphaGo y preguntarle por qué hizo Move 37. ¿Sería capaz de explicarle la elección a usted oa los expertos humanos de Go? Quizás. Las mentes artificiales no necesitan funcionar como las nuestras para lograr tareas similares.

De hecho, podríamos descubrir que las máquinas inteligentes piensan en todo, no solo Go, de formas ajenas a nosotros. No tiene que imaginarse un escenario horrible de ciencia ficción, donde los robots se enfurecen. Podría ser algo más parecido a esto: imagine que los robots muestran una preocupación moral por los humanos, los robots y la mayoría de los animales ... y también los sofás. Tienen mucho cuidado de no dañar los sofás, del mismo modo que tenemos cuidado de no dañar a los bebés. Podríamos preguntarle a las máquinas: ¿por qué estás tan preocupado por los sofás? Y su explicación podría no tener sentido para nosotros, al igual que la explicación de AlphaGo de Move 37 podría no tener sentido.

Esta línea de pensamiento nos lleva al corazón de un viejo rompecabezas filosófico sobre la naturaleza de la moralidad. ¿Es algo más allá de la experiencia humana, algo que se aplica a cualquiera o cualquier cosa que pueda tomar decisiones, o es la moralidad una creación claramente humana, algo especialmente adaptado a nuestra existencia particular?

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

3 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Fred

"Es una fantasía tonta tratar a la Inteligencia Artificial y a los robots como seres humanos sensibles, cuando no lo son ni podrán serlo jamás". ¿Diría usted también que es una "fantasía tonta" que los humanos evolucionen a partir de organismos unicelulares? Personalmente, creo que es mucho más probable que los robots se conviertan en "robots sensibles". Los humanos actuarán como un catilista inicial, pero la evolución final de los robots en robots sensibles la llevarán a cabo los propios robots sin intervención humana. Sus formas y acciones serán las más ventajosas para el robot, no para el humano.... Leer más »

Patrick Wood

Fred, has estado viendo demasiada ciencia ficción.

Fred

Sin duda. Pero si nos fijamos en cómo ha evolucionado la vida, creo asombrosamente, a partir de organismos unicelulares, entonces no parece tan descabellado que los robots (con la humanidad sirviendo como catalizador) puedan ser una extensión lógica de este proceso. Veo a los humanos como parte de la naturaleza, no como observadores externos.
Tenía curiosidad sobre cómo reaccionarían los demás ante este pensamiento. Fuiste educado al respecto. La mayoría de la gente dice que estoy lleno de BS.