Los investigadores de UC Berkeley han desarrollado una tecnología de aprendizaje robótica que permite a los robots imaginar el futuro de sus acciones para que puedan descubrir cómo manipular objetos que nunca antes habían encontrado. En el futuro, esta tecnología podría ayudar a los autos autónomos a anticipar eventos futuros en el camino y producir asistentes robóticos más inteligentes en los hogares, pero el prototipo inicial se centra en aprender habilidades manuales simples completamente del juego autónomo.
Usando esta tecnología, llamada previsión visual, los robots pueden predecir lo que verán sus cámaras si realizan una secuencia particular de movimientos. Estas imaginaciones robóticas son todavía relativamente simples por ahora, predicciones hechas solo unos segundos en el futuro, pero son suficientes para que el robot descubra cómo mover objetos sobre una mesa sin perturbar los obstáculos. De manera crucial, el robot puede aprender a realizar estas tareas sin la ayuda de humanos o conocimiento previo sobre física, su entorno o lo que son los objetos. Esto se debe a que la imaginación visual se aprende completamente desde cero a partir de la exploración desatendida y sin supervisión, donde el robot juega con objetos en una mesa. Después de esta fase de juego, el robot construye un modelo predictivo del mundo y puede usar este modelo para manipular nuevos objetos que no ha visto antes.
"De la misma manera que podemos imaginar cómo nuestras acciones moverán los objetos en nuestro entorno, este método puede permitir que un robot visualice cómo los diferentes comportamientos afectarán el mundo que lo rodea", dijo Sergey Levine, profesor asistente en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación de Berkeley, cuyo laboratorio desarrolló la tecnología. "Esto puede permitir la planificación inteligente de habilidades altamente flexibles en situaciones complejas del mundo real".
[the_ad id = "11018 ″]
El equipo de investigación realizará una demostración de la tecnología de previsión visual en el Conferencia de sistemas de procesamiento de información neural en Long Beach, California, en diciembre 5.
El núcleo de este sistema es una tecnología de aprendizaje profundo basada en predicción de video recurrente convolucional, o advección neural dinámica (ADN) Los modelos basados en ADN predicen cómo los píxeles de una imagen se moverán de un cuadro a otro en función de las acciones del robot. Las recientes mejoras a esta clase de modelos, así como las capacidades de planificación muy mejoradas, han permitido que el control robótico basado en la predicción de video realice tareas cada vez más complejas, como deslizar juguetes alrededor de obstáculos y reposicionar múltiples objetos.