Cómo los modelos de lenguaje grandes autonomizan la recuperación de errores

La robótica doméstica se ha enfrentado a numerosos retos que han limitado su éxito. Aspectos como el precio, la practicidad, el diseño y la capacidad cartográfica han sido barreras importantes. Incluso resolviendo estos problemas, surge la pregunta de cómo gestionar los inevitables errores que pueden ocurrir. Históricamente, este ha sido un punto crítico no sólo en el ámbito doméstico sino también en el industrial, donde las grandes corporaciones tienen más recursos para resolver los problemas a medida que van surgiendo. Sin embargo, no es práctico esperar que los consumidores aprendan a programar o contraten ayuda cada vez que un robot encuentra un obstáculo.

Una investigación reciente del Instituto Tecnológico de Massachusetts (MIT) propone una solución innovadora a este dilema, utilizando modelos de lenguaje grande (LLM) en el espacio de la robótica. Este estudio, que se presentará en la Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR) en mayo, presenta un método para inculcar una forma de “sentido común” en los robots, permitiéndoles corregir sus errores de forma autónoma.

Los robots son imitadores excepcionales; Sin embargo, si no están programados para adaptarse a cada imprevisto, pueden quedarse estancados sin saber cómo proceder. Tradicionalmente, cuando se enfrentaba a un problema, un robot agotaba sus opciones preprogramadas antes de requerir la intervención humana. Esto representa un desafío particular en entornos no estructurados, como los hogares, donde cualquier cambio puede afectar su funcionamiento.

La investigación destaca que, aunque el aprendizaje por imitación es popular en la robótica doméstica, a menudo no tiene en cuenta pequeñas variaciones ambientales que pueden alterar el funcionamiento normal, obligando al sistema a reiniciarse desde cero. El estudio aborda este problema descomponiendo las manifestaciones en subconjuntos más pequeños, en lugar de tratarlas como una acción continua.

El estudio se centra en enseñar a un robot a coger canicas y verterlas en un recipiente vacío, un proceso sencillo para los humanos, pero complejo para los robots, ya que implica varias tareas pequeñas. Los LLM pueden enumerar y etiquetar estas subtareas. En las demostraciones, los investigadores interrumpieron la actividad de formas menores, como desviar el robot o derramar canicas de su cuchara, a lo que el sistema respondía autocorrigiéndose, evitando empezar desde el principio.

Este enfoque no es sólo un avance en la autonomía de la robótica doméstica, sino que también demuestra el potencial de los LLM para simplificar y enriquecer nuestras interacciones con la tecnología.

¿Qué implicaciones cree que tendrá esta investigación en el futuro de los robots domésticos?

FUENTE
 
For Latest Updates Follow us on Google News
 

PREV Llevan casi 2 años a la venta, pero siguen siendo los auriculares Bluetooth de diadema de referencia.
NEXT Este SSD SATA tiene un 30% de descuento en Amazon – .