El robot que ordena habitaciones con el mismo tipo de inteligencia de ChatGPT

A los laboratorios de Stanford, Princeton y Google Mind se les ocurrió que sería buena idea dotar a un robot del tipo de inteligencia del que más se ha hablado en el último año: un modelos de lenguaje extenso (LLM). La idea no era que se pusiera a hablar, sino que entendiera mejor las tareas que se le encomendaban.

El resultado parece que no ha ido nada mal: han conseguido un robot doméstico llamado TinyBot que –como en los sueños de cualquiera que se imagine un futuro brillante– es capaz de ordenar los objetos tirados por las habitaciones según las preferencias de sus dueños, de forma personalizada. Una auténtico avance se mire como se mire.

El robot que aprende de las preferencias de los usuarios

Al utilizar el mismo tipo de lenguaje natural que se usa para hablar con ChatGPT y otras IAs similares lo importante es que la inteligencia artificial del robot es capaz de utilizar funciones para generalizar y clasificar los diferentes objetos y lugares que se mencionan. De este modo puede entender frases como «la ropa debe ir en el cesto» o «los juguetes hay que colocarlos en la estantería».

Lo interesante es que no hace falta especificar qué objetos corresponden a cada categoría. Esto se aplica a los tipos de ropa, los juguetes y todos los demás; la IA tiene capacidad suficiente como para generalizar. Incluso puede suceder que durante su exploración del entorno aparezca un objeto desconocido (técnicamente los llaman «no vistos»), pero pueda clasificarlo por sus características: si es un tejido flexible puede ser ropa, si tiene ruedas o formas redondeadas tal vez un juguete… Esto también sirve para los objetivos de resolución del problema: si algo va en un cajón, y hay varios cajones, el robot puede entender que debe usarlos frente a la opción de dejar un objeto encima de la mesa o meterlo en un cesto. Esto no siempre es lo ideal, pero esperan mejorarlo.

En las pruebas con el TinyBot los usuarios pueden especificar todas sus preferencias de este sencillo modo: «la comida, a la cocina», «los juguetes, a la estantería de la habitación de los niños» y el robot se encarga de cumplir con las órdenes. O también pueden mostrarle algunos ejemplos: «esto va aquí, esto otro allí». Esta es precisamente su mayor capacidad, entender con ejemplos.

Según las pruebas llevadas a cabo en el «mundo real» la precisión alcanza más del 85%, algo menos que sobre los modelos de prueba donde se trabajaba con objetos del tipo «no vistos» (y que llegó al 92%). En cualquier caso está bastante por encima de lo que se consigue por otros métodos e incluso –pensarán algunos padres y madres– de lo que conseguirían algunos niños encargados de la misma tarea.

Un futuro con robots ayudantes

La idea es que estas mismas técnicas puedan aplicarse a robots que generalicen y sean capaces de interactuar con todo tipo de objetos, en distintos entornos: hogares, oficinas, fábricas… También esperan que los robots sean más versátiles, por ejemplo, ayudándose de las mesas para colocar y agarrar mejor los objetos, o colaborando entre dos robots para mover objetos pesados. Como puede verse en los vídeos de demostración ahora mismo son capaces de «encestar» a distancia ciertos objetos pequeños y flexibles.

Con el avance que suponen estas técnicas queda claro que de aquí al «robot, hazme la cama», «robot, prepara el desayuno» o incluso al «robot, friega los platos y limpia la cocina», sólo hay un paso. Y entonces estaremos en ese futuro soñado en el que las pequeñas máquinas colaboran inteligente y eficazmente en nuestro día a día, ahorrándonos los trabajos más pesados y monótonos.

Nota: Se puede acceder a la información completa sobre esta investigación en el trabajo publicado en arXiv: TidyBot: Personalized Robot Assistance with Large Language Models.

Últimas entradas de Microsiervos

Volvo XC40 Recharge

Volvo Recharge, nuestra línea de SUV híbridos enchufables y eléctricos puros. Diseñados para ofrecer una mejor manera de moverse por el mundo.

¡Pruébalo!