L'IA aide les robots à manipuler des objets avec tout leur corps
Les images à télécharger sur le site Web du bureau MIT News sont mises à la disposition des entités non commerciales, de la presse et du grand public sous une licence Creative Commons Attribution Non-Commercial No Derivatives. Vous ne pouvez pas modifier les images fournies, sauf pour les recadrer à leur taille. Une ligne de crédit doit être utilisée lors de la reproduction d'images ; si aucune n'est fournie ci-dessous, créditez les images à « MIT ».
Image précédente Image suivante
Imaginez que vous souhaitiez transporter une grande et lourde boîte dans un escalier. Vous pouvez écarter vos doigts et soulever cette boîte à deux mains, puis la tenir au-dessus de vos avant-bras et la maintenir en équilibre contre votre poitrine, en utilisant tout votre corps pour manipuler la boîte.
Les humains sont généralement doués pour la manipulation du corps entier, mais les robots ont du mal à accomplir de telles tâches. Pour le robot, chaque endroit où la boîte pourrait toucher n'importe quel point des doigts, des bras et du torse du porteur représente un événement de contact sur lequel il doit raisonner. Avec des milliards d’événements de contact potentiels, la planification de cette tâche devient rapidement insoluble.
Les chercheurs du MIT ont désormais trouvé un moyen de simplifier ce processus, connu sous le nom de planification de manipulation riche en contacts. Ils utilisent une technique d’IA appelée lissage, qui résume de nombreux événements de contact en un plus petit nombre de décisions, pour permettre même à un algorithme simple d’identifier rapidement un plan de manipulation efficace pour le robot.
Bien qu'elle en soit encore à ses débuts, cette méthode pourrait potentiellement permettre aux usines d'utiliser des robots mobiles plus petits, capables de manipuler des objets avec l'ensemble de leurs bras ou de leur corps, plutôt que de grands bras robotiques qui ne peuvent saisir qu'avec le bout des doigts. Cela peut contribuer à réduire la consommation d’énergie et à réduire les coûts. De plus, cette technique pourrait être utile dans les robots envoyés en mission d'exploration sur Mars ou d'autres corps du système solaire, car ils pourraient s'adapter rapidement à l'environnement en utilisant uniquement un ordinateur de bord.
"Plutôt que de considérer cela comme un système de boîte noire, si nous pouvons exploiter la structure de ces types de systèmes robotiques à l'aide de modèles, nous avons la possibilité d'accélérer toute la procédure consistant à essayer de prendre ces décisions et de proposer des solutions riches en contacts. plans », déclare HJ Terry Suh, étudiant diplômé en génie électrique et informatique (EECS) et co-auteur principal d'un article sur cette technique.
Suh est rejoint dans l'article par le co-auteur principal Tao Pang PhD '23, roboticien au Boston Dynamics AI Institute ; Lujie Yang, étudiante diplômée de l'EECS ; et l'auteur principal Russ Tedrake, professeur Toyota d'EECS, d'aéronautique et d'astronautique et de génie mécanique, et membre du Laboratoire d'informatique et d'intelligence artificielle (CSAIL). La recherche paraît cette semaine dans IEEE Transactions on Robotics.
Apprendre à apprendre
L'apprentissage par renforcement est une technique d'apprentissage automatique dans laquelle un agent, comme un robot, apprend à accomplir une tâche par essais et erreurs, avec une récompense pour s'être rapproché d'un objectif. Les chercheurs affirment que ce type d’apprentissage adopte une approche de boîte noire, car le système doit tout apprendre sur le monde par essais et erreurs.
Il a été utilisé efficacement pour la planification de manipulations riches en contacts, où le robot cherche à apprendre la meilleure façon de déplacer un objet d'une manière spécifiée.
Mais comme il peut y avoir des milliards de points de contact potentiels sur lesquels un robot doit raisonner pour déterminer comment utiliser ses doigts, ses mains, ses bras et son corps pour interagir avec un objet, cette approche par essais et erreurs nécessite beaucoup de calculs.
"L'apprentissage par renforcement peut nécessiter des millions d'années en temps de simulation pour pouvoir réellement apprendre une politique", ajoute Suh.
D’un autre côté, si les chercheurs conçoivent spécifiquement un modèle basé sur la physique en utilisant leur connaissance du système et la tâche qu’ils souhaitent que le robot accomplisse, ce modèle intègre une structure sur ce monde qui le rend plus efficace.