Le défi colossal des robots humanoïdes : un corps d'humain, un exploit d'ingénierie
Robots humanoïdes : le défi de reproduire le corps humain

Le défi colossal des robots humanoïdes

Quand un soignant soulève un patient, il ne le touche pas seulement avec ses mains, mais le soutient avec ses avant-bras, sent son poids se déplacer, ajuste son équilibre en une fraction de seconde, sans même y penser. Reproduire ce type de geste banal pour un robot humanoïde reste aujourd'hui un défi colossal qui mobilise des centaines de chercheurs à travers le monde.

Car derrière les démonstrations soigneusement chorégraphiées des grands constructeurs comme le breakdance d'Atlas de Boston Dynamics, le kung-fu de G1 du chinois Unitree ou l'humanoïde de Figure qui vide un lave-vaisselle, se cache une réalité bien plus fragmentée. Les humanoïdes progressent à une vitesse inédite, portés par une double révolution : celle du matériel, avec des moteurs, batteries et matériaux toujours plus performants, et celle de l'IA, avec des algorithmes capables d'apprendre par essais et erreurs. Mais ils butent encore sur des obstacles qu'un enfant de huit ans et ses dix doigts franchit sans effort. Zoom sur les différentes parties du corps des humanoïdes, leurs avancées et les défis qui les attendent pour espérer s'approcher de la prouesse d'ingénierie qu'est le corps humain.

Des yeux pour percevoir et communiquer

Pour percevoir ce qui l'entoure, un humanoïde embarque des caméras RGB-D pour identifier les couleurs et profondeurs, placées sur le visage, le corps et/ou les mains ; et parfois un lidar, plus précis mais aussi plus coûteux, qui utilise des impulsions lumineuses pour cartographier l'environnement en 3D. Mais la perception reste primitive : « Comprendre qu'il faut pencher la tête pour voir ce qui est caché derrière un objet, les robots ne savent pas encore le faire », pointe Ludovic Righetti, professeur en robotique à l'université de New York. Ce couplage entre perception et mouvement en temps réel reste l'un des verrous à lever. Pour communiquer ses intentions, la machine est souvent dotée de deux yeux, comme les humains, articulés mécaniquement ou remplacés par des écrans expressifs intégrés au visage. Le Britannique Ameca d'Engineered Arts, et ses mimiques hyperréalistes, fait des démonstrations marquantes en la matière.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Une voix pour interagir

C'est le domaine où l'IA a fait les bonds les plus spectaculaires, porté par les grands modèles de langage (LLM), ces systèmes capables de comprendre et générer du texte. Propulsé par les modèles d'OpenAI, Figure 02, le robot de la start-up californienne Figure, a tenu une conversation fluide en temps réel avec un humain, comprenant ses demandes et y répondant avec une aisance déconcertante. Mais la voix ne se résume pas à un haut-parleur branché sur un LLM, elle doit être synchronisée avec les expressions du visage pour transmettre une intention cohérente. Savoir quand parler, moduler son ton pour signaler une hésitation ou une limite, comme les humains le font intuitivement, reste un chantier ouvert, à la croisée de la robotique et des sciences cognitives.

Une peau sensible

Détecter des contacts sur tout le corps, pas seulement les mains, pour maintenir l'équilibre et doser la force lors d'interactions physiques… L'enjeu de « sentir » ce qui l'entoure pour un robot est d'abord technique et sécuritaire. Certains capteurs peuvent même anticiper un contact avant qu'il arrive. Problème : « Il ne faut pas un capteur, mais des centaines », souligne Ludovic Righetti, et l'algorithmique pour exploiter ces données en temps réel est encore balbutiante. Sur le plan esthétique, certaines équipes s'amusent à s'approcher au maximum d'une peau humaine, comme la start-up chinoise DroidUp et son robot Moya doté d'une peau artificielle maintenue à 35 °C. En 2024, des chercheurs de l'université de Tokyo ont même développé un prototype de peau cellulaire créée en laboratoire composée de collagène et d'élastine pour recouvrir complètement des structures en 3D et reproduire des « expressions faciales et mouvements corporels fluides ».

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Des batteries longue durée

Le chinois Unitree affiche trois heures d'autonomie pour son robot H3, mais « en conditions réelles de travail, c'est plutôt 45 minutes », prévient Ludovic Righetti. La cause est en partie structurelle : les moteurs électriques consomment en permanence, même à l'arrêt, contrairement aux muscles humains. Les batteries sont la plupart du temps concentrées au centre de masse (pelvis, bas du torse) pour préserver l'équilibre, « mais plus on en embarque, plus le robot s'alourdit : c'est un compromis inévitable », précise Serena Ivaldi, chercheuse spécialisée dans l'interaction homme-robot à l'Inria. Pour contourner cette limite, le chinois UBtech a développé le premier humanoïde capable de changer seul ses batteries.

Des mains habiles

Deux doigts suffisent pour attraper, trois pour stabiliser la prise, les cinq ne deviennent indispensables que pour la manipulation fine : tenir un outil, visser, orienter un objet dans la paume… Tesla Optimus Gen 2 a ébloui le monde en 2024 en manipulant des œufs sans les briser ou en pliant du linge – des vidéos vues des millions de fois. « Mais une main à cinq doigts qui marche bien, ne casse pas et ne pèse pas 12 kg, on ne sait pas le faire », reconnaît Ludovic Righetti. L'obstacle est triple : mécanique, sensoriel et algorithmique. Capturer la dextérité humaine et les degrés de liberté d'une main sans perte reste un défi aujourd'hui, et ce, même quand les robots sont télé-opérés. « C'est comme faire des mouvements avec des moufles », selon Justin Carpentier, directeur de l'équipe Willow à l'Inria.

Des muscles en plus !

Deux révolutions ont transformé les mouvements des humanoïdes. D'abord, le passage de l'hydraulique – pompes et huile des premiers Atlas de Boston Dynamics – à l'électrique, qui a allégé et simplifié les structures. Ensuite, le quasi-direct drive, né des travaux du roboticien Sangbae Kim, au MIT : là où les anciens motoréducteurs (association d'un moteur rapide et d'un engrenage pour démultiplier la force) généraient trop de frottement et rendaient le robot aveugle à ce qu'il touchait, l'approche inverse s'impose. Des moteurs plus grands, un engrenage minuscule pour sentir les efforts exercés en interaction avec l'environnement. Sans cette transparence physique, l'apprentissage par renforcement, qui permet au robot de s'améliorer par essais et erreurs, n'aurait pas été possible.

Des jambes en équilibre

Marcher sur sol plat est « un problème bien compris, qu'on résout assez facilement », note Ludovic Righetti, et ce, grâce à l'apprentissage par renforcement. Deux jambes se justifient quand l'environnement l'exige : marches, passages étroits, terrains accidentés. C'est la logique du Challenge DARPA (2012-2015), qui envoyait des robots dans des installations conçues pour des opérateurs humains, comme des centrales nucléaires. Mais la fiabilité totale reste hors de portée : « Les figures athlétiques qui bluffent le public sont plus faciles à réaliser que de gérer l'incertitude pour un robot. » Naviguer dans des environnements encombrés en coordonnant simultanément perception, équilibre et manipulation reste un défi scientifique.