Les robots de tous les jours, entre aspirateurs, drones ou industriels, manquent cruellement de capteurs pour “voir” leur environnement. Les unités centrales ne les rendant autonomes qu’à des tâches simples et pré-programmées. C’est ce qu’a révélé une étude scientifique du chercheur en robotique de l’Université de Haute-Alsace (UHA, Stéphane Bazeille, Enseignant, dans un article publié dans The Conversation.
Des humanoïdes avancés comme l’Atlas de Boston Dynamics ou l’Optimus de Tesla, marquent un tournant avec des capteurs multiples inertiels pour l’équilibre, LIDAR pour les distances, caméras pour la vision. Traiter ces données en temps réel reste un défi majeur : c’est comme apprendre à un bébé à attraper un ballon sans le laisser tomber après l’avoir pris.
Par ailleurs, les caméras « intelligentes » révolutionnent le jeu : elles fournissent directement des infos exploitables (« objet blanc à 10 cm »), permettant aux bras robotiques d’attraper n’importe quoi sans programmation minutieuse. Pour la navigation en 3D (éviter les obstacles dans une foule), les caméras light-field un œil unique suffisent, captant profondeur et direction lumineuse pour des cartes précises, un boulot en cours au labo IRIMAS.
Cependant, les robots du quotidien (aspirateurs, drones) ou industriels manquent cruellement de capteurs pour « voir » leur environnement, limitant leur autonomie à des tâches simples et préprogrammées.
En bref, de la vision basique aux yeux 3D, les robots apprennent enfin à « percevoir » comme nous, pavant la voie à une autonomie spectaculaire.