« La main et le toucher sont devenus en quelques années un nouveau Graal pour la robotique. » À terme, il s’agit en effet de produire des robots de service à la personne (handicapée, âgée…) capables, par exemple, de ramasser un objet tombé à terre, de changer une ampoule ou de servir un verre.
En 2014, Yaroslav Pigenet détaillait les deux axes fondamentaux de cette recherche, qui permettent également de comprendre l’action et la perception humaines. D’abord, modéliser les gestes principaux des mains et des doigts, et leurs 33 enchaînements opérationnels. Ensuite, calculer quelle force de pression appliquer à quels endroits pour serrer, déplacer et lâcher efficacement un objet.
Or l’enregistrement des positions de la main dans l’espace ne suffit pas : le robot comme l’être humain a besoin d’ajuster continument son geste aux caractéristiques de l’objet manipulé et à l’évolution de la situation. On a ainsi découvert qu’il y a des allers-retours permanents entre l’action et la perception (boucles sensorimotrices) : alors qu’on analyse la vue et l’ouïe en termes de propriétés statiques, « le toucher est un sens interactif » dont les informations dépendent, par exemple, de la vitesse et du coefficient de frottement.
Consulter aussi sur notre site
Membres bioniques, pour utiliser un objet la vision ne suffit pas.
Lire l’article sur le site cnrs.
Commentaires récents