Le siège du CNRS a accueilli fin novembre les journées nationales du groupe de recherche en robotique. L’occasion d’assister à des présentations de premier ordre.
Architecture de contrôle pour la robotique
Michael Fisher, directeur du centre de technologie des systèmes autonomes de l’université de Liverpool, travaille à définir ce que peut être un système autonome vérifiable.
L’autonomie étant la capacité pour un système de définir ses propres décisions et à agir seul, et ceci sans l’intervention directe d’un humain.
Un système autonome n’est pas un système adaptatif, ce dernier basant ses décisions sur les informations transmises par l’environnement. Un système autonome est basé sur ses buts propres.
Avec un système autonome, se pose la question de savoir qui contrôle, de l’humain ou du logiciel ?
La décision est prise loin de l’humain : serons-nous en sécurité ? Pouvons-nous faire confiance aux informations transmises ? Que se passera-t-il en cas d’échec ?
Nous avons besoin d’avoir des méthodes d’évaluation pour savoir pourquoi le robot prend ses décisions.
Pour cela, il faut examiner son programme interne pour se poser des questions telles que « à quoi pense-t-il ? », « quels sont les choix » et « pourquoi fait-il celui-ci ? ».
Pour répondre à ces interrogations, nous avons besoin d’un agent rationnel avec un système de contrôle de feedback.
Pour mieux comprendre le rôle qui serait dévolu à cet agent rationnel, l’exemple du vol aéronautique est parlant. L’autopilote n’a pas à être autonome, un système d’automatisation, certes complexe, est suffisant. Il permettra de couvrir la plus grande partie du vol, en suivant le chemin et conservant l’altitude. L’humain définit le chemin et sait ce qu’il faut faire en cas d’urgence.
Le rôle de l’agent rationnel est donc de définir quand il convient de faire appel à l’autopilote.
La confiance en l’agent rationnel passe par la transparence
Il faut séparer les composants architecturaux pour être transparents, c’est à dire, être capables d’inspecter l’état interne des modules. Il faut donc une description formelle de l’état interne.
Il faut être au plus clair de l’endroit où les décisions sont prises pour déterminer qui est responsable et comment la responsabilité est-elle répartie, partagée et renforcée ? C’est important pour s’assurer que ces décisions sont appropriées et éthiques, et plus spécialement avec les robots autonomes dans des scenarios critiques pour la sécurité ou la santé.
Un principe simple de sécurité consistant à ne jamais connecter un composant qui n’ait pas été contrôlé. Chaque composant devant faire l’objet d’une vérification et d’une validation. La vérification est réalisée en parallèle de l’implémentation. La validation a lieu à la fin et est basée sur des scenarios d’usage. La validation est donnée par celui qui définit initialement les besoins.
Ceux qui construisent un système complexe ont besoin de ces vérifications formelles.
Une des difficultés des validations formelles tient en ce qu’elles doivent prouver que le système fonctionnera dans tous les scenarii, alors qu’un simple test se base sur un ensemble restreint de scenarii.
Un tel niveau d’assurance est nécessaire, à la fois pour répondre à des questions d’éthique, mais aussi à la réglementation, à un niveau suffisant de sécurité ou pour parvenir à respecter nos préférences.
Il requiert une combinaison de techniques.
L’architecture de l’agent doit être hybride :
- Nous pouvons formellement vérifier le processus de décision,
- Nous pouvons le simuler et le tester,
- Nous pouvons tester l’ensemble du système en pratique.
Plus de test apporte-t-il réellement plus de confiance ?
L’agent rationnel a essentiellement remplacé le processus décisionnel humain de haut niveau, de sorte que la vérification formelle joue ici un rôle important dans la certification.
Des robots assistants seront par exemple destinés à aider les personnes âgées. Et donc peut potentiellement prouver des propriétés critiques telles que « le robot ne constitue ra jamais un danger en cas d’incendie »
Ex. : certification des UAV : comment prouver que l’agent rationnel prend des décisions aussi bonnes que celles prises par un humain ?
Raisonner sur l’éthique
Le système autonome est capable de décider par lui-même. L’agent rationnel est l’élément central fabriquant la décision. Il ne s’agira plus de vérifier ce que fait le système, mais pourquoi. Le besoin est donc que l’humain puisse être certain des raisons pour lesquelles l’agent réalise une action : il faut construire la confiance. Le problème des contrôles repose sur le fait qu’ils reposent sur un modèle ou des spécifications.
Robotique et neurosciences : Aller vers l’abeille
James Marshall, de l’université de Sheffield, travaille à la robotique en essaim et étudie en particulier le cerveau de l’abeille et ses capacités.
L’abeille est un insecte très structuré, mais avec un très petit cerveau.
En ce qui concerne le vol de l’insecte, ce cerveau peut être étudié selon trois axes complémentaires :
- Le traitement visuel primaire,
- Les éléments de navigation et
- L’apprentissage et la mémoire.
En ce qui concerne le traitement visuel, le projet Green Brain a construit, pour les besoins d’un robot abeille, un modèle de la vision de l’insecte et de son contrôle du vol. Ceci a permis de reconstruire la vision de l’abeille en 3D, dans le but de la reproduire avec des caméras.
Dans un couloir dont les murs sont décorés de rayures, l’expérience menée avec des abeilles a montré que la perception des rayures par seconde et la vitesse évoluaient dans une relation linéaire. Les chercheurs ont reconstruit ce modèle et fabriqué des prototypes.
Le résultat est spectaculaire : le drone vole dans la pièce, relativement « nue », mais réelle, sans occasionner de collision.
La boussole neurale des insectes.
L’expérience consiste à présenter un stimulus à l’animal et à contrôle sa position en réponse : elle montre que la mesure de l’activité musculaire suit l’activité du stimulus.
Les chercheurs ont pu modéliser cette boussole, fonction du flux électrique engendré par l’activité des neurones visuels.
Pour ce qui est de l’apprentissage et de la mémoire, contrairement à ce que nous pourrions imaginer, les expériences prouvent que les abeilles peuvent apprendre les concepts de ressemblances et de différences. Ainsi, elles peuvent être entraînées à suivre un chemin constitué de rectangles orange après avoir été entraînées à trouver de la nourriture en suivant un chemin analogue.
Il est alors possible d’imaginer un modèle d’apprentissage à partir d’une récompense : l’important est d’avoir une plasticité neurale importante.
Les résultats obtenus avec les différentes classes d’abeille (butineuse, ouvrière, etc.) varient beaucoup selon que les tâches qui leur sont confiées lors des expériences soient ou non de leur attribution « naturelle ».
Sites de références :
Robocup 2020
La Robocup 2020 qui se tiendra à Bordeaux a été annoncée.
Elle comptera cinq ligues :
- RoboCupSoccer
Compétition de football, dans plusieurs catégories : avec gestion centralisée ou avec des robots autonomes ou encore à l’occasion de compétition en simulation.
- RoboCupRescue
Un robot de secours est télé-opéré par quelqu’un qui ne voit pas la scène, mais reçoit uniquement les informations en provenance du robot
- RoboCup@Home
Robotique d’intérieur.
- RoboCupIndistrial
Robotique industrielle et planification de tâches.
- RoboSupJunior
Compétition réservée aux plus jeunes, soit sur une compétition de football, soit sous la forme d’un concours artistique
Les organisateurs espèrent 40.000 visiteurs. Pour rappel, le même évènement au Japon avait déplacé 120.000 personnes, mais l’engouement pour la robotique au pays du Soleil Levant n’est plus à démontrer.
Il faut noter (dans vos agendas) que 2020 sera l’année de la robotique en France : il y aura des cycles de conférences, dans toutes les universités travaillant dans le domaine.
Plateforme nationale de robotique
Jean-François KONG, présente le « National network of robotics platforms », un réseau pour maintenir la recherche à son plus haut niveau, financé avec les investissements d’avenir, depuis 2011, et jusqu’en 2019.
Le réseau travaille sur cinq thèmes :
- Humanoïde et interaction naturelle,
- Robotique médicale,
- Robot mobile,
- Micro et nano robotique et
- Robotiques dans l’industrie du future.
Le réseau compte 17 laboratoires et participe à 32 thèmes de recherche. Il cofinance plus de 140 projets (pour plus de 15 M€ depuis 2012).
[…] L’article dans son intégralité est paru dans Planète Robots n°56 du 1er mars 2019