Catégorie : Entretiens autour de l’info

  • De l’holographie à l’image numérique

     

    (original)
    (résultat)

    Effet spécial sur une séquence vidéo : suppression automatique d’un personnage. A. Newson, A. Almansa, M. Fradet, Y. Gousseau, P. Pérez – Télécom ParisTech et Technicolor

    Henri Maître est Professeur émérite à Télécom ParisTech où il était jusque récemment Directeur de la Recherche. C’est un spécialiste du traitement d’images et de reconnaissance des formes. Il nous raconte son parcours qui conduit aux fonctions si sophistiquées des appareils photos modernes et au Graal, « la sémantique des images ». Il nous fait partager sa passion pour ces aspects si dynamiques de l’informatique, le traitement numérique du signal et de l’image et sa vision sur l’évolution et les perspectives qui s’offrent à l’image.

    Entretien avec Henri Maître réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan.

    Binaire : Bonjour Henri Maître. Pour commencer, peux-tu nous raconter comment tu es devenu chercheur en traitement du signal, jusqu’à devenir directeur de la recherche à Télécom.
    Henri Maître : Si je fais partir le début de ma carrière de mon expérience d’étudiant à Centrale Lyon, où j’ai étudié essentiellement les maths appli et la mécanique des fluides, on est loin de ma recherche future. Mais en parallèle, je me suis passionné pour l’holographie, l’optique et la physique des images… Le point commun entre l’holographie et la mécanique des fluides, c’est la transformée de Fourier tridimensionnelle et les traitements qui tournent autour… Dans les premières années de 70, ce n’était pas l’outil courant de l’ingénieur et je pensais pouvoir mettre à profit cette double compétence à l’ONERA pour l’étude par holographie des écoulements, mais ça n’a pas marché et comme je cherchais à me rapprocher de Paris, j’ai fait un stage en holographie numérique à l’ENST, l’actuel Télécom ParisTech qui démarrait une activité sur ce sujet.

    B : Et tu t’es plu à Télécom ; tu y es resté toute ta carrière ?
    HM : Oui. J’ai commencé en mars 1971 et j’ai été remercié en mars 2013 ! Et j’ai même droit à une petite rallonge avec un poste émérite sur place. Ce qu’on me proposait, c’était du traitement de l’information et c’était de l’holographie. Comme je n’étais pas un grand spécialiste de l’optique, j’ai été à l’Institut d’Optique faire un DEA d’optique cohérente dans une superbe équipe qui était pilotée par Serge Lowenthal à l’époque, c’était vraiment le haut du panier mondial en holographie. L’École des Télécoms était en train de créer ses labos. Le premier labo avait été monté par Claude Guéguen et Gérard Battail deux ans auparavant en traitement du signal et en théorie du codage. Jacques Fleuret montait un labo d’holographie et de traitement optique des images juste avant mon arrivée, montage auquel j’ai participé.
    Replaçons nous dans le contexte des années 70. L’ordinateur fonctionnait bien. Il avait quand même beaucoup de mal à travailler sur des images trop grosses pour sa mémoire, les temps d’entrée/sortie étaient considérables et la piste de l’optique laissait entrevoir du temps réel sur de larges images, sans avoir besoin de les transformer par une numérisation. On espérait à l’époque pouvoir faire des traitements très compliqués. Les Américains avaient déjà fait des systèmes optiques de reconstruction d’images de radar à vision latérale embarqués dans des avions. Il y avait des systèmes de reconnaissance de routes ou de rivières en télédétection, de caractères pour le tri postal, de cellules pour l’imagerie médicale. C’était la piste concurrente du traitement de l’image par ordinateur

    B : Une image ne tenait pas dedans ?
    HM : Non, alors, l’image ne tenait pas dans l’ordinateur. Les temps de calcul étaient très longs mais surtout les entrées et sorties étaient très lourdes. Disposer d’une mémoire d’image était une grande fierté pour une équipe (à Télécom comme à l’Inria ou au CNRS). Pierre Boulez est venu voir chez nous ce qui pouvait être utile pour son prototype de 4X qu’il faisait développer alors à l’IRCAM. Notre mémoire, c’était un truc qui faisait 40 cm sur 40 cm sur 20 cm, et sur lequel il y avait 512 x 512 x 8 octets distribués dans des dizaines de boîtiers. Ça permettait d’afficher une image en temps réel devant des spectateurs émerveillés. Pour l’analyse, on passait par un microdensitomètre, prévu pour analyser des spectrogrammes, mais modifié pour balayer le film selon les deux dimensions. On lançait l’analyse le soir (elle durait 8 h et il fallait éviter les vibrations et les lumières parasites ; grâce au ciel il n’y a pas de métro rue Barrault !). Pour sortir les résultats on collait côte-à-côte des morceaux de listings où les teintes de gris provenaient de la superposition de caractères et l’on prenait ça en photo à 20 mètres en défocalisant un peu pour lisser les hautes fréquences.
    Donc, le traitement numérique de l’image existait déjà mais de façon balbutiante : il y avait quelques équipes en France. Je pense à Albert Bijaoui à l’Observatoire de Nice, à Serge Castan à Toulouse, à Daniel Estournet à l’ENSTA ; et Jean-Claude Simon, faisait venir tous les ans dans son château de Bonas la fine-fleur internationale de la reconnaissance des formes. Mais je ne faisais pas de traitement numérique d’images alors. On calculait par ordinateur des filtres complexes par holographie numérique que l’on introduisait dans des montages optiques en double diffraction sur des tables de marbre. Une semaine de calcul du filtre puis quinze jours d’expérimentation en optique pour décider qu’il fallait changer de paramètre du filtre et recommencer le cycle. Ce n’était pas tenable. On a donc décidé de simuler le traitement optique … et on est donc arrivé au traitement numérique !

    B : Les débuts du traitement numérique d’image ?
    HM : Oui, On simulait le filtre optique mais le filtre optique, ce n’était jamais qu’un filtre de corrélation que l’on faisait par une double transformée de Fourier. A l’époque, une double transformée de Fourier, ça vous prenait deux heures sur la machine, même si Cooley-Tukey étaient passés par là. On s’est rendu compte que c’était infiniment plus efficace que de le faire en optique. Que c’était plus rapide, plus souple et que finalement les nouveaux systèmes d’affichage d’image (des oscillos qu’on modulait devant un polaroïd), ou les mémoires d’image devenaient opérationnels. Et effectivement, honnêtement, le bilan scientifique, c’est que les méthodes optiques de traitement des images n’étaient pas compétitives face au traitement numérique. Mon collègue Jacques Fleuret a continué à faire du traitement plutôt optique pour des applications spécialisées ; on a continué à utiliser nos tables d’holographie, en marbre, nos bains photo, nos émulsions, mais on a multiplié les terminaux, gonflé notre mémoire et renforcé notre réseau.
    Je suis parti une année sabbatique en Allemagne dans un labo d’optique cohérente en pôle position dans la communauté de l’holographie, celui d’Adolf Lohmann. Mon cours expliquait le traitement numérique des images à des opticiens.

    B : C’était en quelle année ?
    HM : En 1980. Et je suis revenu avec une étiquette de traiteur numérique des images et à partir de là, je n’ai plus fait que ça.

    fetal_modelingModélisation anatomique d’un fœtus : l’opérateur choisit le stade de croissance,
    l’orientation globale dans l’utérus et la position des membres.
    S. Dahdouh, J. Wiart, I. Bloch, Whist Lab, Télécom ParisTech et Orange Labs.

    B : Est-ce que c’est correct de dire qu’aux alentours des années 80, le traitement de l’image a basculé ou commencé à basculer vers le numérique ?
    HM : La piste du traitement numérique remonte à 1965 et ses résultats sont déjà très nombreux en 1980 mais, effectivement, dans les années 80, le traitement numérique des images est la solution au problème alors qu’avant, elle était une des solutions possibles. Il y avait eu beaucoup plus de crédits dans le traitement optique car les militaires surtout de l’autre côté de l’Atlantique, mettaient beaucoup d’argent pour avoir des traitements embarqués en temps réel. Par contre, le traitement numérique a mis plus de temps car les infrastructures (calculateurs assez puissants, composants, …) n’étaient pas là. Comment est-ce que le traitement numérique est passé devant ? Incontestablement, c’est la conquête spatiale américaine qui a fait basculer le traitement numérique au premier plan.

    B : Et techniquement des choses comme la baisse du coût des mémoires ?
    HM : Bien sûr, l’évolution des composants surtout …. Mais qu’est-ce qui a entraîné l’autre ? Je ne sais pas. Il y a une chose extrêmement intéressante à voir rétrospectivement. Dans les années 70 à 80, lors de la compétition féroce entre les Américains et les Russes pour l’espace, les Américains, partis en retard, ont rattrapé les Russes à coups de technologie très avancée. Les Russes, eux, ont continué à faire une politique s’appuyant sur leurs points forts de base dans laquelle ils envoyaient des hommes dans l’espace. L’essentiel de la conquête de l’espace des Américains, comme des Russes, était destinée à améliorer la surveillance de l’autre. Les Russes le faisaient avec des jumelles depuis les satellites. Ils observaient des cibles, préparées sur des plannings, après des entraînements spécifiques qui leur permettaient de détecter, suivre et identifier les bateaux qui se trouvaient dans un port pendant les quelques minutes où la cible était en visibilité. Résultat : les Russes ont acquis une compétence extraordinaire sur la biologie dans l’espace, les capacités et les évolutions du corps humain, les effets de la gravité sur les performances du système visuel, le fait que, par exemple, la rétine, en apesanteur, ne voit pas les mêmes couleurs de la même façon. Pendant ce temps les Américains envoyaient des caméras prendre des photos et développaient des machines de traitement de l’image pour les exploiter. On voit le résultat quelques années plus tard : les Américains dominent complètement ce marché de la télédétection en haute résolution, tandis que les Russes ont acquis un savoir-faire exceptionnel sur les longs séjours des cosmonautes.
    Cet effort particulier des Américains lancé dans les années 70 à 75 commençait à retomber en pluie fine sur les universités et les labos de recherche. Dans les années 80, le traitement numérique des images était bien établi et, évidemment, s’appuyait sur l’informatique à fond.

    B : Est-ce le progrès du matériel qui a précipité le développement du traitement numérique d’image ou l’inverse ?
    HM :
    Les deux ont été vrais : l’exemple de la mémoire d’image est typiquement un point sur lequel le traitement de l’image a demandé des choses qui n’existaient pas à l’industrie des composants et les progrès ont bénéficié à l’ensemble de l’informatique. C’est probablement aussi le cas des disques à très haute capacité qui servent aujourd’hui avant tout à la sauvegarde des films et des images du grand-public, mais aussi à des applications commercialement moins porteuses mais potentiellement très riches comme les grandes bases de données du web.

    B : Et, à cette époque, tu es où ?
    HM : À Télécom ParisTech, l’ENST d’alors. Serge, c’est peut-être là d’ailleurs qu’on s’est connus ?
    Serge : J’y étais élève. Et tu étais mon prof.

    B : Qu’est-ce qui a évolué dans la recherche, en ce qui concerne le traitement du signal, de l’image, entre ce qui se faisait disons, dans les années 80, et ce qu’on fait maintenant ? Est-ce que c’est juste qu’on le fait mieux ou est-ce qu’il y a eu de nouveaux sujets qui ont émergé, des nouvelles pratiques ?
    HM : C’est assez clair : jusqu’aux années 85-90, le traitement de l’image était porté par des applications qui étaient très consommatrices de gros moyens informatiques. C’était l’imagerie satellitaire, j’en ai déjà parlé : pour la défense, la surveillance, la cartographie. On pouvait le mâtiner d’applications civiles, du genre surveillance des ressources terrestres, suivi des cultures, des forêts, … mais, en gros, c’était quand même essentiellement piloté par des applications militaires. Deuxièmement : l’imagerie médicale. Marché très important démarré avec l’analyse des radiographies et le comptage cellulaire. C’est à ce moment la naissance de la tomographie, de l’imagerie ultrasonore, de l’IRM. Une véritable révolution dans le domaine de la santé, qui renouvelle totalement le diagnostic médical. Matériels très chers, développés par des entreprises hautement spécialisées et très peu nombreuses. Le traitement des images dans ce domaine, c’est du travail de super pros qui s’appuient sur une très étroite relation avec le corps médical. Troisième domaine d’application très professionnel, les applications de traitement de l’image pour les contrôles dans les entreprises : surveillance des robots, lecture automatique dans les postes, dans les banques, pilotage des outils. Si c’est de plus petite taille, ça reste quand même très professionnel.
    Ce tableau s’applique, jusqu’aux années 90. Et là, la bascule s’est produite avec la démocratisation de la photo numérique dans des applications liées au web, à la photo personnelle, aux individus et au grand public, Bref le marché de la société civile. Là, on a trouvé des gens qui se sont intéressés aux mosaïques d’images, à la reconstruction 3D, à la reconnaissance de visages simplement pour des applications familiales ou entre amis.

    B : Les photographes amateurs et les réseaux sociaux ?
    HM : Oui, les réseaux sociaux. Ça ne s’appelait pas encore comme ça, mais c’était bien ça. Cette profusion d’images numériques dans les téléphones, les ordinateurs, les tablettes a fait basculer le traitement de l’image des domaines professionnels au domaine du grand public. Aujourd’hui, c’est le grand public qui tire, c’est très clair. Les développements des matériels, les appareils photos … Tout le monde a son appareil photo à 15 mégapixels, c’est absolument incroyable quand on voit le temps qu’il a fallu pour avoir une image numérique de 100 koctets !. Tous mes cours, commençaient par : « Une image, c’est 512 x 512 pixels.». Une base d’images numériques (comme celle du GdR Isis en France), c’était 30 images. Maintenant, tout le monde a sur son disque dur, des centaines d’images de plusieurs méga-octets. Ça, c’est le nouveau contexte du traitement de l’image. Je pense que cette nouveauté-là réagit très fortement sur les métiers du traiteur d’image. Si vous vous intéressez au renseignement militaire vous aurez probablement autant de renseignements en allant naviguer sur Google Earth qu’en envoyant des mecs se balader sur le terrain ou en lançant un nouveau satellite espion.

    B : Et la science là-dedans ? Est-ce qu’il reste des problèmes durs ? Des problèmes ouverts, le Graal du traitement de l’image aujourd’hui ? Ou bien, est-ce que le plus gros est fait, qu’il ne reste plus qu’à nettoyer ici ou là ?
    HM : Les problèmes nouveaux, oui, on a plein, parce qu’à la fin du siècle précédent, on considérait que si on voulait faire une application, la première chose qu’on demandait, c’est qu’il y ait des professionnels qui prennent les images avec du matériel pro. On se mettait toujours dans un contexte professionnel. Typiquement, pour la radiographie médicale, on achète un appareil à 15 millions d’euros, on prend deux techniciens à temps plein toute l’année et on fait des images dans des conditions parfaitement contrôlées. Donc on se met dans les meilleures conditions d’acquisition de l’image et à partir de là, bien sûr, on tire bon an mal an de bons résultats. Bon an mal an, parce que ce n’est pas si facile que ça. Mais dans les conditions naturelles de la vie : l’éclairage, l’attitude, le mouvement, le bruit, varient sans contrôle et rendent la tâche plus complexe. On dispose cependant de beaucoup plus d’images et de capteurs bien meilleurs et il faut réinventer les algorithmes avec ces nouvelles données. Naissent ainsi des problématiques nouvelles, extrêmement intéressantes, mais difficiles. Il faut trouver les bons invariants, jouer avec les lois de distribution pour détecter les anomalies, savoir faire abstraction des problèmes de géométrie. Et tout cela doit être caché à l’utilisateur qui n’a aucun intérêt aux invariants projectifs, aux matrices fondamentales, aux hypothèses a contrario …

    B : Passons à un autre sujet. Au départ, tu étais physicien. Ensuite, tu es passé au traitement de l’image. Nous, on te revendique maintenant comme informaticien, mais quel est ton point de vue à toi ? Est-ce que tu te considères comme informaticien, ou sinon, qu’est-ce que tu es ? Dans le cadre général de la classification des sciences, tu te places où ?
    HM : Je me sens tout à fait bien dans le monde de l’informatique, mais je revendique d’avoir non seulement une culture mais une sensibilité et une compétence qui vont au-delà, en particulier vers la physique, mais pas seulement. Par exemple je suis extrêmement soucieux de me maintenir en physique à un niveau qui soit suffisant, car je pense qu’on ne peut pas faire, dans mon domaine, de bonnes choses si on ne sait pas ce qu’est une réflectance, une albédo, ou une source secondaire.

    B : Toute l’optique ?
    HM : Une bonne partie de l’optique. Savoir ce qu’est une aberration, un système centré. Donc l’optique est importante. J’ai des sensibilités dans d’autres domaines : autour de la perception, du fonctionnement du cerveau, comment on traite la sémantique…

    B : Des sciences cognitives ?
    HM : Oui, ça pourrait relever de la science cognitive et c’est très important pour traiter les images. On ne peut pas parler d’image sans avoir une petite compétence en psycho-physiologie de la perception.

    B : Est-ce que tu pourrais nous dire comment tu as vu l’enseignement changer au cours de ta carrière à Télécom et comment tu vois le futur de cet enseignement dans un monde où on parle beaucoup de MOOC et de choses comme ça qui font couler beaucoup d’encre ?

    mexicoMesure par interférométrie radar de la subsidance du bassin de Mexico
    due à l’appauvrissement de la nappe phréatique : P. Lopez-Quiroz, F. Tupin, P. Briole
    Télécom ParisTech et Ecole Normale Supérieure 

    HM : Puisque l’on destine cet entretien à la communauté de l’informatique, parlons d’elle tout d’abord. Cet enseignement m’a longtemps semblé beaucoup trop utilitaire à l’école. Afin de se laisser le temps d’aborder les domaines les plus pointus des réseaux, des mobiles ou des services en ligne, on passait très vite sur des fondements théoriques qui me semblent cependant indispensables pour structurer une carrière orientée par exemple vers le développement de très grands systèmes ou de réseaux complexes. Je vois d’un très bon œil que, dans le cadre de notre participation à l’Idex de Paris Saclay nous puissions confronter notre expérience pédagogique à celle d’équipes qui ont dans ce domaine de l’enseignement supérieur de l’informatique de très beaux résultats. J’en attends d’une part une nouvelle pédagogie beaucoup plus en profondeur pour un petit nombre d’élèves destinés à y consacrer leur première carrière, d’autre part pour tous les autres un renforcement net de leurs compétences par une meilleure compréhension des enjeux du numérique.
    Je ne crois pas beaucoup à l’effet des MOOC dans ce domaine. Je les réserverais plutôt pour des domaines où la pédagogie est moins primordiale, peut-être vers les applications.

    B : Qu’est-ce qui t’a le plus intéressé dans ta carrière ?
    HM : La plus passionnante des expériences a été de travailler avec les laboratoires de recherche des musées de France, et en général c’est vers les applications que j’ai trouvé les plus grandes satisfactions, en frottant mes connaissances de traiteur d’image aux compétences d’experts d’autres domaines, qu’ils soient dans la restauration des peintures, dans la cartographie urbaine ou dans la détermination de l’altimétrie de la Guyane.

    poussinEtude de la géométrie d’une œuvre de Georges de la Tour
    (Saint Joseph Charpentier,  Louvres)
    mettant en évidence les principes de construction.
    JP Crettez, Télécom ParisTech et Réunion des Musées Nationaux.

    B : Tu as des exemples d’applications que tu as réalisées ?
    HM : C’était avec les laboratoires de recherche des musées de France. Ça s’appelle maintenant le C2RMF. On a lancé dans les années 83-88 les bases des grands projets européens d’archivage des musées. On a essayé de mettre sur pied non pas des standards mais des critères qui permettent d’établir ces standards, sur la résolution spatiale, l’éclairage, la colorimétrie des bases de données de peintures. Nous étions les partenaires du Louvre et on a travaillé avec l’Alte Pinakothek à Munich, la National Gallery de Londres, et la Galleria degli uffizi de Florence, bien avant que Google s’intéresse au projet. Des projets européens, on en a monté cinq ou six sur les peintures mais aussi sur les objets à 3D, les statues et les vases C’était passionnant et particulièrement stimulant de discuter avec des conservateurs qui ne voulaient surtout pas voir leurs peintures ramenées à un boisseau de pixels.

    HM : Un autre exemple de ce qui m’a beaucoup plu : définir la façon d’indexer les images de la nouvelle famille de satellites Pléïades qui a une résolution de 50 à 75 cm au sol, (toutes les minutes et demi, il tombe 640 méga-octets). Les gens ne peuvent plus traiter les images pour voir individuellement ce que chacune contient. On s’est posé la question de savoir comment indexer les images automatiquement quand elles arrivent, de façon à pouvoir répondre à des questions que l’on se posera dans 10 ans ou 20 ans. Il y a une grande partie de l’information qui est contrainte parce qu’on connait précisément la géographie, donc on sait que ce n’est pas la même chose si on observe du côté de Bakou ou de la Corne de l’Afrique. Mais derrière, il faut pouvoir identifier les champs, les rivières, les zones urbaines, les réseaux routiers, … Savoir s’il y a encore de la neige, ou du vent de sable, de telle façon qu’après, quand on recherchera des images, on retrouve toutes celles qui présentent une configuration identique. Pour cela, il a fallu tout construire de zéro car ça n’a bien sûr qu’un lointain rapport avec les bases de données d’images sur le web. On est obligé de faire des indexations hiérarchiques parce qu’il faut à la fois être précis lorsqu’on a trouvé la zone d’intérêt et rapide pour traiter des milliers d’images, chacune couvrant 1000 km2. Il a fallu discuter avec les utilisateurs : agronomes, géologues, urbanistes, cartographes, pour savoir comment faire les classes. Les gens qui s’occupent d’agronomie, veulent connaître le blé, l’orge, le riz, alors que, comme traiteur d’images, si j’ai reconnu des céréales, je suis très content ! Tu vas voir les urbanistes. Ils te disent : «Moi, je veux les quartiers résidentiels, les quartiers d’affaire, les banlieues, les zones commerciales, industrielles, etc. » et ainsi de suite. Il faut savoir quelles sont les classes qui sont raisonnablement utilisables et donc les questions que la société peut avoir face à l’image. Et je pense qu’à ce niveau-là, l’informatique a encore du boulot devant elle. Elle a encore du boulot parce qu’on va encore lui en poser des questions de ce type. La question n’est pas encore à l’ordre du jour sur le web « social », mais ça ne saurait tarder. Il n’y a qu’à voir comment à ce jour est indexée la musique pour comprendre où se situe le problème. Classer Brel dans la « musique du monde », pourquoi pas, mais qui en est satisfait ?

    B : Dans la suite de l’entretien, Henri Maître partagera sa vision de l’évolution de l’image et des perspectives sociétales qu’elle peut avoir. Nous vous donnons rendez-vous demain pour découvrir sa vision…

    maitreHenri Maitre, © Serge Abiteboul

  • Athéna, Héphaïstos et la robotique (2)

    Suite de l’entretien avec Jean-Paul Laumond

    DANSE-HRP2.2Le robot humanoïde HRP2 danse avec le chorégraphe et danseur Tayeb Benamara au festival La Novela de Toulouse en 2011. Crédit Photo C. Stasse

    B : Cette tension nous conduit au rôle que, dans ta leçon inaugurale au Collège de France, tu fais jouer à Héphaïstos. Peux-tu nous rappeler le mythe auquel tu t’es référé ?

    JPL : Dans la mythologie grecque, Héphaïstos est le dieu forgeron. C’est le dieu du faire, de la technologie, le dieu naturel du roboticien. Mais si j’ai utilisé cette référence, c’est surtout pour un épisode de sa vie amoureuse et de sa relation avec Athéna. C’est une histoire rapportée par Apollodore, un journaliste du deuxième siècle après Jésus-Christ. Un jour Athéna, la magnifique déesse de la sagesse et de la connaissance, commande des armes à Héphaïstos. Après quelque temps, elle vient voir où il en est. Héphaïstos tente alors de la séduire. Mais pas de manière symbolique ! Athéna le repousse, et il éjacule en l’air. L’éjaculât tombe sur la cuisse d’Athéna. Dégoûtée, Athéna s’essuie avec un morceau de laine. Le sperme tombe à terre, et la féconde. Il en naît Érichtonios, un des premiers rois d’Athènes. Héphaïstos ne parvient pas à posséder Athéna, mais sa tentative n’est pas tout à fait stérile. Cette histoire illustre assez bien la fertilité de la tension entre science et technologie.

    B : Je voudrais aborder la question de l’imitation. Il y a des informaticiens qui cherchent à ce que les ordinateurs, les robots, imitent les hommes. Et d’autres non. Par exemple quand on conçoit un algorithme d’inversion de matrices, on ne cherche pas nécessairement à ce que cet algorithme reproduise la manière dont nous inversons une matrice à la main. Quel rôle ce thème de l’imitation joue-t-il dans ta vision de la robotique et de l’informatique. Y a-t-il selon toi un intérêt à faire peindre des voitures par un robot humanoïde ?

    JPL : Non, je n’en vois pas l’intérêt. On a trouvé des solutions beaucoup plus simples et économiques. Le biomimétisme ne peut pas être une fin en soi. Il serait idiot de priver un robot d’un laser omnidirectionnel, même si aucun être vivant ne possède ce type de capteur. En revanche, il y a bien une dualité fructueuse entre comprendre comment les êtres vivants ont résolu un certain nombre de questions pour gérer leurs rapports avec le monde physique, et étudier comment une machine peut entretenir des rapports analogues avec son environnement pour remplir une fonction donnée. Je vais prendre un exemple issu de mes travaux actuels. Les robots humanoïdes marchent aujourd’hui en s’appuyant sur le contrôle du point de pression qui doit se situer dans l’enveloppe convexe des pieds sur le sol. Ce point de pression est observé par deux capteurs de force situés sur les chevilles du robot. Or, le neurophysiologiste nous apprend que le processus régulateur de la locomotion repose sur une référence à la verticale observée par une coopération subtile entre le système vestibulaire et la vision. Il y a là deux approches radicalement différentes. La comparaison entre ces deux approches permet de sélectionner celle qui est la plus performante. Le dialogue entre le roboticien et le chercheur en sciences du vivant ne peut être que stimulant. Seulement il faut prendre garde à ne pas confondre leurs missions respectives. J’aime rappeler que le roboticien est condamné à « faire » et le chercheur à « comprendre » et à tendre au général. Il n’est pas sûr que comprendre permette de faire, de la même manière qu’il n’est pas certain que faire aide à comprendre. On peut considérer toutes les combinatoires entre faire et comprendre, on trouvera toujours des exemples et des contre-exemples. Par exemple, les progrès dans le traitement du signal ont permis de mettre au point des machines permettant d’explorer le corps humain en donnant à voir ce qui était complètement invisible. Réciproquement, maîtriser les lois de la dynamique des fluides permet d’optimiser la forme de la coque des bateaux. Mais il y a aussi des contre-exemples qui montrent qu’il ne faut pas confondre faire et comprendre. Et je vais prendre un exemple qui va vous intéresser puisqu’il concerne l’algorithmique. Il y a en robotique un problème emblématique, celui du déménageur de piano : il s’agit de déplacer un objet pour l’amener d’un endroit à un autre dans un espace encombré d’obstacles. Le problème est parfaitement formalisé. Il est décidable. C’est une simple conséquence du théorème de Tarski sur la décidabilité de l’algèbre élémentaire. On peut donc le résoudre sur un ordinateur. Très bien. Il reste à trouver un algorithme et à analyser sa complexité. Un premier algorithme paraît en 1983, doublement exponentiel. Il est prouvé en parallèle que le problème est NP-difficile. Quelques années plus tard, un autre algorithme, simplement exponentiel, est publié. Son implémentation en calcul formel ne marche pas en pratique : trop d’équations et des degrés trop élevés. Puis dans les années quatre-vingt-dix, apparaissent des méthodes dites probabilistes. Elles font appel à des descentes de gradients qui optimisent localement un coût de progression vers le but, et elles les couplent avec des marches aléatoires lorsque les premières stagnent dans un minimum local. Conceptuellement, ces méthodes sont beaucoup moins puissantes que les précédentes : s’il y a une solution et qu’on dispose d’un temps infini, on en trouve une presque sûrement. En revanche, s’il n’y a pas de solution, on ne peut rien dire. Alors que les méthodes algébriques sont complètes, les méthodes probabilistes sont seulement complètes en probabilité. Conceptuellement, les méthodes probabilistes sont très simples, pour ne pas dire simplistes. Leur valeur vient du fait qu’elles résolvent en quelques minutes des problèmes trop difficiles pour les méthodes antérieures. Mais il faut bien comprendre que leur valeur dépend de la rapidité des processeurs. Elles n’auraient pas pu être publiées dans les années soixante ou soixante-dix, car les processeurs de l’époque auraient pris un temps de calcul rédhibitoire. C’est ce que j’appelle des méthodes immorales. Il n’est pas difficile de les mettre en échec en créant une instance des données d’entrée avec un puits de potentiel très profond, duquel une marche aléatoire a peu de chances de sortir en une nuit de calcul. Seulement il faut se creuser la tête pour trouver ce type de contre-exemple.

    B : Et dans les cas concrets, il marche bien ou il s’égare dans un puits de potentiel ?

    JPL : Voilà, on est au cœur du problème. Pourquoi conçoit-on ces algorithmes ? Pour comprendre ou pour faire ? Si c’est pour comprendre, cet algorithme ne sert pas à grand-chose. Si c’est pour faire, il est formidable, et j’ai même créé une société pour les vendre et les exploiter dans le domaine du prototypage virtuel. En effet, les contre-exemples tordus ne se présentent pas dans les problèmes de CAO. Une anecdote illustre ce point. Nous voulions vendre notre logiciel à une grande entreprise. Notre solution est d’abord expertisée dans les laboratoires de recherche de cette entreprise, et bien sûr, un contre-exemple est trouvé. Heureusement, en parallèle, nous avions démarché les opérationnels : eux étaient très satisfaits du produit. S’en est suivie une réunion tripartie entre les chercheurs et les opérationnels de cette entreprise, et nous, jeune entreprise. Tout le dialogue s’est passé entre eux : le laboratoire de recherche rejetait notre solution qui était incomplète, tandis que les opérationnels voulaient l’adopter parce qu’elle résolvait le problème qui était le leur, et que les contre-exemples identifiés ne correspondaient en rien à leur pratique.

    B : Je veux rebondir parce que ça rejoint complètement des expériences que j’ai et un questionnement. Les puissances de calcul vont croissantes avec l’évolution du matériel. On a un problème, et on cherche une méthode en adéquation avec ces performances. On trouve un algorithme et cet algorithme est d’une certaine façon, comme tu as dit (et j’aime bien le mot), « immoral ». Ce que j’aimerais savoir c’est s’il est par essence immoral ou si c’est uniquement parce que notre connaissance aujourd’hui nous empêche de comprendre les conditions dans lesquelles cet algorithme fonctionne. Est-ce qu’il y aurait une science qui nous permettrait d’expliquer de façon propre, de façon mathématique, pourquoi ça marche, quand ça marche et quand ça ne marche pas ? Et pas juste expérimentalement…

    JPL : Ta question contient la réponse. En général l’algorithme marche très bien. Mais comprendre pourquoi cela marche si bien est un problème très difficile qui porte un vrai défi scientifique. Au début des années quatre-vingt-dix, j’avais lancé une thèse sur le sujet. Rapidement des modèles de physique statistique se sont imposés comme modélisant très bien le comportement de nos algorithmes. Au bout d’un an, j’ai été faire un exposé dans un laboratoire de physique statistique. Les collègues m’ont dit : « On ne pensait pas que les roboticiens s’intéressaient à ces problèmes ! Si vous voulez vraiment les résoudre, c’est-à-dire comprendre pourquoi vos algorithmes marchent si bien, et par exemple calculer leur comportement en moyenne en fonction d’une classe de données d’entrée, vous êtes le bienvenu pour conduire votre recherche dans notre laboratoire. Mais il ne faut pas croire que vous pourrez faire en même temps de la robotique… ». En conséquence de quoi j’ai arrêté cette ligne de recherche, extrêmement bien identifiée, mais qui sort du champ de la robotique.

    HRP2-8.2Le robot humanoïde HRP-2 ramassant une balle.
    Crédit photo S. Dalibard, (c) LAAS-CNRS

    B : Mais quel est ton sentiment ? Penses-tu qu’on puisse parvenir à bien comprendre le comportement de ces méthodes ? Il y a un petit nombre de cas où on sait le faire. Il y a par exemple des algorithmes probabilistes pour factoriser des entiers. Et il y a clairement des cas où le problème est soit indécidable, soit d’une complexité tellement élevée qu’on ne sait pas faire.

    JPL: Je crois qu’on doit pouvoir atteindre des résultats partiels. Par exemple, il serait intéressant d’équiper d’une mesure l’espace des entrées de l’algorithme, et de prouver que l’ensemble des problèmes non résolubles en temps borné est de mesure nulle. Ce serait un joli résultat formel. Il me semble atteignable. Ensuite, pour revenir à la robotique, on pourrait se poser la même question sur la classe des problèmes qu’on cherche à résoudre dans le monde réel.

    B : Pour cet exemple, tu es parti du problème du déménageur de piano en robotique. Mais la problématique de recherche que tu évoques se retrouve dans d’autres pans de l’informatique.

    JPL : Certainement. Cela étant, je voudrais souligner un effet pervers de ces algorithmes du point de vue de l’enseignement. Sur les trente heures de mon cours sur la planification de mouvement en robotique, je ne consacre qu’une demi-heure aux méthodes probabilistes. Pourquoi ? Parce que je n’ai rien à dire de plus sur le plan formel. J’exagère un peu, et je ne veux pas dénigrer les travaux dans ce domaine, d’autant qu’il s’est développé toute une ingénierie de ces méthodes-là. Mais du point de vue de la connaissance générale, il n’y a pas plus que ce que nous en avons dit dans cette conversation. Je préfère insister sur le fait qu’elles doivent être utilisées avec parcimonie. Elles ne doivent pas se substituer à l’analyse des problèmes au simple prétexte qu’elles marchent. Nous arrivons à des situations où, face à un problème particulier, on ne se pose même plus la question fondamentale de sa décidabilité, on passe tout de suite à sa résolution ! Il en va de même dans d’autres domaines du numérique. Il règne par exemple une certaine confusion entre des notions telles que « mouvement optimal » et « mouvement optimisé » (tu peux remplacer « mouvement » par « solution », mon développement tiendra). Je me rappelle un article que j’avais soumis au début des années quatre-vingt-dix dans une conférence. C’était le premier algorithme qui garait une voiture de manière générique. L’article a été rejeté du fait que la solution proposée n’était pas optimale. Or, il est connu qu’il n’y a pas de solution optimale ! L’article n’est donc pas passé par la case conférence. Il a été publié directement dans une revue quelques semaines plus tard. Très souvent, ce défaut d’analyse conduit à des abus de langage. On raffine une solution avec un algorithme numérique d’optimisation et on conclut à l’optimalité du résultat.

    B : Tu peux quand même dire que ton algorithme prend une solution et calcule une solution meilleure ?

    JPL : Meilleure, c’est la moindre des choses quand même ! Mais pas optimale. Tout à l’heure, je disais que ma découverte de l’informatique a été celle de l’impératif de construction d’objets dont les mathématiques avaient prouvé l’existence. Reste à ne pas tomber dans le paradoxe de construire des objets dont on ne sait même pas s’ils existent !

    B : Cet angle-là est passionnant. Pourrais-tu nous en dire plus parce que, par exemple dans le rapport sur l’enseignement de l’informatique que nous t’avons passé, certains nous accusent d’être allés trop loin vers les mathématiques, d’autres trop loin vers la technique ; et là tu te situes véritablement dans le cœur du sujet, c’est-à-dire que tu refuses quelque chose qui serait complètement mathématique s’il n’y a pas de construction.

    JPL : Athéna seule, sans Héphaïstos.

    B : Et tu refuses quelque chose qui serait purement constructif, dans lequel on n’essaye même pas de comprendre ce qu’on fait.

    JPL : Héphaïstos seul, sans Athéna.

    B : Mais encore… C’est un compromis qu’on fait en permanence, non ?

    JPL : Résoudre le compromis, ce serait faire en sorte qu’Héphaïstos puisse réellement, en toute quiétude, en tout bonheur, épouser Athéna.

    B : Tu parles d’épouser ou de connaître au sens biblique du terme ?

    JPL : Je me réfère effectivement à la connaissance au sens biblique du terme, à l’idée de possession. Et ce n’est pas une pirouette. Je pense qu’il ne faut pas résoudre cette tension. Il ne faut pas chercher à la résoudre, d’abord parce que je pense qu’elle est insoluble. C’est une intuition, il faudrait appeler des philosophes des sciences autour de la table. Mais surtout, je pense que cette tension est à l’origine de la passion commune qui fait que nous sommes ensemble autour de cette table. Le moteur de cette passion réside dans cette tension. C’est cette espèce d’écartèlement entre des prétentions à une connaissance universelle, à une science qui est mouvante, qui n’est pas encore stabilisée, et un devoir de faire — un devoir d’action — qui ne s’impose pas dans d’autres sciences. Dans les autres sciences, normalement, il n’y a qu’un devoir de production de connaissances. Je force sciemment le trait, la réalité est bien sûr plus nuancée.

    B : Ça c’est une vision très récente de la science. Encore au XIXe Siècle, Quand on faisait de la thermodynamique, il y avait un but qui était de faire des machines à vapeur. On ne faisait pas de la thermodynamique pour le bonheur de faire de la thermodynamique exclusivement.

    JPL : Bien sûr. Et le XXe siècle finissant a inventé le cadran Pasteur pour rationaliser la gestion de la recherche. Disons que mon propos est d’insister sur certains aspects fondamentaux de nos recherches, pour relaxer quelque peu l’impératif des impacts sociétaux auxquels nous sommes soumis. Il s’agit seulement de rappeler que nombre d’exemples pullulent de résultats de recherches dont on ne savait pas sur quoi ils allaient déboucher en pratique au moment où ils étaient produits.

    B : La posture qui consiste à dire : « Je suis un savant, je m’intéresse à Athéna et pas à Héphaïstos » est relativement récente. Jusqu’au milieu du XIXe siècle, c’était un peu le même métier qui à certaines occasions était plus Athéna, à d’autres était plus Héphaïstos. La distinction sociale et la posture du savant pur sont récentes. Avec l’informatique, on est à redécouvrir ce qu’était un savant à l’époque de Torricelli, où Torricelli à la fois s’intéressait à des questions de fabrication de fontaine, et d’ailleurs ça lui a donné pas mal d’intuitions sur la notion de pression, mais également à comprendre la physique.

    JPL : C’est tant mieux. Et je suis persuadé que Torricelli vivait la même tension. Pour insister une dernière fois, je suis persuadé que cette tension a une origine épistémique profonde liée au concept d’action. L’action est impérative. Elle te force à faire des choix. Je vais prendre un exemple de la vie quotidienne. Tu dois garer ta voiture sur une place de parking un peu étroite. Tu essaies, tu n’y parviens pas, tu vas en chercher une autre. Tu ne sauras jamais si se garer à cet emplacement était possible ou non, alors même que nous avons des modèles formels prouvant la décidabilité de la question. Tu n’en as cure. Effectivement, le principe d’action porte en lui un principe de négligence. Convenons que ce principe de négligence est coupable dans le domaine de la recherche.

    Informaticien, mathématicien, roboticien ?

    JPL : Est-ce que toi, Jean-Paul Laumond, tu te considères comme un informaticien ?

    Jan-Paul Laumond : Non.

    B : Comme un mathématicien ?

    JPL : Non, ce n’est parce que j’ai eu une formation en mathématiques, ou que j’utilise des mathématiques dans mes travaux que je suis un mathématicien. Je n’ai pas produit d’abstraction nouvelle, ni prouvé de nouveaux théorèmes. J’ai fait quelques travaux en algorithmique, donné par exemple une condition linéaire et suffisante (mais malheureusement pas nécessaire) d’hamiltonicité pour un graphe planaire…

    B : On ne peut pas faire plus informatique que ça ! Donc, nous te revendiquons comme informaticien !

    JPL : Eh bien, très bien ! Je suis très heureux d’appartenir au club. Mais je préfère me définir comme un roboticien, car ce qui m’intéresse c’est le rapport que peut entretenir la machine avec le monde physique, pas seulement le traitement de l’information. Il y a bien sûr de l’informatique en robotique, mais aussi des mathématiques qui ne sont pas de l’informatique. Et puisque maintenant je suis un informaticien, dois-je aussi me considérer comme un automaticien et un traiteur du signal ? À moins que ces disciplines ne fassent partie de l’informatique, comme l’a suggéré la récente réorganisation des instituts au CNRS.

    Par ailleurs, je ne veux pas préjuger du futur de la robotique. On assiste aujourd’hui à un développement des liens entre la robotique et les neurosciences. Je crois en ces liens. Certes, les modèles qui autorisent le dialogue restent « calculatoires » au sens de l’informatique. Mais la robotique ne se réduit pas au calcul. Elle dépend aussi de la physique et de la conception de nouveaux matériaux. Un collègue de Pise vient de mettre au point une nouvelle main articulée. Elle est souple, tu peux la frapper avec un marteau, lui tordre les doigts. Elle intègre un nouveau moteur qui permet de programmer des modes de contrôle agonistes et antagonistes, suivant les mêmes principes de synergie motrice qu’on trouve en biomécanique. Ces nouveaux moteurs posent de nouveaux problèmes d’automatique. C’est pourquoi, quand tu me demandes si je suis informaticien, je préfère te répondre que je suis roboticien. La robotique est une discipline qui n’a que cinquante ans, beaucoup plus jeune que l’informatique. Il va falloir encore quelques années avant qu’elle soit reconnue autrement que comme une discipline d’intégration de disciplines diverses.

  • Athéna, Héphaïstos et la robotique (1)

     

    Entretien avec Jean-Paul Laumond

    laumond.2

    réalisé par Serge Abiteboul et Gilles Dowek

    Jean-Paul Laumond est directeur de recherche au LAAS-CNRS à Toulouse. Il a occupé une Chaire du Collège de France de 2011 à 2012, « Robotique : champs scientifiques et diffusions technologiques ». Il raconte son parcours et sa découverte de la robotique. Il montre les liens et les tensions entre la démarche scientifique, où la généralité des solutions prime, et la démarche technique, où toutes les solutions sont bonnes. Il nous montre comment la conquête de l’autonomie s’accompagne de l’émergence de description abstraite des tâches effectuées par le robot : des signes. Il évoque enfin la similarité des problèmes en robotique et en neurophysiologie. La robotique, territoire en pleine mutation, est aussi un lieu privilégié pour interroger les liens de l’informatique avec les mathématiques, la physique et la mécanique. La richesse de l’informatique, sa beauté, est aussi dans dans la complexité de ces rapports avec les autres sciences.

    Serge Abiteboul, directeur de Recherche à Inria, à l’ENS Cachan, membre du Conseil national du numérique et du Conseil scientifique de la SIF.
    Gilles Dowek chercheur à Inria dans l’équipe Deducteam et dans le Mooc Lab, membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene (CERNA), et du Conseil scientifique de la SIF.

    Binaire : Comment es-tu devenu chercheur en robotique ?

    Jean-Paul Laumond : Mon histoire est révélatrice de la manière dont la recherche en robotique s’est construite. À la fin des années soixante-dix, elle en était à ses débuts et réunissait des étudiants et des chercheurs d’horizons divers. J’ai fait les classes préparatoires, mais je n’avais pas envie d’être ingénieur. De fait, je ne comprenais pas ce que recouvrait le terme, et j’étais attiré par des formes de connaissance que je supposais plus abstraites. J’ai fait des mathématiques, sans être suffisamment bon pour décrocher une école normale. J’ai donc passé une maîtrise, puis le Capes, et j’ai enseigné quelques années. Mais, même si je garde de très bons souvenirs de cette époque, je n’étais pas pleinement satisfait par le métier. Il s’agissait de transmettre, mais pas d’apprendre et encore moins de créer. J’avais, à cette époque, des amis qui, eux, avaient fait une école d’ingénieur et qui m’ont fait découvrir un nouveau mot : la robotique. J’ignorais totalement ce que c’était. Une équipe de recherche était en train de se monter au LAAS sur ce thème. C’est à ce moment-là que je provoque une rencontre décisive : Georges Giralt accepte de recevoir un jeune professeur de mathématique désireux de pénétrer le monde de la recherche. Sur ses conseils, je décide de faire un DEA, puis une thèse, tout en poursuivant mon activité d’enseignant. Parmi les cours que j’ai alors suivis dans le cadre de mon DEA, il y avait un cours d’analyse d’algorithmes. Pour mon stage, je devais analyser un algorithme de Hopcroft et Tarjan sur la décomposition de graphes en composantes 3-connexes. J’ai eu beaucoup de difficultés, et c’est seulement des années plus tard que j’ai compris qu’il y avait de quoi ! C’est un algorithme assez difficile. C’est en lisant cet article que j’ai vu pour la première fois l’instruction « i := i + 1 » écrite en Algol libre. Pour moi les deux points étaient une erreur de typographie et je lisais « i = i + 1 ». Je ne comprenais pas, c’était absurde. J’ai l’air de caricaturer, mais, à cette époque, un étudiant en mathématique pouvait faire tout son cursus sans rencontrer d’algorithmes, ni cette notion étrange « d’affectation de variable ». C’était, par rapport à la formation générale d’un professeur de mathématique, une véritable révolution galiléenne qui se produisait dans ma tête. Pour moi, la découverte de l’informatique a été cette introduction du temps, base de toute construction. Et cela a commencé à me plaire. Je me suis ensuite intéressé au dessin de graphes sur une surface. Il y avait un théorème (le théorème de Fary) qui disait que tout graphe planaire pouvait se représenter par des segments de droites, sur une surface plane. Il y avait ce théorème d’existence, mais pas d’algorithme. Là j’ai senti s’ouvrir un champ de connaissance que je ne soupçonnais pas : l’informatique consistait à construire des objets dont les mathématiques avaient prouvé l’existence ! C’est une manière de voir l’informatique que j’ai gardée tout au long de ma carrière.

    HILARE.2Le robot Hilare a été un des tout premiers robots mobiles autonomes développé au LAAS-CNRS à la fin des années 1970. On peut le voir maintenant au Musée des Arts et Métiers de Paris. Crédit : Photo Matthieu Herrb (c) LAAS-CNRS

    B : Donc tu as commencé ta carrière de chercheur en faisant de la théorie algorithmique des graphes. Comment es-tu passé à la robotique ?

    JPL : En fait, si Malik Gallab (mon directeur de thèse) m’avait orienté vers la théorie des graphes, c’était dans le cadre des travaux précurseurs de Georges Giralt sur l’autonomie des machines : la robotique avait, dès cette époque, l’ambition de doter les machines physiques d’autonomie de comportement. Pour cela il fallait qu’elles comprennent l’univers dans lequel elles évoluaient. On partait de l’idée qu’il fallait doter les machines d’organes de perception leur permettant de dresser une carte géométrique de leur environnement, par exemple de l’appartement dans lequel elles étaient. Mais comment comprendre cette carte, comment dire : ceci est une pièce, ceci est une porte ? L’idée a été de trianguler l’espace et d’abstraire cette carte géométrique sous la forme d’un graphe. Dans un graphe, une porte c’est un point qui, si on le supprime, déconnecte la pièce dans laquelle la porte permet d’entrer : c’est un nœud d’articulation dans le graphe. D’où l’approche, que l’on doit à Malik Gallab, de décomposer le graphe pour faire émerger la structure du lieu. L’idée qui nous animait, à l’époque, et qui va être au cœur de mes travaux ultérieurs, était de traiter la puissance du continu de l’espace par des structures de données combinatoires. Le titre de ma thèse était « Utilisation de graphes planaires pour l’apprentissage de la structure de l’espace d’évolution d’un robot mobile ». C’était les débuts de l’apprentissage automatique. La robotique autonome était dominée par l’idée d’appliquer des techniques issues de l’intelligence artificielle. D’un côté, on avait la robotique industrielle représentée par exemple par tous les travaux sur la téléopération conduits au commissariat à l’énergie atomique. C’est elle qui a donné la robotique chirurgicale. D’un autre coté, il y avait cette ambition de la robotique autonome, qui venait des chercheurs en intelligence artificielle, principalement du Stanford Research Institute, qui voyaient dans les robots une concrétisation de systèmes d’intelligence artificielle. De ce point de vue la robotique était une partie de l’intelligence artificielle, et donc de l’informatique pure si on peut dire. C’est un point de vue que j’ai pu être amené à critiquer par la suite, mais à cette époque, c’était la vision qui prédominait. Au travers de ma thèse, l’idée émergeait que la logique des prédicats n’était pas le seul outil permettant de concevoir des machines intelligentes, et qu’il fallait traiter aussi symboliquement d’autres champs de la connaissance, en particulier la géométrie. À la fin des années quatre-vingt, j’établis un pont entre la géométrie algorithmique et la géométrie algébrique réelle (c’est-à-dire des géométries de structures statiques), et la géométrie différentielle qui introduit la notion du temps avec ses dérivées : il s’agissait de garer une voiture. Or le mouvement de roulement sans glissement est une liaison différentielle non intégrable. La robotique autonome convoquait les notions de distributions non intégrables et de crochets de Lie de champs de vecteurs ! Cette passerelle entre géométrie différentielle et géométrie algorithmique posait des problèmes tout à fait originaux et, ce qui est intéressant de noter, des problèmes nouveaux pour les mathématiciens eux-mêmes. En effet la robotique exigeait des algorithmes, là où les mathématiciens ne voyaient que des problèmes d’existence. En 1987, un grand colloque, intitulé « Mathématiques à venir », s’est tenu à l’École polytechnique. J’y étais invité à exposer mes travaux dans une session qui s’appelait non pas « mathématiques appliquées », mais plus subtilement « applications des mathématiques pures ». Les questions que l’on se posait à l’époque, et que l’on se pose toujours, étaient des questions de géométrie algébrique réelle et de géométrie sous-riemannienne. Des questions difficiles, en particulier parce que d’ordre combinatoire.

    « Des robots des chaînes de montage aux robots humanoïdes »

    B : Tu as évoqué la diversité des robots, avec d’un côté le bras robot des chaînes de montages automatisées, et de l’autre les robots qui cherchent l’autonomie, voire les robots humanoïdes. Est-ce qu’il existe, malgré tout, une unité de la robotique ? Ou la diversité des robots est-elle telle que les problèmes qui se posent n’ont rien à voir les uns avec les autres ?

    JPL : Mes travaux de recherche tendent à dégager une unité. La robotique se définit de manière synthétique comme l’étude des rapports que peut entretenir une machine avec le monde réel, une machine qui agit, et qui agit par le mouvement. Le mouvement est absolument central. Un robot est une machine qui bouge et qui est commandée par un ordinateur. Ce qui distingue le robot de l’automate, c’est qu’un robot n’est pas commandé par des cames, aussi subtiles soient-elles. Il y a une transformation, un traitement de l’information, qui met en rapport l’espace sensoriel et l’espace moteur. La fonction sensorimotrice — la rétroaction diraient les automaticiens — est fondamentale. Elle est d’ailleurs l’apanage du vivant : une laitue bouge et croît par photosynthèse ; un guépard repère sa proie et la poursuit en la maintenant dans son champ de vision. En robotique, cette boucle sensorimotrice est plus ou moins complexe : elle va de la simple fonction réflexe, où un signal produit directement une commande, à des architectures complexes, comme celles que j’évoquais plus tôt, qui incluent une modélisation et un raisonnement sur l’espace. Ce point de vue n’est bien sûr pas nouveau. Il a déjà été exploré, par exemple, par Poincaré qui établit une forme de triangulation entre l’espace physique, l’espace sensoriel et l’espace moteur. Nous, êtres humains, n’avons accès qu’à l’espace sensoriel et à l’espace moteur. Avec ces deux espaces nous devons reconstruire le réel. La géométrie est l’outil privilégié de cette construction. La question pour le roboticien est de conduire cette construction de manière effective, en utilisant un ordinateur. Ainsi posé, on sent bien poindre une unité.

    B : Pourquoi appelle-t-on un robot aspirateur « robot aspirateur » et non « aspirateur à roulette » ?

    JPL : Parce que le « robot aspirateur » a des capacités d’autonomie. Il est capable de s’adapter à des environnements pour lesquels il n’a pas été programmé explicitement. Il y a de nombreuses choses qui bougent dans nos maisons, mais vous n’avez jamais vu une machine à laver venir toute seule à coté de vous dans le salon. Je dois ici préciser la notion de mouvement. Il y a deux grands types de mouvements. D’un coté le mouvement d’une machine à laver qui tourne autour d’un axe fixe, d’une plante qui ne peut pas se déplacer, d’un robot-peintre sur une chaîne de montage automobile. Ces mouvements sont locaux, en quelque sorte, enracinés. Ils ne mettent en jeu que les variables internes du système. De l’autre, et c’est ce qui distingue l’animal du végétal, il y a les mouvements de déplacement : le guépard doit se déplacer pour se nourrir. Ce n’est pas le cas de la laitue. Pour le moment les seules machines qui bougent automatiquement dans notre quotidien sont sur des rails, horizontaux, comme les trains, verticaux, comme les ascenseurs… Mais qu’un robot se déplace, de manière autonome, c’est-à-dire sans que sa trajectoire ait été explicitement programmée, c’est nouveau. C’est en ce sens que les aspirateurs à roulettes que tu évoques sont bien des robots.

    B : Une voiture sans chauffeur ?

    JPL : Oui, c’est un robot.

    B : Et un avion de ligne, avec un pilote automatique ? Est-ce un robot ou un système embarqué ?

    JPL : On arrive aux limites de ma définition. Mais je vais essayer de défendre qu’un avion de ligne avec un pilote automatique n’est pas un robot. Pourquoi ? Parce qu’un pilote automatique conduit l’avion sur des rails. Ces rails sont virtuels ; ils sont constitués de points de passage obligés. Le pilote automatique consiste seulement à maintenir un cap entre ces points de navigation. Un pilote automatique ne peut pas être à l’origine d’un looping pour éviter un missile.

    B : Et les missiles justement ? Les drones ?

    JPL : Oui, ce sont des robots dans la mesure où ils ont une beaucoup plus grande capacité d’adaptation de leurs mouvements dans l’espace.

    LAMALe robot LAMA a été la plateforme de recherche du programme RISP de robotique d’exploration planétaire dans les années 1990.
    Crédit Photo Matthieu Herrb (c) LAAS-CNRS

    Pourquoi n’a-t-on pas encore de robots à la maison, comme dans les films ?

    B : Quels sont les verrous qui résistent ? Pourquoi n’a-t-on pas encore de robots à la maison, comme dans les films ?

    JPL : Les principaux succès de la robotique sont en robotique manufacturière : les robots des chaînes de montage, par exemple dans l’industrie automobile, ont profondément modifié les moyens de production. Avant de parler des robots à la maison, il faut noter que même dans le cas de la robotique manufacturière, il y a encore beaucoup de progrès à faire. Par exemple, assembler un ordinateur portable demande aux ouvriers plus de deux cents manipulations élémentaires de pièces diverses qu’il faut prendre, poser, retourner ou déplacer. Aujourd’hui, les chaînes de montage d’ordinateurs ou de téléphones ressemblent à s’y méprendre aux chaînes de montage de l’industrie manufacturière des années vingt. Il y a ici un énorme marché à conquérir pour la robotique. Il ne s’agit pas nécessairement de remplacer tous les opérateurs humains qui travaillent sur ces chaînes de montage, mais par exemple un sur deux. C’est la stratégie que met en place la société japonaise Kawada avec son robot HiroNX, composé de deux bras et d’une tête portant des caméras.

    B : Et pourquoi n’est-ce pas encore fait ?

    JPL : Parce que le problème de la sécurité n’est pas encore résolu. On ne peut pas s’approcher d’un robot qui fabrique une voiture, c’est trop dangereux. Le défi aujourd’hui est de concevoir un robot qui travaille avec des humains. Le problème est en voie de résolution grâce à l’introduction d’actionneurs flexibles qui permettent souplesse et sécurité dans les échanges d’énergie mécanique entre l’opérateur et la machine. On assiste à des démonstrations très impressionnantes : par exemple, au DLR en Allemagne, j’ai fait l’expérience d’arrêter instantanément avec ma main un bras manipulateur lancé à pleine vitesse. Le doctorant dont c’est le sujet de thèse l’arrête avec sa tête ! Ce type d’expérience s’appuie à la fois sur des progrès théoriques en automatique et sur des progrès technologiques en matière de calcul qui autorisent des temps de réponse extrêmement rapides. Cette question de la sécurité est essentielle dans le développement de la robotique de service. Si un robot vous accueille dans un supermarché pour vous guider vers le paquet de café que vous voulez acheter — au lieu de vous perdre dans le dédale des rayons — le robot va partager un espace avec vous et avec beaucoup d’autres personnes, et il ne faut pas qu’il mette ces personnes en danger.

    B : C’est donc cet impératif de sécurité qui fait que nous n’avons pas encore de robots autonomes autour de nous.

    JPL : La sécurité est un impératif critique. Ce n’est pas le seul. L’environnement d’un robot de service est beaucoup moins structuré que dans une usine. Un robot domestique devra être capable de s’adapter à un appartement ou à un autre (comme le font d’ores et déjà les robots aspirateurs). On ne veut pas programmer explicitement chaque robot individuellement. Il faut donc des robots avec un très haut degré d’autonomie, les degrés d’autonomie se définissant par les niveaux d’abstraction plus ou moins élevés de programmation.

    B : Et un tel robot — nous ne sommes pas ici pour éviter les questions — sera-t-il capable de simuler un comportement intelligent ? Quelles connections aujourd’hui entre la robotique autonome et l’intelligence artificielle ?

    JPL : J’aurais envie de dire que je ne sais pas ce qu’est l’intelligence artificielle. Mais c’est très difficile quand tu viens d’un groupe de recherche qui s’est longtemps appelé « Robotique et Intelligence Artificielle » ! On fait souvent référence, à juste titre, à l’analogie suivante. Si tu as un gamin qui joue très bien aux échecs, sa grand-mère va te dire « Qu’est-ce qu’il est intelligent, ton fils ! ». Mais, pour autant, on ne qualifie pas d’intelligent l’ordinateur qui bat le champion du monde aux échecs. Le terme « intelligence » est beaucoup trop connoté et, de ce fait, l’expression « intelligence artificielle » est souvent mal comprise, et inconsidérément utilisée vis-à-vis du grand public. Si on se réfère aux défis du fameux colloque de Dartmouth en 1956, on constate qu’il y a eu certes des grands progrès en matière de traitement symbolique de l’information, mais toujours pas de machine de traduction universelle comme cela avait été imprudemment annoncé. Et on peut se poser la question de la décidabilité du problème de traduction. Je ne parle pas de la traduction de bulletins météo (on y parvient d’ores et déjà), mais de la traduction qui consiste à rendre accessible « Ulysses » de Joyce aux lecteurs français. Est-ce vraiment du ressort de l’informatique ? La réponse ne me semble pas claire du tout.

    strip-hrp2Le robot humanoïde HRP2 sait comment saisir un objet au sol.
    Crédit photo S. Dalibard, (c) LAAS-CNRS

    B : Souvent, pour les être humains, on oppose intelligence et habileté manuelle. La robotique est-elle l’habileté manuelle artificielle ?

    JPL : Je suis assez d’accord avec cette vision. L’intelligence artificielle a toujours été abordée au niveau des fonctions cognitives visant des capacités de raisonnement et de prise de décision d’un haut niveau d’abstraction. On ne considère pas un mouvement réflexe comme un mouvement intelligent ou issu d’un processus intelligent. C’est une simple boucle de rétroaction combinant, au niveau du signal, une information sensorielle et une commande motrice. Le niveau d’abstraction est faible. Un thème de recherche passionnant est celui de l’émergence du symbole dans la représentation de l’action : à quel niveau faut-il le situer dans un processus dit « cognitif » qui a trait à la réalisation d’une tâche ? Prenons un exemple : la tâche « prendre un stylo » exprimée en langage naturel. Pour une machine, comme pour un être humain, réaliser cette tâche peut-être simple ou complexe. L’organe de la préhension est la main. Si le stylo est à portée, il me suffit de tendre le bras et de le saisir. Mais si le stylo est dans la pièce d’à côté, il faut que j’utilise mes jambes pour m’y rendre et donc faire appel à une fonction locomotrice, et peut-être même à un plan pour savoir par où passer. Si le stylo est à portée de main, je n’ai pas besoin d’utiliser mes jambes. En revanche, si le stylo est situé par terre entre mes pieds, je vais devoir me baisser, et donc utiliser mes jambes, sans pour autant faire appel à une fonction locomotrice. Les mouvements peuvent donc être très différents d’un cas à l’autre. Ils correspondent pourtant à une même tâche exprimée par seulement trois mots « Prends un stylo ». Comment ces trois mots, qui qualifient une même action et qui correspondent à un niveau élevé de programmation pour un robot humanoïde, vont-ils s’ancrer dans une architecture logicielle qui va combiner ou non une fonction locomotrice et une fonction de saisie ? Comment une simple fonction de saisie peut-elle être encorporée (« embodied » en anglais) dans le robot ? Quelle place donner au symbole ? Voilà des questions, spécifiques à la recherche en robotique, qui tendent à explorer les liens entre « intelligence » et « habileté manuelle » pour reprendre tes deux expressions.

    B : Cette remarque est très intéressante parce que, pour un non-initié, un robot dans un environnement humain effectue des tâches compliquées et interagit pour effectuer des tâches cognitives de plus en plus complexes. Or, tu viens de nous expliquer que, pour un robot seul dans une pièce, ramasser un objet est déjà, d’un point de vue cognitif, une tâche extrêmement complexe.

    JPL : Oui, et c’est aussi très compliqué pour un être humain : encore une fois, comment se fait-il qu’une tâche de saisie soit amenée à stimuler les muscles des jambes ? Par quel processus ? Ces questions que pose le roboticien sont les mêmes que celles que pose le neurophysiologiste. On arrive ici à des questions interdisciplinaires absolument passionnantes.

    B : Si on reprend l’exemple du stylo, on pourrait dire que tous les moyens sont bons, du moment qu’à la fin tu as le stylo en main. Donc un robot beaucoup plus simple — par exemple un treuil — conviendrait.

    JPL : Oui, mais ce qui intéresse le roboticien, c’est un robot un peu plus universel qu’un simple treuil automatisé. Si on doit faire une machine qui doit seulement ramasser des stylos, on fait une machine qui ramasse des stylos. Tu as raison. Et si cette machine ne peut pas monter un escalier, ce n’est pas grave, si on a juste besoin d’une machine à ramasser des stylos, sans exiger d’elle d’en chercher un qui se trouve à l’étage. Ta question illustre de fait la tension que vit le roboticien entre sa volonté de généralité — il n’y a de science que générale — et son devoir de fabriquer des robots qui répondent à une certaine fonction. Par exemple, quel est l’intérêt de fabriquer un robot humanoïde ? On peut en discuter. En revanche, ce que je sais en tant que chercheur, c’est que jamais on n’a eu autant de bonheur qu’en travaillant sur une machine aussi « générale » et complexe. Cette complexité est avant tout mécanique. Elle est rendue possible par les progrès de la mécatronique (miniaturisation des composants électroniques, des moteurs, des capteurs, etc.). Qu’il soit possible aujourd’hui de construire des machines anthropomorphes capables de marcher toutes seules, c’est assez magique. Coordonner leurs trente degrés de liberté — on est loin de nos six cent muscles — pour effectuer une tâche particulière, c’est un défi pour le chercheur. Après, que fera-t-on de ces robots humanoïdes ? C’est un autre débat.

    Suite de l’entretien à venir….