Catégorie : Science

  • Les informaticiens et l’éthique du numérique

    Sans titreCouverture de The Economist, Décembre 2009.
    Lucas Cranach, Adam and Eve, 1526,
    Courtauld Institute of Art Gallery.

    Que deviendra la notion de vie privée dans notre société numérique ? L’hyper-mnésie et l’hyper-connectivité du net sont-elles des facteurs d’asservissement ou de libération de l’homme ? Quelle sera notre responsabilité vis-à-vis de robots commandés par la pensée, quelle sera notre cohabitation avec les robots ? Construire des robots ressemblant à l’homme est-il tabou ? Faut-il souhaiter ou redouter le transhumain, cet hypothétique homme augmenté de capacités intellectuelles et physiques jusqu’à prendre notre relai dans l’évolution ? Peut-on sans précautions utiliser des données personnelles, génétiques ou comportementales, à des fins de recherches ?

    Cet échantillon d’interrogations – dont certaines relèvent encore de la fiction – illustre l’ampleur et la diversité des questions éthiques que pose l’explosion du numérique.

    Il serait présomptueux de vouloir traiter ici ces questions, d’autant que l’on ne peut pas en débattre entre informaticiens seulement; le propos est plutôt d’esquisser comment le monde scientifique les aborde actuellement. L’accent est mis sur la nécessaire approche décloisonnée des questions éthiques, et la nécessaire inscription de celles-ci dans l’espace public au delà des seuls spécialistes.

    Ethique et déontologie

    En gros l’éthique – qu’elle soit générale ou appliquée à un domaine – relève d’abord de la philosophie et l’humain est en son centre. L’éthique se définit classiquement comme la science de la morale.

    La déontologie, qui n’est pas notre sujet ici, définit de manière plus opérationnelle les pratiques d’une profession, en accord avec l’éthique et le droit. La plus connue est la déontologie médicale. En informatique, le CIGREF (grandes entreprises utilisatrices) et le Syntec (SSI) ont défini leur code de déontologie. La déontologie engage comme le serment d’Hippocrate. L’ANR, agence nationale de projets scientifiques, affiche pour sa part une charte qui énumère les éléments suivants : Développer une recherche sérieuse et fiable ; Honnêteté dans la communication ; Objectivité ; Impartialité et indépendance ; Ouverture et accessibilité ; Devoir de précaution ; Equité dans la fourniture de références et de crédits ; Responsabilité vis-à-vis des scientifiques et des chercheurs à venir. Dans le monde anglo-saxon, on parle plus volontiers d’intégrité (integrity) qui met l’accent sur la responsabilité individuelle de comportement. Le comité d’éthique du CNRS (Comets) vient dans cet esprit d’éditer un guide pour promouvoir une recherche intégre et responsable.

    Une approche scientifique nécessairement ouverte

    Partout les réflexions éthiques mobilisent le regard croisé des philosophes, historiens, sociologues, juristes voire économistes. On peut même dire qu’ « élargir ses horizons » est inhérent à la démarche éthique, car on ne peut en général pas isoler les réflexions sur une science ou une technologie. Par exemple, en informatique, les considérations sur le Big Data ou sur l’anonymat ne peuvent être considérées que dans le contexte sociétal.

    Des sujets incontournables

    Dans le but louable de financer équitablement les cultes, les Pays-Bas avaient mis en cartes perforées IBM les données confessionnelles de leur population dès les années trente, ce qui servit en 1940 les funestes desseins des envahisseurs nazis. Notons que ce pays intègre maintenant tout particulièrement la préoccupation éthique dans ses programmes scientifiques.Certes, on ne peut pas incriminer les seules technologies, la délation par la peur et l’oppression est arrivée ailleurs au même résultat avec du papier et des crayons seulement. Il reste qu’au-delà des controverses, on voit que l’on peut difficilement se laver les mains de tels sujets : in fine, il s’agit des rapports entre la démocratie et les totalitarismes, et de l’avenir de notre monde.

    Depuis le procès des médecins de Nuremberg, et maintenant avec les possibilités ouvertes par la biologie et la médécine, la bioéthique occupe le devant de la scène en éthique appliquée. Cependant les débats éthiques s’élargissent, et la sécurité alimentaire, l’environnement et le numérique suscitent à leur tour des questionnements. Ainsi au niveau européen le réputé appel à projets individuels de l’European Research Council (ERC) compte 105 occurrences de “ethic(s)”! De plus, les candidats doivent remplir un questionnaire éthique de 26 items, dont une douzaine est susceptible de concerner le numérique, notamment à travers l’usage de données personnelles (dont génétiques ou biométriques), les neurosciences, les technologies pour la santé, l’usage militaire ou encore la vie privée (la surveillance et maintenant la sousveillance, qui consiste en la possibilité pour chacun de mettre instantanément sur le net tout ce qu’il perçoit ou que son smartphone capte des personnes qu’il croise).

    Des perceptions variables de par le monde

    Une vision de l’homme inspirée des religions révélées, celles des fils d’Abraham, peut percevoir le transhumanisme comme une transgression. Un asiatique influencé par le shintoïsme peut par contre concevoir l’homme comme participant à un tout dans un continuum entre la vie, la nature et l’artéfact, et ne manifester de ce fait aucune appréhension à l’égard des humanoïdes. Dans nos sociétés, la confiance en la science comme vecteur de progrès s’effrite parfois face à l’ambivalence des technologies qui envahissent notre quotidien. Ainsi on peut voir dans les technologies numériques un facilitateur d’épanouissement et de démocratie, ou à l’opposé un instrument mu par le profit qui accroit les inégalités entre les hommes. Les compromis entre respect de la vie privée et sécurité sont perçus différemment selon les continents ou les aspirations politiques… Plus généralement, une étude norvégienne de 2010 (ROSE the Relevance Of Science Education) portant sur 34 pays représentatifs de la diversité de la planète met en évidence de grandes diversités de perception des sciences et des technologies selon les continents, les cultures, la richesse par habitant ou encore le genre. Un maillage sans frontières des réflexions est donc nécessaire afin d’avoir pleinement conscience de la relativité des préconisations que l’on peut formuler à l’attention d’une nation ou d’une communauté – ainsi en Californie les journaux parlent le plus souvent de l’informatique pour souligner de nouveaux systèmes, des réussites, alors qu’en France on va insister sur les risques de pédophilies.

    Un enjeu de démocratie

    Les débats d’éthique ne doivent pas être confisqués par les scientifiques, sous peine d’un divorce entre les « savants » et la société – comme le dit joliment Jean-Claude Ameisen, président du Comité Consultatif National d’Ethique pour les sciences de la vie et de la santé (CCNE), les chercheurs ne doivent pas se percevoir comme des bergers conduisant un troupeau, mais comme des moutons parmi les autres. Imaginons par exemple que les seuls informaticiens se piquent de dire ce qui est éthique ou ne l’est pas dans le Big Data, ils seraient soupçonnés de vouloir s’ériger en « grands prêtres » du traitement de l’information.

    Si la pensée d’Hannah Arendt est abondamment revisitée actuellement, c’est qu’elle fournit un socle étonnamment d’actualité pour aborder ces questions. Très sommairement, l’idée est que les technosciences – omniprésentes dans notre quotidien, et au cœur desquelles figure le numérique – peuvent devenir outils d’un totalitarisme confisquant l’avenir des hommes, si ceux-ci ne développent pas à leur égard une pensée critique organisée à travers des espaces publics. Autrement dit, si les peuples acceptent que les technologies soient des outils que la propagande leur dit bienfaiteurs mais qu’ils ne questionnent pas, ces technologies peuvent menacer la démocratie. Un exemple souvent cité de cette propagande est le rapport NSF de 2006 au titre évocateur « Converging Technologies for Improving Human Performance : Nanotechnology, Biotechnology, Information Technology and Cognitive Science », popularisé sous le nom de convergence NBIC. Il est donc du devoir des démocraties d’organiser les espaces publics de débats sur ces sujets, et du devoir des citoyens d’y apporter une attention conjointe soutenue. En France, à titre d’exemples, la fondation Sciences Citoyennes, ou en informatique la Fondation Internet Nouvelle Génération (la FING) y œuvrent.

    Un paysage en construction

    Face à ces enjeux les initiatives se multiplient, principalement sous l’impulsion des Etats-Unis d’une part et de l’Europe d’autre part. Sur le plan scientifique, la bioéthique naturellement, mais aussi l’environnement et la sécurité alimentaire provoquent des débats de société, davantage encore que le numérique, car ces secteurs sont perçus comme conditionnant de manière intrusive le devenir biologique de notre espèce.

    Les comités d’éthique scientifique

    Ce sont généralement des instances consultatives, indépendantes, que l’on peut saisir ou qui s’autosaisissent de sujets éthiques, et qui fournissent des préconisations. Ils ont un rôle de réflexion et sensibilisation amont.

    En Europe, l’European Group of Ethics (EGE) joue ce rôle sur tout le spectre scientifique. La Commission Européenne est certes prolixe en tous domaines, mais on soulignera quand même l’abondance de la documentation sur l’éthique en général, et sur le numérique en particulier. Cette abondance semble viser davantage la sensibilisation des chercheurs que la construction d’une vision proprement européenne.

    En France, le plus ancien et le plus en vue est le CCNE déjà évoqué, créé en 1983 à l’initiative de François Mitterrand. Ce comité est placé auprès du Premier ministre, et sa composition garantit la représentation des grands courants philosophiques et religieux. Le CNRS dispose pour sa part depuis 1994 du COMETS. L’INRA et le CIRAD ont fusionné leurs comités.

    Concernant l’informatique, la CERNA (Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene) a été créée fin 2012 sous l’impulsion d’Inria et du CNRS par Allistene, l’alliance des sciences et technologies du numérique qui réunit le CEA, la CGE, le CNRS, la CPU, Inria et l’Institut Mines-Télécom. Le point de vue y est celui de la recherche et non des usages.

    Il s’ajoute bien entendu au paysage des groupes de travail qui émergent à l’initiative d’établissements ou de groupes d’établissements, comme par exemple le groupe Prométhos en éthique de l’innovation sur le plateau de Saclay.

    Les comités opérationnels d’établissement

    Ils traitent les questions engageant leur responsabilité à travers des projets ou la déontologie des personnels.

    Les instances de validation et certification (respect de normes éthiques)

    De plus en plus d’institutions demandent une certification de conformité éthique des projets de
    recherche attestée par un Institutional Review Board (IRB), notamment pour les recherches impliquant l’homme.

    Les espaces de débat public

    La France dispose depuis 1995 d’une Commission nationale du débat public (CNDP), créée dans le cadre de la loi relative au renforcement de la protection de l’environnement, dite loi Barnier. Cette commission, aux consultations fort diverses, a notamment (mal)traité des nanotechnologies en 2010.

    A un niveau intermédiaire entre le débat public et le cénacle de spécialistes, on peut citer les espaces éthiques régionaux qui se mettent en place à l’initiative du CCNE. Centrés sur la pratique hospitalière, ils associent des représentants des usagers.

    Notons aussi que face au trouble suscité par la biologie de synthèse, le ministère de l’enseignement supérieur et de la recherche a confié en 2012 au CNAM la création d’un observatoire de la biologie de synthèse, chargé d’informer le grand public et d’échanger avec lui.

    Les conférences et symposiums scientifiques

    Il est naturel que des manifestations scientifiques accompagnent la montée des préoccupations éthiques, dans le numérique comme ailleurs. Ainsi l’IEEE, maintenant association internationale des professionnels du secteur numérique et dont les racines remontent à 1884 et l’avènement de la fée électricité, lance l’année prochaine un symposium sur l’éthique appelé à devenir annuel.

    Deux conférences internationales de recherche sont consacrées depuis une vingtaine d’années aux différents aspects éthiques liés à l’informatique, CEPE et ETHICOMP. A l’initiative de la CERNA, elles se tiendront cette année conjointement et pour la première fois en France.

    D’une manière générale, les Français sont peu présents dans ce genre de manifestation. Ainsi, lors de la 3rd World Conference on Research Integrity (WCRI) qui s’est tenue en 2013 à Montreal, il n’y avait que 4 français sur 500 participants. Ce manque d’appétence de notre monde académique est peut-être dû à la faible reconnaissance dans notre pays des investissements dans les questions éthiques et plus généralement les questions interdisciplinaires. Peut-être aussi que, le regard fixé dans le rétroviseur sur notre rôle phare du temps des Lumières, nous percevons avec circonspections les nouveaux espaces éthiques qu’ouvrent les technosciences. Nuançant ce dernier propos, de nouveaux lieux de réflexions émergent dans notre pays, notamment au sein d’associations comme la FING (Fondation Internet Nouvelle Génération), Renaissance numérique, la Quadrature du net. Par ailleurs, l’AFIA (Association Française d’Intelligence Artificielle) a consacré un récent bulletin à un « Dossier Ethique et IA », et la SIF a reproduit une première version du présent propos dès le numéro deux de son bulletin intitulé 1024.

    ___________________________

    En conclusion, il importe que les scientifiques contribuent aux débats sur l’éthique des nouvelles technologies, et du numérique en particulier, faute de quoi les espaces laissés en friches pourraient être investis par des obscurantistes ou des aventuriers. Nous devons aussi veiller dans notre pays à dépasser nos vieilles habitudes de « s’affronter d’abord, débattre ensuite », car aborder les sujets éthiques en termes de pro- versus anti-technologies nous ferait passer tragiquement à côté du sujet. Et pour cela sensibilisons, informons, formons à commencer par la jeunesse.

    Max Dauchet, Conseil scientifique de la SIF

  • Informatique [nom féminin]

    Septembre 2013.  Superbe cru. 2 nouvelles doctorantes (indiennes) sur les 6 nouveaux. Si je me réjouis de compter désormais 2 femmes sur la douzaine d’étudiants en thèse de mon équipe, je suis navrée de constater cette bien faible diversité dans la discipline, largement sinistrée du point de vue de la parité. Et de plus en plus. Aux États-Unis, la proportion d’étudiantes dans les cursus d’informatique de l’enseignement supérieur était de 37% en 1984 (effet  lune de miel, propre à l’introduction d’une nouvelle discipline) pour diminuer,  lentement mais surement,  à 29% en 1989, 26% en 1997, et osciller aujourd’hui autour des 10%.

    Pourquoi si peu de femmes en informatique  et surtout que faire pour inverser la tendance ? Pourquoi une science si jeune, si dynamique, qui offre une telle diversité de carrières, est-elle à ce point boudée par les jeunes filles ? Quelle est donc cette incompatibilité entre l’informatique et les femmes ? Pourquoi observe-t-on une dégradation de la situation ? Comment faire pour venir à bout des clichés ? Il y a manifestement un terrible malentendu qu’il convient de dissiper avant qu’il ne soit trop tard. En cette veille de la journée internationale des droits de la femme,  penchons-nous sur ce désamour des jeunes filles pour l’informatique, alors que nous savons tous que notre science n’a pas de sexe.

    Avant de stigmatiser l’informatique, il convient de rappeler qu’elle subit le même sort que la plupart des sciences « dures »  comme la physique ou les mathématiques, causé par des stéréotypes tenaces de la société à l’égard de ces sciences, même si la chimie et la biologie ont à la faveur de je ne sais quel miracle opéré le tournant de la féminisation. Comme si disséquer une grenouille était plus gracieux que  résoudre une équation. Aucune de ces activités n’est  féminine, ni masculine du reste, n’en déplaise à ceux qui ont récemment déclaré la guerre aux velléités des institutions d’œuvrer pour l’égalité à l’école.

    Il est évident que lorsque les étudiants arrivent dans le supérieur, il est déjà bien trop tard. Les connexions se sont déjà opérées différemment dans ces petits cerveaux des années auparavant.  J’aime pourtant à penser que les nouvelles générations seront épargnées. Comment féminiser notre discipline en attendant de les voir débarquer dans le supérieur ?

    Si les clichés regorgent dans la société sur le fait que certains métiers sont typiquement masculins, le cas de l’informatique est aggravé par quelques idées reçues qu’il convient d’éclairer :

    Idée reçue  n°1 : L’informaticien  est un geek.  Enlisé dans ses lignes de code, négligé et asocial. Nous avons suffisamment de modèles féminins et masculins pour démontrer l’éclectisme et l’ouverture d’esprit des informaticien(ne)s. Ada Lovelace, considérée comme le « premier programmeur » et Grace Hopper, pionnière de la compilation, n’ont rien de geeks ; Alan Turing le père de l’informatique, s’habillait très correctement et s’intéressait autant à l’évolution qu’à la cryptographie ; Melissa Mayer dirigeait l’équipe de Search de Google avant d’être à la tête de Yahoo et on l’accuse à l’envi d’être trop sexy (faut savoir) ; Zuckerberg sous ses airs de gamin est un redoutable homme d’affaire.

    Idée reçue n°2 : L‘informaticien code toute la journée, rivé à un écran austère, au fin fond d’un sous-sol. Les  Facebook, Google et autres monstres de l’informatique sont des environnements plus jeunes, vivants et colorés les uns que les autres. Certes on écrit des programmes quand on fait de l’informatique, mais on conçoit  également les algorithmes de demain, en équipe, on les prouve, on traite l’information, de l’ADN aux posts des réseaux sociaux, on analyse les comportements des internautes, on interagit avec de nombreuses autres disciplines comme la biologie, la médecine, la finance. Il arrive même que l’on n’ait pas besoin de machine.  Et si on passe du temps devant un ordinateur, dans beaucoup d’autres métiers, ça n’a l’air de gêner personne.
    Idée reçue n°3 : Le monde de l’informatique est sexiste. Certes l’informatique est largement dominée par les hommes (et de plus en plus car si les femmes boudent ces filières, les hommes s’y dirigent de plus en plus) mais c’est une discipline bien trop jeune pour être trop sexiste, loin par exemple du mandarinat qui sévit dans d’autres, qui pourtant attirent les femmes. À mon humble niveau, je n’ai observé dans les laboratoires néerlandais, anglais ou français que j’ai fréquentés, aucun machisme ambiant et jamais ma carrière, à l’instar de celles de beaucoup de mes collègues,  n’a été freinée par le fait d’être une femme.

    Idée reçue n°4 : Il faut faire des études d’ingénieur pour faire de l’informatique et c’est un métier de garçon. Nous y voilà, précisément là où le bât vraiment blesse. Certes, les cursus d’ingénieurs mènent à l’informatique,  mais on peut y arriver aussi par des études de mathématiques ou d’informatique à l’université. Il y a bien longtemps qu’on sait que les cerveaux féminins n’ont rien à envier à leurs alter-egos masculins, pour réussir à l’école, y compris dans les disciplines scientifiques.  On connaît les travers sociétaux qui  jouent sur les différences, elles sont là ne nous méprenons pas, pour formater l’esprit des jeunes. L’informatique n’a malheureusement pas le monopole de cette barrière sociétale. Faisons confiance aux filles, apprenons leur à se faire confiance. Un article récent paru dans Science et Avenir (30/01/2014),  fait état de  « la menace du stéréotype » : un chercheur de l’Université d’Arizona a fait passer un examen de mathématiques à deux groupes comptant autant d’hommes que de femmes : le premier groupe a été informé que le succès dépendait généralement du sexe (au sens où les hommes réussissaient mieux, pour cette expérience), au deuxième groupe on a expliqué que les résultats étaient généralement indépendants du sexe. Les résultats des filles du premier groupe étaient catastrophiques, équivalents à ceux des garçons dans le deuxième groupe. Les garçons, eux ont mieux réussi dans le premier groupe (il est probable que des préjugés inversés auraient eu un effet, inverse, mais les stéréotypes ambiants au sujet des sciences sont bien ceux-là). L’étude conclue que le «  stéréotype avait un effet dévastateur chez les filles et stimulant chez les garçons. » La route est longue !

    Idée reçue n°5 : L’informatique, comme les jeux vidéos, c’est pour les garçons.  Les jeux vidéos ne sont plus l’apanage des garçons, et quand bien même, il n’a jamais été démontré de corrélation entre les aptitudes aux jeux vidéos et en informatique. Et puis,  l’informatique c’est pour les jeunes bien d’autres choses que les jeux vidéos. C’est aussi les réseaux sociaux où les statistiques montrent une dominance de l’activité des jeunes filles d’ailleurs, les moteurs de recherche, les applications mobiles, le graphisme, etc. Et là de me révolter contre les photos d’un catalogue proposant des séjours thématiques aux enfants et adolescents qui montrent exclusivement des garçons pour les différents stages d’informatique. Je vous laisse deviner de quel sexe est l’ado  sur la  photo du stage de danse de l’été 2014.

    Et j’en passe. Tout ceci est d’autant plus frustrant que l’informatique est une science jeune qui ne devrait pas faire l’objet de préjugés de temps plus anciens. Dans l’imaginaire collectif cela reste une science d’hommes – on a même parfois du mal à la faire accepter comme une science d’ailleurs, en France, peut-être parce que certains rayons de supermarchés sont intitulés « informatique ». Si on trouvait à l’hypermarché du coin un rayon science physique, cela affecterait peut-être un peu le prestige d’Einstein. Faire intégrer que l’informatique,  théorique où pratique, peut épanouir aussi  les femmes reste un défi.   Il faut des modèles, des actions, relooker la discipline,  la démystifier.

    Les statistiques  sont formelles et confirment que cette tendance s’aggrave dans toutes les universités du monde occidental. Aussi soucieuses de la parité qu’elles soient, les institutions académiques ne peuvent que constater que les candidates manquent cruellement.  On le note assez clairement dans les jurys de recrutement ou sur les bancs des cours de master. Par exemple en France, la proportion du nombre de femmes diplômées des écoles d’ingénieur est passée de 5% à plus de 25% de 1975 à 2000, elle continue de diminuer en informatique, après un pic à  près de 20% dans les années 80, elle est repassée à 10% (source : ticetsociété.revues.org, 5(11)). La position particulière de l’informatique dans les cursus d’enseignement supérieur et plus encore secondaire, où l’informatique n’est enseignée que très tardivement, n’y est probablement pas étrangère. L’introduction de l’enseignement dans le secondaire  est un excellent début. Il faudra cependant plusieurs années pour récolter les fruits de ces réformes dans le supérieur.

    Et ailleurs ? Si  l’Europe (la France est du reste mieux placée que la Suisse ou la Belgique) et l’Amérique du Nord subissent le même sort, étonnement la situation est très différente dans un certain nombre de pays : à Singapour les femmes sont majoritaires, en Europe de l’Est et au Maghreb, la parité est beaucoup plus respectée. Alors même que certains de ces pays affichent souvent des inégalités entre hommes et femmes, y compris dans la loi. Un peu comme si lorsque nécessité fait loi, on est moins enclin à chipoter sur le genre des disciplines : quand ce qui importe vraiment est de faire des études supérieures et  de se former,  on ne s’offre pas le luxe de savoir si notre cursus a l’air assez  féminin.

    La prise de conscience est générale et de nombreux programmes existent dans le monde pour encourager les femmes à faire de l’informatique.  Les universités américaines en particulier se penchent régulièrement sur le problème. Par exemple, en 1995, CMU  (Carnegie Melon University)  a augmenté la proportion de femmes de 7% à 42% en prenant des mesures particulières de sensibilisation, en changement l’image de l’informatique, en faisant des campagnes agressives de recrutement et en se penchant sérieusement sur les éléments qui rebutaient les femmes à s’engager dans cette voie (collaboration avec des sociologues, interviews d’étudiants,…). Il en résulte un groupe particulièrement actif de  femme en informatique à CMU (women@scs).
    La bonne nouvelle idée est peut-être celle  de l’une des plus progressistes et prestigieuses universités américaines, Berkeley, celle  de  réinventer les cours d’informatique. A Berkeley, le nouveau cours d’informatique s’appelle Beauty and Joy of Computing, qu’importe cet intitulé peut-être exagérément glamour, l’effet est là et au fond c’est ce qui importe, en attendant de vivre dans une société qui arrête de modeler différemment nos petits en fonction de leur sexe. Cette classe de Berkeley compte 106 femmes et 104 hommes.  C’est donc possible, en 2014. La clé du succès de cette classe a été de moderniser le style des cours, de revisiter la manière d’enseigner l’informatique, au delà de la programmation, de se pencher sur l’impact et la pertinence de l’informatique dans la société, de commencer chaque cours en discutant un article récent lié à la technologie, etc. Alors même que le but n’était pas d’attirer uniquement les femmes, chaque élément qui aurait pu les dissuader a été soigneusement évité. Et c’est un succès.

    Tentons nous aussi le revirement, expliquons que faire de l’informatique ne sous entend pas  pondre du code à longueur de journées, isolé avec un PC, en Tee-shirt délavé, faisons visiter nos labos, expliquons les algorithmes et leur importance  dans  les écoles primaires. Profitons de la  dynamique de l’informatique, de sa constante évolution,  de son ubiquité dans la société, des défis majeurs qui ne cessent de s’offrir à notre discipline, pour faire évoluer son image. Là où les jeux vidéos, les jeux en ligne où les téléchargements en pair à pair attiraient en majorité les garçons qui monopolisaient les ordinateurs familiaux, l’usage de l’ordinateur aujourd’hui est désormais pour une bonne part consacrée à une utilisation sociale et culturelle du Web, garçons et filles se disputent désormais le portable de Maman. Nous sommes à un tournant de l’informatique, à l’ère des réseaux sociaux, du Big Data, de la bio-informatique massive. Surfons (agressivement) sur cette réelle opportunité de changer l’image de l’informatique auprès des plus jeunes, de faire évoluer nos cours et séduire garçons et filles.

    Enfin, soyons pragmatiques, l’informatique est tellement transversale, qu’elle est probablement l’une des disciplines les plus prometteuses en terme d’emploi, nos jeunes filles ne peuvent s’offrir le luxe de laisser les hommes seuls occuper ce terrain !

    Anne-Marie Kermarrec, Directeure de recherche Inria

     

  • L’informatique: pour nous, les femmes!

    Un petit billet à l’occasion de la semaine de la journée internationale des droits des femmes.

    Sylvie Boldo

  • HTML et les MST

    27% des américains pensent qu’un Gigabyte est un insecte.
    23% que MP3 est un robot de starwars.

    11% que HTML est une maladie sexuellement transmissive.

    Pour ce dernier cas, ils n’ont pas peut-être pas totalement tort. Combien de personnes se sont mises à HTML pour impressionner un partenaire ? Combien d’autres ont appris HTML « sur l’oreiller » ? Qui sait ?

    Et qui dit MST dit prévention. Pour prévenir les entorses au standard: http://validator.w3.org

    Évidemment, ce sont les États-Unis. La France, avec son enseignement de l’informatique que le monde nous envie, est à l’abri d’un tel ridicule. Non?

    Serge Abiteboul

    Source: LA Times via GB.

  • La physicienne et la prof d’informatique

    Elle ne s’appelle pas Christelle ou Estinna, mais elle enseigne réellement au lycée de G. C’est bien une histoire vraie.

    Son métier ? Professeure de physique-chimie. À là la ! La physique-chimie. Non mais pourquoi embêter des jeunes qui vont devenir avocat, journaliste ou vedette d’une émission de télé-réalité avec de la physique-chimie ?

    Il se trouve qu’au XXe siècle à l’ère industrielle, tout le monde, même nos grands mères ou notre plombier, a appris une science «tout à fait inutile» pour eux mais complètement indispensable pour leur permettre de comprendre, s’approprier, adapter ou créer les nouveaux objets que l’ère industrielle engendrait. Elles et ils ont appris de la physique-chimie. Et la France est devenue une nation industrielle dont aéronautique, les transports, … sont en bonne place sur la scène internationale, car tous les métiers ont comme compétence marginale des notions de physique-chimie.

    Oui mais concrètement, dans ma vie de tous les jours, à quoi bon ?

    Voici un exemple de notion de physique-chimie inutile mais «indispensable» ? 1393347747_Black_carPeu d’entre nous se souviennent «que l’énergie cinétique croit au carré de la vitesse» ! Mais tout le monde sait une chose : si presque en panne d’essence avec ma voiture il faut choisir entre rouler le plus vite possible jusqu’à la prochaine station pour maximiser les chances d’éviter la panne sèche ou paradoxalement rouler lentement vers cette même station, la quasi totalité des gens va choisir la bonne réponse. Le concept d’énergie consommée et son lien avec la vitesse du moteur est compris par chacun-e, même l’explication physique est très lointaine (y comrpris pour des informaticiens 🙂 ).

    C’est ce que notre collègue professeure explique probablement quand une ou un jeune lui demande, mais Madame, pourquoi ? Et c’est étonnant et parfois complètement rigolo la physique (par exemple comme notre collègue nous en explique un élément ici avec une-bouteille-a-la-mer).

    Maintenant, notre professeure (qui a suivi l’option informatique au lycée de la seconde à la terminale de 1990 à 1993, avant que cette option ne disparaisse purement et simplement) sait que le monde a changé, que nous ne sommes plus à l’ère industrielle mais sommes à l’âge numérique. Elle qui a vu sa mère radiologue, il y a 30 ans, reprendre sa formation pour passer de la radiographie à l’échographie. Alors comment faire pour que nos enfants ne considèrent pas comme « magique » le fait d’être localisé ou le fait de deviner grâce à nos données Facebook qui de nous a des tendances à la schizophrénie [ref] ? La réponse est toute simple : en enseignant l’Informatique [ref] et les Sciences du Numérique : l’ISN (voir son manuel pour en explorer le contenu). Pour maîtriser et pas uniquement consommer le numérique. Et en deux ans de formation et auto-formation, cette professeure est devenu aussi prof’d’ISN. Et son pire ennemi ce n’est pas la motivation des jeunes. Eux, comprennent bien facilement qu’apprendre les fondements du numérique va les aider au quotidien et ils pressentent aussi que le numérique ouvre à pleins de métiers nouveaux. Son pire ennemi c’est que la société des adultes a cru à un immense mensonge collectif.

    Au XXIe siècle à l’ère numérique1393347776_teddy_bear_toy_2, ceux qui nous vendent des objets numériques matériels ou logiciels ont réussi à nous convaincre d’une chose énorme : inutile d’apprendre les sciences informatiques et mathématiques qui ont engendrés les technologiques du numérique, il suffit de savoir les consommer. Donc apprendre les usages suffit. Et la France est devenue une nation sans aucun grand développement numérique matériel venant de son pays. Va t-elle aussi perdre la bataille des grands produits et plateformes logiciels ? Tandis que depuis des années en Inde, en Suisse, en Tunisie, … et depuis un an en Grande-Bretagne l’informatique et les sciences du numériques (ISN) sont devenues la «physique-chimie» du XXIe siècle à apprendre à nos enfants, la France commence seulement à rattraper son retard sur ces sujets.

    Et concrètement dans mon quotidien, à quoi bon apprendre cette ISN ?

    Voici un exemple de notion d’informatique inutile mais «indispensable». 1393347490_malicious_codeQuand on me demande mon mot de passe Facebook ou Twitter, pour être sûr que ce n’est pas une “fausse” page destinée à me pirater, il faut et il suffit (sauf rarrissime situation) de regarder l’adresse Internet qui doit commencer par les 25 caractères «https://www.facebook.com» ou bien par les 20 caractères «https://twitter.com» uniquement, sinon c’est une adresse pirate. Si je comprends le langage qui définit les adresses Internet alors ce geste m’est naturel, sinon je ne vais même pas me poser la question et rester “effaré” devant le vol de mes identifiants. Et si j’apprends la règle ci-dessus comme une recette toute faite (apprentissage par les usages) alors je vais tomber dans le piège suivant si la parade n’est pas sur la liste de ce qu’on m’a fait apprendre par cœur. Si en revanche j’ai appris un peu de science informatique alors cette “astuce” va me paraitre évidente et surtout je serai prête ou prêt à trouver par moi-même la parade au problème suivant.

    Oui, mais quel défi ! Enseigner (enfin !) des sciences du 21ème siècle .. sans professeur formé, ni manuel disponible ? En pleine crise budgétaire ? Orthogonalement à d’autres disciplines bien “établies” ? Vous voulez rire ! En fait, et bien : oui. Ça a été plutôt épique, mais parole : on a aussi bien rigolé.

    Dans la majorité des académies, à la suite des leçons inaugurales de scientifiques comment Gérard Berry, enseignant-chercheurs universitaires ou des organismes de recherche se sont mobilisés pour déployer plus de 50 heures par an de formation auprès de chaque professeur concerné. Autour de Gilles Dowek, un manuel pour la formation des enseignants, puis un premier manuel scolaire ont été créés, avec un modèle économique ouvert, ère numérique oblige. Un site de ressource et de partage et d’échange a été fondé, et nourri de multiples ressources existantes ou crées à cet effet (conférences vidéo, documents de référence, ..). Sans oublier la revue Web de culture scientifique )i(nterstices, qui s’ouvre à l’ISN. Avant cela, le choix de ce qui serait à enseigner a fait l’objet d’une profonde réflexion, tandis depuis des années de grands collègues s’étaient mobilisés. Plus bas niveau, des chercheurs, qui vont présenter régulièrement, leurs travaux aux lycéens ou qui les aident pour les TPE, et qui sont en rapport avec des professeurs, ont convaincus ces derniers à de se lancer dans l’aventure. Ce fut le cas de notre professeure, qui suite à une conférence, s’est laissée convaincre.

    Tout fut-il parfait ? Ô non ! Il y eu des obstacles, des réussites et probablement des loupés, mais nous avons collectivement avancé. Les vrais héros de cette épopée ? Les professeur(e)s eux-mêmes, qui ont osé commencer à apprendre une nouvelle spécialité, et dont la curiosité intellectuelle et la volonté d’enseigner l’avenir à nos enfants les ont conduit à prendre ce risque professionnel et intellectuel. Quelle exemplarité, tout de même : ces femmes et ces hommes qui doivent convaincre nos enfants qu’apprendre est une nécessité, ont donné l’exemple collectif que cela est possible quelque soit le nombre des années.

    Une anecdote ? 1393347584_CoolNous voilà dans un lycée dit “technique”, Un prof (initialement de physique) est devant ses élèves de seconde générale en “option de découverte scientifique” (dont quelques geeks, et oui !). De manière très factuelle, il les informe que cette année là, c’est “avec eux” et en leur apprenant, qu’il s’initiera lui-même à la programmation informatique. Trois secondes de silence, dû à l’étonnement collectif. Puis la réponse tombe de la bouche d’une des deux filles de la classe, dans un assentiment général tacite : «Ah ouais M’sieur ? Total respect.». Du coup, même pas besoin du chercheur venu pour aider : l’enseignement sera un succès.

    Grâce à ces “profs”, petit à petit, des notions comme celle “d’information numérique” sera aussi bien comprise que le fut la notion d’énergie au 20ème siècle. On parle ici d’apprendre des connaissances, et d’apprendre à apprendre à travers des projets. L’aventure n’est pas que de transmettre de nouveaux savoirs, mais aussi de nouveaux savoir-faire. Les abstractions de l’informatique s’apprennent en les manipulant expérimentalement à travers des exercices de programmation, mais aussi de spécification, conception, etc..

    Et voilà que notre professeure qui n’est pas seulement prof mais aussi parent, commence à apprendre la programmation à ses enfants avec Scratch, et la robotique avec le charmant robot thymio ! Et trouve que ce serait bien si l’informatique était enseignée dès l’école primaire !

    Propos recueillis auprès des professeurs d’ISN de l’Académie de Nice par Thierry Viéville avec la complicité et la contribution d’Estelle Tassy, professeure ISN, Lycée Amiral de Grasse.

    En savoir plus :

  • Le sens des images

    image-henrimaitre2.1Terkiin Tsagan Nuur, Khangaï, Mongolie Henri Maître

    Suite de l’entretien d’Henri Maître, professeur émérite à ParisTech réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan (lire l’article précèdent)

    Binaire : Dans le traitement de l’image reste encore de nombreux champs à défricher. Pour toi, c’est quoi le Graal ?

    Henri Maître : Le Graal, pour moi c’est très clair : c’est dans la sémantique. Depuis le début du traitement de l’image, des gens ont été interpelés par le fait qu’il y a d’une part la forme de l’image (les pixels, c’est noir, blanc, rouge ou vert, ça a des hautes fréquences, des basses fréquences, des contours, textures) et il y a le contenu, le message que l’on veut faire passer. Entre les deux on ne sait pas comment ça se passe. Cette dialectique entre ce qui est intelligent dans l’image et ce qui est simplement l’emballage de l’intelligent est quelque chose qui n’est pas résolu mais dont les gens se sont bien rendu compte. Détecter un cancer du sein sur une radiographie, ça ne peut généralement pas se faire sur une image seule. Il faut à côté connaître les antécédents de la personne. C’est pour ça que les médecins ont tout à fait raison de ne jamais laisser les ordinateurs faire les diagnostics eux-mêmes. Les ordinateurs et le traitement de l’image ne peuvent donner que des pistes en disant : « Cette zone-là me semble susceptible de présenter des tumeurs malignes. » Et puis le médecin, lui, il va voir son dossier et compléter l’examen en mettant les radioscopies sur l’écran, car lui saura faire le mélange complexe entre l’information de radiométrie et l’information hautement sémantique portant sur l’âge et le contexte clinique de la patiente. Ce problème-là était déjà clair dans les années 70-75 quand on a pris le problème. Maintenant nous progressons, mais lentement. La sémantique reste toujours mal cernée. Tu tapes Google, tu tapes Charles de Gaulle et tu ne sais toujours pas ce que tu vas avoir. Tu risques d’avoir un porte-avions. Ou un quartier de Paris. Ou un aéroport. Ou peut-être le général que tu cherchais ! Ou alors il faut lever l’ambiguïté : ajouter de force la sémantique : « aéroport Charles de Gaulle » ou « général Charles de Gaulle », ces mots ajoutés forcent le sens que personne malheureusement ne sait aujourd’hui trouver dans l’image. C’est là un enjeu colossal pour nous aider à exploiter les immenses ressources qui se cachent dans la toile.

    B : Ça progresse en utilisant évidemment des techniques de traitement de l’image mais ça progresse aussi en utilisant, d’autres technologies comme les bases de connaissances ?

    HM : Oui. On tourne autour du problème : « image ou intelligence artificielle ? » depuis des années, depuis 30 ans au moins, parce qu’en parallèle de problèmes de bas niveau du traitement de l’image, d’algorithmique liée à la détection des formes et des objets présents dans l’image, les gens s’interrogent sur la façon de représenter cette connaissance. Au début, on procédait en utilisant des règles, des grammaires, sans grands succès ? Puis des systèmes à base de connaissance. Vous aviez des très bons chercheurs à l’INRIA comme Marc Berthod ou Monique Thonnat qui ont développé pendant des années des systèmes intelligents pour reconnaître des formes sur ce principe. On disait : « Un aéroport, ça a des pistes, des bâtiments et des hangars ». Ces modes de raisonnement, qui sont bien datés, ont été abandonnés, malgré des efforts considérables, et des résultats non négligeables, ils ont montré leurs limites. Après, on a basculé sur d’autres systèmes des systèmes coopératifs de type multi-agents. Les résultats n’ont pas été bien meilleurs. Actuellement, on est d’une part revenu très en arrière vers des techniques de reconnaissance statistique et très en avant en mettant en scène des ontologies de traitement de l’image. Ces ontologies sont là pour mettre des relations intelligentes entre les divers niveaux d’interprétation et vont permettre de piloter la reconnaissance. Actuellement, c’est parmi les choses qui fonctionnent le mieux lorsqu’elles s’appuient sur une classification de bas niveau de qualité comme en procurent les algorithmes purement probabilistes issus du machine learning. Néanmoins, il est clair que, dans les images, il y a une partie de compréhension beaucoup plus complexe et plus difficile à traiter que dans le langage parlé ou dans l’écrit.

    B : D’où vient la difficulté ? De la géométrie ?

    HM : Une grande partie de la difficulté provient de la variabilité des scènes. Prenons le simple exemple d’une chaise, terme sémantiquement simple et peu ambigu qui se décline en image par une très grande variété d’objets, chacun étant lui-même dans des contextes très variés.

    image-henrimaitre2.2Photo Henri Maître Street Art Paris

    B : C’est beaucoup plus compliqué que de reconnaître le mot chaise, même dans dix langues différentes.

    HM : Oui, exactement.

    B : La prochaine frontière ?

    HM : Actuellement un problème préoccupe les traiteurs d’image, la possibilité de représenter une scène avec beaucoup moins de pixels que ce que réclame le théorème de Shannon (qui fixe une borne suffisante mais pas du tout nécessaire en termes de volume d’information utile pour la reconstruction d’un signal). C’est ce qu’on appelle le «compressed sensing». C’est à la fois un très difficile problème mathématique et un redoutable défi informatique. De lui pourrait venir un progrès très important dans notre capacité d’archivage des images et pourquoi pas de leur manipulation intelligente.

    B : Merci pour cet éclairage. Tu es quand même à Télécom et donc tu ne vas pas couper à une question sur les télécommunications. Vu de l’extérieur, pour quelqu’un qui n’y connaît pas grand-chose là-dedans, on a l’impression que, à un moment donné, les télécoms aussi ont basculé dans le numérique et que, maintenant, il n’y a plus beaucoup de distinctions entre un outil de télécom et un ordinateur. En fait, c’est l’ordinateur qui est devenu le cœur de tout ce qui est traitement des télécoms. C’est vrai ou c’est simpliste ?

    HM : Non, ce n’est pas simpliste. C’est une vue qui est tout à fait pertinente. Mais pendant que les télécoms sont venues à l’informatique, l’informatique a été obligée de venir aux télécoms : il est clair que si l’ordinateur est au cœur des télécoms, le réseau est au cœur de l’informatique moderne, c’est probablement plus des télécoms que de l’informatique.

    B : C’est un mariage ? Un PACS ?

    HM : Voilà. Cette assimilation des deux s’est faite de façon consentie aussi bien d’un côté que de l’autre. Il reste un cœur d’informatique qui n’utilise pas du tout les concepts des télécoms, et des domaines des télécoms qui n’intéressent pas les informaticiens, mais un grand domaine en commun qui s’est enrichi des compétences des uns et des autres. C’est la convergence. La convergence qui était annoncée depuis très longtemps.

    B : Donc, puisque là on parle de convergence, on parle aussi d’une convergence avec la télévision…

    HM : Qui est plus lente et qui est moins assumée, actuellement, dans la société. Parce que certes, probablement dans beaucoup de foyers en particulier dans ceux de nos étudiants, il y a une convergence totale où l’on capte la télé sur le web, sur un téléphone ou sur une tablette, mais il y a quand même encore beaucoup de foyers français qui réservent un seul appareil à la télévision, qu’elle soit hertzienne ou sur fil. Pour eux, il y a une convergence technique (dont d’ailleurs ils ont des occasions de se plaindre), mais elle est restée cachée.

    B : C’est juste une question de temps. On est bien d’accord ?

    HM : C’est une question de temps, c’est ça. C’est une question de génération.

    B : OK. Pour passer au présent, maintenant tu es prof émérite. À quoi passes-tu ton temps et qu’est-ce qui te passionne encore ? Dans la recherche, si ça te passionne encore.

    HM : Je reviens lentement à la recherche. J’ai eu une interruption longue : quatre ans où je me suis entièrement consacré à de l’administration de la recherche. Et c’est extrêmement long pour un chercheur. J’ai pris en charge la direction de la recherche, la direction du LTCI et la direction de l’école doctorale. Trois secteurs, dans des périodes très troublées par de multiples chantiers où il y avait beaucoup boulot. J’ai donc eu une coupure très importante et je suis en voie de réadaptation : je suis en train de réapprendre les outils du chercheur débutant. Du coup, et tant qu’à faire que se remettre à niveau, j’explore des nouveaux axes. Je me suis plongé depuis quatre mois, sur ce qu’on appelle la photographie computationnelle. C’est quoi ? Ce n’est pas une nouvelle science, mais une démarche scientifique qui cherche à tirer profit de tout ce que la technologie a fait de nouveau dans l’appareil photographique, aussi bien au niveau du capteur, des logiciels embarqués, des diverses mesures pour faire autre chose qu’une « belle image » (ce qui est la raison commerciale de ces nouveaux appareils). Quel genre de chose ? des photos 3D, des photos mises au point en tout point du champ, ou avec des dynamiques beaucoup plus fortes, des photos sans flous de bouger, … et l’idée est bien de mettre ça dans l’appareil de Monsieur Tout-le-Monde.

    B : Alors, question de néophyte : J’aurai plus de réglages à faire ? Ça va faire beaucoup plus automatiquement ou ça va me demander des réglages voire de programmer ?

    HM : On ne sait pas encore. C’est une piste pour permettre à chacun de faire des photos normalement réservées au professionnel. Une autre piste est de mettre ces fonctions à la disposition des bons photographes comme un « mode » supplémentaire disponible à la demande. Pour l’instant ce sont des usines à gaz qui ne peuvent quitter le labo de recherche. Il y a aussi une évolution qu’il faut prendre en compte : l’appareil photo est de plus en plus un « terminal intelligent » du web. D’ailleurs si vous achetez un appareil un peu haut de gamme, la première chose à faire est de le mettre sur le web pour télécharger les dernières versions des logiciels aussi bien du boîtier que des objectifs.

    B : Le système se met à jour.

    HM : Oui, ce qui est quand même assez stupéfiant. Moi j’avoue, en être resté pantois : ton appareil recharge les lois de commande sur la balance du blanc ou la correction des aberrations chromatiques, et ton objectif la stratégie de stabilisation et de mise au point. Bien sûr, sur cette lancée, on voit apparaître des officines qui te proposent aujourd’hui des logiciels pour faire le démosaïcage mieux que Canon ou Nikon, pour te proposer une application dédiée.

    B : Donc on pourrait imaginer des appareils photos qui, comme notre téléphone portable, pourraient se brancher avec des applications qu’on irait télécharger, acheter à droite et à gauche.

    HM : Exactement. Tu veux acheter le truc qui te donne la 3D ? On te donne la 3D. Tu es intéressé par la détection de choses particulières, avoir systématiquement dans toutes tes images une indexation des tags urbains (moi je suis passionné de street art), ça me le fait automatiquement, des choses comme ça. On pourrait faire ça. Pour l’instant, c’est encore inaccessible pour le néophyte…

    B : Mais un jour, peut-être, avec des interfaces de style téléphone intelligent ?

    HM : Oui. Aujourd’hui, même s’il a le lien wifi avec le réseau, l’appareil photo moderne n’en abuse pas. Mais il est déjà doté d’un calculateur très puissant et pourrait faire bien plus. Aujourd’hui, ton appareil photo fait la mise au point tout de suite ainsi que le choix d’ouverture et la balance du blanc. Il analyse la scène, décide s’il est en intérieur ou en paysage, en macrophoto ou en portrait. Il trouve les pondérations des sources. Il fait la mise au point sur les quelques indications que tu lui donnes. Si jamais tu lui dis : « c’est un visage que je veux », il te détecte le visage. Il y en a qui détectent le sourire. Ils font le suivi du personnage et corrigent la mise au point. Tout ça, en temps réel. Ce qui n’est pas encore beaucoup exploité dans les appareils photos, c’est le GPS et la wifi. Le GPS marque uniquement les images, mais il pourrait te dire que tu es place Saint-Marc et que ce que tu as pris en photo c’est le Campanile.

    B : On pourrait imaginer aussi qu’il se charge de reconnaître des tags qu’il y a sur les gens. Des tags électroniques. RFID, des choses comme ça.

    HM : Oui, tout à fait. Ça pourrait se faire très bien ; il faudrait bien s’entendre sur ce que l’on y met.

    B : Jusqu’à quel point sera-t-on dirigé ? Est-ce que je serai forcé d’avoir un horizon horizontal ? Pourrais-je le choisir autrement ?

    HM : C’est une vraie question. Mon appareil photo, ici, est en manuel presque en permanence. Il sait tout faire. Mais je choisis de garder le contrôle la plupart du temps. Mais pour ceux qui font de la montagne par exemple, avoir le nom de tous les sommets, c’est pas mal. Souvent, tu te dis : « Mince, où est-ce ça ? Je ne sais plus bien. » Moi j’aimerais bien que mon appareil photo me taggue les montagnes.

    B : Comme tu aimerais bien, quand tu rencontres quelqu’un, qu’en le mettant sur ton appareil photo il te dise le nom de la personne.

    HM : Ça, ça me gêne plus. Et de ce côté-là, j’avoue que je ne pousse pas trop à la roue. Je suis même assez opposé. Mais pour les paysages je n’ai pas l’impression de pénétrer à son insu dans l’intimité de quelqu’un.

    image-henrimaitre2.3Photo Henri Maître Street Art Paris

    B : On voit sur ta page web que tu voyages beaucoup et que tu rapportes plein de photos. Est-ce que tu penses que ta profession, ton métier ont changé ta vue sur le monde ?

    HM : Oui, beaucoup, c’est sûr. Alors comment est-ce que ça l’a changée ? D’abord j’ai relativisé l’importance de l’image. Prendre des milliers d’images dans un voyage, c’est très facile. Par contre, en garder dix pour un album ou une expo pose de vraies questions … Comment en garde-t-on dix ? On se pose pour chacune la question : qu’est-ce qui la distingue des autres et ça permet de remettre l’homme dans le processus de création de l’image, car s’il ne coûte plus rien de faire la photo, l’acte créateur qui célèbre la valeur de telle ou telle image, renaît au moment de la sélection. Dans toutes les images qu’on fait la plupart, soyons clair, sont sans intérêt, et pourtant ne se distinguent guère des quelques autres que l’on garde. Je ne vais pas aller beaucoup plus loin, car cela nous entraînerait dans des développements ennuyeux. Mais je vais faire une petite digression qui semble n’avoir que peu de lien mais relève du même débat. On parlait tout à l’heure de notre travail avec les musées. Il m’a amené dans les galeries et j’en suis sorti fasciné par l’évolution de la peinture occidentale (je ne connais pas assez les autres cultures pour m’y aventurer). Je trouve que la peinture nous renvoie aujourd’hui le dialogue de l’homme dans le débat husserlien : « Qu’est-ce qui est à moi dans l’image et qu’est-ce qui est au monde dans l’image ? Je capte donc c’est à moi, mais en même temps, c’est de la lumière qui m’est envoyée donc ce n’est pas à moi »… Partons du Haut Moyen-Âge et des œuvres en grande majorité d’inspiration religieuse. Au centre et en haut, c’est l’idée de Dieu, l’idée de grandeur, l’idée de beau ; les vilains sont par terre, ils sont tout petits. Les autres sont grands, ils sont en lumière, ils ont toujours le même visage, iconique, … On représente des idées beaucoup plus que des choses ou des gens. Et puis, le Quattrocento a fait sa révolution, introduisant le monde tel qu’il est dans ce que les gens en pensent. Avant, les peintres représentaient le monde tel qu’ils le voulaient et après le Quattrocento, ils ont commencé à le représenter tel qu’il était. Ils ont introduit bien sûr la perspective, la couleur délicatement dégradée, les ombres, la personnalisation des visages, des détails, souvent banals. Comme si brutalement le monde s’était précipité sur la toile. Ca a duré jusqu’au milieu du XIXe siècle, poussant régulièrement la capacité de reproduire le réel jusqu’aux Pompiers. Mais les impressionnistes ont dit : « Non, ce n’est pas ça qu’il faut… Replaçons l’image dans ce qu’elle doit être. Représentons dans l’image ce qu’on veut représenter, ce qui est derrière l’apparence mais qui en fait la nature particulière, ce qui n’est pas porté par l’image. ». Ce n’était qu’un début qui s’est poursuivi inexorablement avec les fauves, les cubistes puis les abstraits. On a perdu alors les éléments inutiles, les détails, les contours (Cézanne, Manet). Si l’ombre tourne dans la journée supprimons la (Manet, Gauguin). Juxtaposons les instants (Braque, Bacon), juxtaposons les aspects (Picasso). Je trouve ça absolument fascinant. Et je pense que nous, traiteurs d’images, on a vraiment beaucoup à apprendre pour voir comment les peintres ont petit à petit éliminé de la scène qu’ils observent des choses qui sont, entre parenthèses, artificielles. Les ombres, qui tournent dans la journée. Pourquoi ? Parce que l’ombre n’est pas propre à l’objet qu’on veut représenter. L’ombre est propre à l’instant où on le regarde, mais ce n’est pas ça qu’on voit. Au contraire, d’autres regardent la lumière, et font disparaître la cathédrale qui n’est que le prétexte à la lumière, comme l’escalier n’est que le prétexte du mouvement. Toutes ces choses-là, je pense que ce sont des guides pour ceux qui font du traitement de l’image pour leur indiquer le plus profond de la sémantique que l’on va retrouver dans les images. Ça leur montre qu’ils ont du boulot. Pour moi, c’est absolument naturel que les impressionnistes soient apparus quand la photo s’est imposée.

    B : En même temps que la photo ?

    HM : J’imagine le peintre de 1835 : « Mais qu’est-ce que je fais avec ma peinture, à dessiner mes petits pois, mes petits légumes, mes petites fleurs ? À quoi je sers ? » Alors qu’avec une photo, on a exactement la scène telle qu’on la voit. Ça ouvre grand les marges de manœuvre de la peinture, pour représenter les scènes qu’on observe. Quand je parle de sémantique, la sémantique la plus complète, ça peut être effectivement très compliqué.

    B : As-tu des regrets ? Si c’était à refaire ?

    HM : Je ne me suis pas encore trop posé la question. Non, je n’ai pas beaucoup de regrets. Évidemment, j’ai des regrets d’avoir passé trop de temps dans des combats stériles, plus ou moins politiques, plus ou moins scientifiques, d’avoir trop consacré de temps aux démarches administratives. J’ai perdu beaucoup de temps, c’est sûr. Mais je ne regrette pas par contre d’être monté au créneau des tâches fonctionnelles car il faut que les scientifiques s’en chargent si l’on ne veut pas que se ressente très bas dans la vie des laboratoires un pilotage technocratique ou managériale qui peut faire beaucoup de dégâts sous une apparente rationalité. Oui, j’aurais pu faire autre choses. Qu’on me donne dix vies et je referai dix vies différentes, c’est sûr.

    B : Est-ce que tu aurais aimé être physicien ou être autre chose ? Peintre ? Photographe ?

    HM : J’aurais aimé être ingénieur agronome et m’occuper de forêts, si possible outre-mer. Rien à voir avec l’image ! Je me rends compte que je suis bien mieux dans la nature et dans la campagne que dans un laboratoire.

     image-henrimaitre2.4Photo Henri Maître Street Art Paris

    B : nous vous invitons à parcourir le mini-portail du monde d’Henri Maître qui regorge d’images de tout horizon. Bon voyage !

  • De l’holographie à l’image numérique

     

    (original)
    (résultat)

    Effet spécial sur une séquence vidéo : suppression automatique d’un personnage. A. Newson, A. Almansa, M. Fradet, Y. Gousseau, P. Pérez – Télécom ParisTech et Technicolor

    Henri Maître est Professeur émérite à Télécom ParisTech où il était jusque récemment Directeur de la Recherche. C’est un spécialiste du traitement d’images et de reconnaissance des formes. Il nous raconte son parcours qui conduit aux fonctions si sophistiquées des appareils photos modernes et au Graal, « la sémantique des images ». Il nous fait partager sa passion pour ces aspects si dynamiques de l’informatique, le traitement numérique du signal et de l’image et sa vision sur l’évolution et les perspectives qui s’offrent à l’image.

    Entretien avec Henri Maître réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan.

    Binaire : Bonjour Henri Maître. Pour commencer, peux-tu nous raconter comment tu es devenu chercheur en traitement du signal, jusqu’à devenir directeur de la recherche à Télécom.
    Henri Maître : Si je fais partir le début de ma carrière de mon expérience d’étudiant à Centrale Lyon, où j’ai étudié essentiellement les maths appli et la mécanique des fluides, on est loin de ma recherche future. Mais en parallèle, je me suis passionné pour l’holographie, l’optique et la physique des images… Le point commun entre l’holographie et la mécanique des fluides, c’est la transformée de Fourier tridimensionnelle et les traitements qui tournent autour… Dans les premières années de 70, ce n’était pas l’outil courant de l’ingénieur et je pensais pouvoir mettre à profit cette double compétence à l’ONERA pour l’étude par holographie des écoulements, mais ça n’a pas marché et comme je cherchais à me rapprocher de Paris, j’ai fait un stage en holographie numérique à l’ENST, l’actuel Télécom ParisTech qui démarrait une activité sur ce sujet.

    B : Et tu t’es plu à Télécom ; tu y es resté toute ta carrière ?
    HM : Oui. J’ai commencé en mars 1971 et j’ai été remercié en mars 2013 ! Et j’ai même droit à une petite rallonge avec un poste émérite sur place. Ce qu’on me proposait, c’était du traitement de l’information et c’était de l’holographie. Comme je n’étais pas un grand spécialiste de l’optique, j’ai été à l’Institut d’Optique faire un DEA d’optique cohérente dans une superbe équipe qui était pilotée par Serge Lowenthal à l’époque, c’était vraiment le haut du panier mondial en holographie. L’École des Télécoms était en train de créer ses labos. Le premier labo avait été monté par Claude Guéguen et Gérard Battail deux ans auparavant en traitement du signal et en théorie du codage. Jacques Fleuret montait un labo d’holographie et de traitement optique des images juste avant mon arrivée, montage auquel j’ai participé.
    Replaçons nous dans le contexte des années 70. L’ordinateur fonctionnait bien. Il avait quand même beaucoup de mal à travailler sur des images trop grosses pour sa mémoire, les temps d’entrée/sortie étaient considérables et la piste de l’optique laissait entrevoir du temps réel sur de larges images, sans avoir besoin de les transformer par une numérisation. On espérait à l’époque pouvoir faire des traitements très compliqués. Les Américains avaient déjà fait des systèmes optiques de reconstruction d’images de radar à vision latérale embarqués dans des avions. Il y avait des systèmes de reconnaissance de routes ou de rivières en télédétection, de caractères pour le tri postal, de cellules pour l’imagerie médicale. C’était la piste concurrente du traitement de l’image par ordinateur

    B : Une image ne tenait pas dedans ?
    HM : Non, alors, l’image ne tenait pas dans l’ordinateur. Les temps de calcul étaient très longs mais surtout les entrées et sorties étaient très lourdes. Disposer d’une mémoire d’image était une grande fierté pour une équipe (à Télécom comme à l’Inria ou au CNRS). Pierre Boulez est venu voir chez nous ce qui pouvait être utile pour son prototype de 4X qu’il faisait développer alors à l’IRCAM. Notre mémoire, c’était un truc qui faisait 40 cm sur 40 cm sur 20 cm, et sur lequel il y avait 512 x 512 x 8 octets distribués dans des dizaines de boîtiers. Ça permettait d’afficher une image en temps réel devant des spectateurs émerveillés. Pour l’analyse, on passait par un microdensitomètre, prévu pour analyser des spectrogrammes, mais modifié pour balayer le film selon les deux dimensions. On lançait l’analyse le soir (elle durait 8 h et il fallait éviter les vibrations et les lumières parasites ; grâce au ciel il n’y a pas de métro rue Barrault !). Pour sortir les résultats on collait côte-à-côte des morceaux de listings où les teintes de gris provenaient de la superposition de caractères et l’on prenait ça en photo à 20 mètres en défocalisant un peu pour lisser les hautes fréquences.
    Donc, le traitement numérique de l’image existait déjà mais de façon balbutiante : il y avait quelques équipes en France. Je pense à Albert Bijaoui à l’Observatoire de Nice, à Serge Castan à Toulouse, à Daniel Estournet à l’ENSTA ; et Jean-Claude Simon, faisait venir tous les ans dans son château de Bonas la fine-fleur internationale de la reconnaissance des formes. Mais je ne faisais pas de traitement numérique d’images alors. On calculait par ordinateur des filtres complexes par holographie numérique que l’on introduisait dans des montages optiques en double diffraction sur des tables de marbre. Une semaine de calcul du filtre puis quinze jours d’expérimentation en optique pour décider qu’il fallait changer de paramètre du filtre et recommencer le cycle. Ce n’était pas tenable. On a donc décidé de simuler le traitement optique … et on est donc arrivé au traitement numérique !

    B : Les débuts du traitement numérique d’image ?
    HM : Oui, On simulait le filtre optique mais le filtre optique, ce n’était jamais qu’un filtre de corrélation que l’on faisait par une double transformée de Fourier. A l’époque, une double transformée de Fourier, ça vous prenait deux heures sur la machine, même si Cooley-Tukey étaient passés par là. On s’est rendu compte que c’était infiniment plus efficace que de le faire en optique. Que c’était plus rapide, plus souple et que finalement les nouveaux systèmes d’affichage d’image (des oscillos qu’on modulait devant un polaroïd), ou les mémoires d’image devenaient opérationnels. Et effectivement, honnêtement, le bilan scientifique, c’est que les méthodes optiques de traitement des images n’étaient pas compétitives face au traitement numérique. Mon collègue Jacques Fleuret a continué à faire du traitement plutôt optique pour des applications spécialisées ; on a continué à utiliser nos tables d’holographie, en marbre, nos bains photo, nos émulsions, mais on a multiplié les terminaux, gonflé notre mémoire et renforcé notre réseau.
    Je suis parti une année sabbatique en Allemagne dans un labo d’optique cohérente en pôle position dans la communauté de l’holographie, celui d’Adolf Lohmann. Mon cours expliquait le traitement numérique des images à des opticiens.

    B : C’était en quelle année ?
    HM : En 1980. Et je suis revenu avec une étiquette de traiteur numérique des images et à partir de là, je n’ai plus fait que ça.

    fetal_modelingModélisation anatomique d’un fœtus : l’opérateur choisit le stade de croissance,
    l’orientation globale dans l’utérus et la position des membres.
    S. Dahdouh, J. Wiart, I. Bloch, Whist Lab, Télécom ParisTech et Orange Labs.

    B : Est-ce que c’est correct de dire qu’aux alentours des années 80, le traitement de l’image a basculé ou commencé à basculer vers le numérique ?
    HM : La piste du traitement numérique remonte à 1965 et ses résultats sont déjà très nombreux en 1980 mais, effectivement, dans les années 80, le traitement numérique des images est la solution au problème alors qu’avant, elle était une des solutions possibles. Il y avait eu beaucoup plus de crédits dans le traitement optique car les militaires surtout de l’autre côté de l’Atlantique, mettaient beaucoup d’argent pour avoir des traitements embarqués en temps réel. Par contre, le traitement numérique a mis plus de temps car les infrastructures (calculateurs assez puissants, composants, …) n’étaient pas là. Comment est-ce que le traitement numérique est passé devant ? Incontestablement, c’est la conquête spatiale américaine qui a fait basculer le traitement numérique au premier plan.

    B : Et techniquement des choses comme la baisse du coût des mémoires ?
    HM : Bien sûr, l’évolution des composants surtout …. Mais qu’est-ce qui a entraîné l’autre ? Je ne sais pas. Il y a une chose extrêmement intéressante à voir rétrospectivement. Dans les années 70 à 80, lors de la compétition féroce entre les Américains et les Russes pour l’espace, les Américains, partis en retard, ont rattrapé les Russes à coups de technologie très avancée. Les Russes, eux, ont continué à faire une politique s’appuyant sur leurs points forts de base dans laquelle ils envoyaient des hommes dans l’espace. L’essentiel de la conquête de l’espace des Américains, comme des Russes, était destinée à améliorer la surveillance de l’autre. Les Russes le faisaient avec des jumelles depuis les satellites. Ils observaient des cibles, préparées sur des plannings, après des entraînements spécifiques qui leur permettaient de détecter, suivre et identifier les bateaux qui se trouvaient dans un port pendant les quelques minutes où la cible était en visibilité. Résultat : les Russes ont acquis une compétence extraordinaire sur la biologie dans l’espace, les capacités et les évolutions du corps humain, les effets de la gravité sur les performances du système visuel, le fait que, par exemple, la rétine, en apesanteur, ne voit pas les mêmes couleurs de la même façon. Pendant ce temps les Américains envoyaient des caméras prendre des photos et développaient des machines de traitement de l’image pour les exploiter. On voit le résultat quelques années plus tard : les Américains dominent complètement ce marché de la télédétection en haute résolution, tandis que les Russes ont acquis un savoir-faire exceptionnel sur les longs séjours des cosmonautes.
    Cet effort particulier des Américains lancé dans les années 70 à 75 commençait à retomber en pluie fine sur les universités et les labos de recherche. Dans les années 80, le traitement numérique des images était bien établi et, évidemment, s’appuyait sur l’informatique à fond.

    B : Est-ce le progrès du matériel qui a précipité le développement du traitement numérique d’image ou l’inverse ?
    HM :
    Les deux ont été vrais : l’exemple de la mémoire d’image est typiquement un point sur lequel le traitement de l’image a demandé des choses qui n’existaient pas à l’industrie des composants et les progrès ont bénéficié à l’ensemble de l’informatique. C’est probablement aussi le cas des disques à très haute capacité qui servent aujourd’hui avant tout à la sauvegarde des films et des images du grand-public, mais aussi à des applications commercialement moins porteuses mais potentiellement très riches comme les grandes bases de données du web.

    B : Et, à cette époque, tu es où ?
    HM : À Télécom ParisTech, l’ENST d’alors. Serge, c’est peut-être là d’ailleurs qu’on s’est connus ?
    Serge : J’y étais élève. Et tu étais mon prof.

    B : Qu’est-ce qui a évolué dans la recherche, en ce qui concerne le traitement du signal, de l’image, entre ce qui se faisait disons, dans les années 80, et ce qu’on fait maintenant ? Est-ce que c’est juste qu’on le fait mieux ou est-ce qu’il y a eu de nouveaux sujets qui ont émergé, des nouvelles pratiques ?
    HM : C’est assez clair : jusqu’aux années 85-90, le traitement de l’image était porté par des applications qui étaient très consommatrices de gros moyens informatiques. C’était l’imagerie satellitaire, j’en ai déjà parlé : pour la défense, la surveillance, la cartographie. On pouvait le mâtiner d’applications civiles, du genre surveillance des ressources terrestres, suivi des cultures, des forêts, … mais, en gros, c’était quand même essentiellement piloté par des applications militaires. Deuxièmement : l’imagerie médicale. Marché très important démarré avec l’analyse des radiographies et le comptage cellulaire. C’est à ce moment la naissance de la tomographie, de l’imagerie ultrasonore, de l’IRM. Une véritable révolution dans le domaine de la santé, qui renouvelle totalement le diagnostic médical. Matériels très chers, développés par des entreprises hautement spécialisées et très peu nombreuses. Le traitement des images dans ce domaine, c’est du travail de super pros qui s’appuient sur une très étroite relation avec le corps médical. Troisième domaine d’application très professionnel, les applications de traitement de l’image pour les contrôles dans les entreprises : surveillance des robots, lecture automatique dans les postes, dans les banques, pilotage des outils. Si c’est de plus petite taille, ça reste quand même très professionnel.
    Ce tableau s’applique, jusqu’aux années 90. Et là, la bascule s’est produite avec la démocratisation de la photo numérique dans des applications liées au web, à la photo personnelle, aux individus et au grand public, Bref le marché de la société civile. Là, on a trouvé des gens qui se sont intéressés aux mosaïques d’images, à la reconstruction 3D, à la reconnaissance de visages simplement pour des applications familiales ou entre amis.

    B : Les photographes amateurs et les réseaux sociaux ?
    HM : Oui, les réseaux sociaux. Ça ne s’appelait pas encore comme ça, mais c’était bien ça. Cette profusion d’images numériques dans les téléphones, les ordinateurs, les tablettes a fait basculer le traitement de l’image des domaines professionnels au domaine du grand public. Aujourd’hui, c’est le grand public qui tire, c’est très clair. Les développements des matériels, les appareils photos … Tout le monde a son appareil photo à 15 mégapixels, c’est absolument incroyable quand on voit le temps qu’il a fallu pour avoir une image numérique de 100 koctets !. Tous mes cours, commençaient par : « Une image, c’est 512 x 512 pixels.». Une base d’images numériques (comme celle du GdR Isis en France), c’était 30 images. Maintenant, tout le monde a sur son disque dur, des centaines d’images de plusieurs méga-octets. Ça, c’est le nouveau contexte du traitement de l’image. Je pense que cette nouveauté-là réagit très fortement sur les métiers du traiteur d’image. Si vous vous intéressez au renseignement militaire vous aurez probablement autant de renseignements en allant naviguer sur Google Earth qu’en envoyant des mecs se balader sur le terrain ou en lançant un nouveau satellite espion.

    B : Et la science là-dedans ? Est-ce qu’il reste des problèmes durs ? Des problèmes ouverts, le Graal du traitement de l’image aujourd’hui ? Ou bien, est-ce que le plus gros est fait, qu’il ne reste plus qu’à nettoyer ici ou là ?
    HM : Les problèmes nouveaux, oui, on a plein, parce qu’à la fin du siècle précédent, on considérait que si on voulait faire une application, la première chose qu’on demandait, c’est qu’il y ait des professionnels qui prennent les images avec du matériel pro. On se mettait toujours dans un contexte professionnel. Typiquement, pour la radiographie médicale, on achète un appareil à 15 millions d’euros, on prend deux techniciens à temps plein toute l’année et on fait des images dans des conditions parfaitement contrôlées. Donc on se met dans les meilleures conditions d’acquisition de l’image et à partir de là, bien sûr, on tire bon an mal an de bons résultats. Bon an mal an, parce que ce n’est pas si facile que ça. Mais dans les conditions naturelles de la vie : l’éclairage, l’attitude, le mouvement, le bruit, varient sans contrôle et rendent la tâche plus complexe. On dispose cependant de beaucoup plus d’images et de capteurs bien meilleurs et il faut réinventer les algorithmes avec ces nouvelles données. Naissent ainsi des problématiques nouvelles, extrêmement intéressantes, mais difficiles. Il faut trouver les bons invariants, jouer avec les lois de distribution pour détecter les anomalies, savoir faire abstraction des problèmes de géométrie. Et tout cela doit être caché à l’utilisateur qui n’a aucun intérêt aux invariants projectifs, aux matrices fondamentales, aux hypothèses a contrario …

    B : Passons à un autre sujet. Au départ, tu étais physicien. Ensuite, tu es passé au traitement de l’image. Nous, on te revendique maintenant comme informaticien, mais quel est ton point de vue à toi ? Est-ce que tu te considères comme informaticien, ou sinon, qu’est-ce que tu es ? Dans le cadre général de la classification des sciences, tu te places où ?
    HM : Je me sens tout à fait bien dans le monde de l’informatique, mais je revendique d’avoir non seulement une culture mais une sensibilité et une compétence qui vont au-delà, en particulier vers la physique, mais pas seulement. Par exemple je suis extrêmement soucieux de me maintenir en physique à un niveau qui soit suffisant, car je pense qu’on ne peut pas faire, dans mon domaine, de bonnes choses si on ne sait pas ce qu’est une réflectance, une albédo, ou une source secondaire.

    B : Toute l’optique ?
    HM : Une bonne partie de l’optique. Savoir ce qu’est une aberration, un système centré. Donc l’optique est importante. J’ai des sensibilités dans d’autres domaines : autour de la perception, du fonctionnement du cerveau, comment on traite la sémantique…

    B : Des sciences cognitives ?
    HM : Oui, ça pourrait relever de la science cognitive et c’est très important pour traiter les images. On ne peut pas parler d’image sans avoir une petite compétence en psycho-physiologie de la perception.

    B : Est-ce que tu pourrais nous dire comment tu as vu l’enseignement changer au cours de ta carrière à Télécom et comment tu vois le futur de cet enseignement dans un monde où on parle beaucoup de MOOC et de choses comme ça qui font couler beaucoup d’encre ?

    mexicoMesure par interférométrie radar de la subsidance du bassin de Mexico
    due à l’appauvrissement de la nappe phréatique : P. Lopez-Quiroz, F. Tupin, P. Briole
    Télécom ParisTech et Ecole Normale Supérieure 

    HM : Puisque l’on destine cet entretien à la communauté de l’informatique, parlons d’elle tout d’abord. Cet enseignement m’a longtemps semblé beaucoup trop utilitaire à l’école. Afin de se laisser le temps d’aborder les domaines les plus pointus des réseaux, des mobiles ou des services en ligne, on passait très vite sur des fondements théoriques qui me semblent cependant indispensables pour structurer une carrière orientée par exemple vers le développement de très grands systèmes ou de réseaux complexes. Je vois d’un très bon œil que, dans le cadre de notre participation à l’Idex de Paris Saclay nous puissions confronter notre expérience pédagogique à celle d’équipes qui ont dans ce domaine de l’enseignement supérieur de l’informatique de très beaux résultats. J’en attends d’une part une nouvelle pédagogie beaucoup plus en profondeur pour un petit nombre d’élèves destinés à y consacrer leur première carrière, d’autre part pour tous les autres un renforcement net de leurs compétences par une meilleure compréhension des enjeux du numérique.
    Je ne crois pas beaucoup à l’effet des MOOC dans ce domaine. Je les réserverais plutôt pour des domaines où la pédagogie est moins primordiale, peut-être vers les applications.

    B : Qu’est-ce qui t’a le plus intéressé dans ta carrière ?
    HM : La plus passionnante des expériences a été de travailler avec les laboratoires de recherche des musées de France, et en général c’est vers les applications que j’ai trouvé les plus grandes satisfactions, en frottant mes connaissances de traiteur d’image aux compétences d’experts d’autres domaines, qu’ils soient dans la restauration des peintures, dans la cartographie urbaine ou dans la détermination de l’altimétrie de la Guyane.

    poussinEtude de la géométrie d’une œuvre de Georges de la Tour
    (Saint Joseph Charpentier,  Louvres)
    mettant en évidence les principes de construction.
    JP Crettez, Télécom ParisTech et Réunion des Musées Nationaux.

    B : Tu as des exemples d’applications que tu as réalisées ?
    HM : C’était avec les laboratoires de recherche des musées de France. Ça s’appelle maintenant le C2RMF. On a lancé dans les années 83-88 les bases des grands projets européens d’archivage des musées. On a essayé de mettre sur pied non pas des standards mais des critères qui permettent d’établir ces standards, sur la résolution spatiale, l’éclairage, la colorimétrie des bases de données de peintures. Nous étions les partenaires du Louvre et on a travaillé avec l’Alte Pinakothek à Munich, la National Gallery de Londres, et la Galleria degli uffizi de Florence, bien avant que Google s’intéresse au projet. Des projets européens, on en a monté cinq ou six sur les peintures mais aussi sur les objets à 3D, les statues et les vases C’était passionnant et particulièrement stimulant de discuter avec des conservateurs qui ne voulaient surtout pas voir leurs peintures ramenées à un boisseau de pixels.

    HM : Un autre exemple de ce qui m’a beaucoup plu : définir la façon d’indexer les images de la nouvelle famille de satellites Pléïades qui a une résolution de 50 à 75 cm au sol, (toutes les minutes et demi, il tombe 640 méga-octets). Les gens ne peuvent plus traiter les images pour voir individuellement ce que chacune contient. On s’est posé la question de savoir comment indexer les images automatiquement quand elles arrivent, de façon à pouvoir répondre à des questions que l’on se posera dans 10 ans ou 20 ans. Il y a une grande partie de l’information qui est contrainte parce qu’on connait précisément la géographie, donc on sait que ce n’est pas la même chose si on observe du côté de Bakou ou de la Corne de l’Afrique. Mais derrière, il faut pouvoir identifier les champs, les rivières, les zones urbaines, les réseaux routiers, … Savoir s’il y a encore de la neige, ou du vent de sable, de telle façon qu’après, quand on recherchera des images, on retrouve toutes celles qui présentent une configuration identique. Pour cela, il a fallu tout construire de zéro car ça n’a bien sûr qu’un lointain rapport avec les bases de données d’images sur le web. On est obligé de faire des indexations hiérarchiques parce qu’il faut à la fois être précis lorsqu’on a trouvé la zone d’intérêt et rapide pour traiter des milliers d’images, chacune couvrant 1000 km2. Il a fallu discuter avec les utilisateurs : agronomes, géologues, urbanistes, cartographes, pour savoir comment faire les classes. Les gens qui s’occupent d’agronomie, veulent connaître le blé, l’orge, le riz, alors que, comme traiteur d’images, si j’ai reconnu des céréales, je suis très content ! Tu vas voir les urbanistes. Ils te disent : «Moi, je veux les quartiers résidentiels, les quartiers d’affaire, les banlieues, les zones commerciales, industrielles, etc. » et ainsi de suite. Il faut savoir quelles sont les classes qui sont raisonnablement utilisables et donc les questions que la société peut avoir face à l’image. Et je pense qu’à ce niveau-là, l’informatique a encore du boulot devant elle. Elle a encore du boulot parce qu’on va encore lui en poser des questions de ce type. La question n’est pas encore à l’ordre du jour sur le web « social », mais ça ne saurait tarder. Il n’y a qu’à voir comment à ce jour est indexée la musique pour comprendre où se situe le problème. Classer Brel dans la « musique du monde », pourquoi pas, mais qui en est satisfait ?

    B : Dans la suite de l’entretien, Henri Maître partagera sa vision de l’évolution de l’image et des perspectives sociétales qu’elle peut avoir. Nous vous donnons rendez-vous demain pour découvrir sa vision…

    maitreHenri Maitre, © Serge Abiteboul

  • L’informatique s’installe au Collège de France

    college1Source : Collège de France

    Qu’est-ce que le Collège de France ?

    Le Collège de France est une institution résolument originale au plan mondial. Créé en 1530 par François 1e pour libérer la pensée de la scholastique universitaire, c’est une université entièrement libre d’accès, sans étudiants ni examens. Quarante-quatre professeurs permanents élus par leurs pairs y dispensent actuellement leurs cours sur autant de chaires, ce dans les grands domaines de la connaissance : mathématiques et sciences numériques, sciences du vivant, physique et chimie, sciences humaines, histoire et littérature. Ils ont pour seules contraintes de dispenser un cours nouveau tous les ans, représentant « le savoir en train de se constituer », tout en conduisant une recherche de pointe dans leur domaine et en s’ouvrant à ceux de leurs pairs. Leurs cours sont complétés par un nombre égal de séminaires donnés par des personnalités extérieures. Les chaires permanentes sont complétées par des chaires annuelles, cinq actuellement, qui explorent de nouveaux domaines de la connaissance et de l’action. La plupart des cours sont téléchargeables en vidéo sur le site du Collège et au travers de plusieurs réseaux internationaux de diffusions de contenus.

    L’entrée de l’informatique au Collège

    L’informatique est entrée pour la première fois au Collège de France en 2007-2008 lors de la deuxième édition de la Chaire d’innovation technologique Liliane Bettencourt, que j’ai eu l’honneur de tenir cette année-là, tout en gardant mon poste industriel de directeur scientifique de la société Esterel Technologies. La science informatique n’avait jamais été enseignée au Collège de France, et sa connaissance par le grand public restait fragmentaire, beaucoup confondant science, technique et usage dans un méli-mélo quelque peu confus.
    Après une leçon inaugurale embrassant le sujet de façon assez large et illustrant la force de la science informatique et la nécessité de son enseignement, j’ai eu l’idée de travailler à la façon du début du 20e siècle, sous forme de « leçons de choses » dédiées à autant de pans centraux de l’informatique : algorithmes, circuits, langages de programmation, systèmes embarqués, vérification de programmes, réseaux et images, le tout accompagné de douze séminaires associés aux sujets du jour et d’un colloque final. Le lien fort entre le collège de France, France-Culture et d’autres radios m’a permis de compléter le cours par plusieurs émissions de radio, exercice que j’apprécie particulièrement car il donne vraiment le temps à l’invité de s’exprimer et laisse de l’autre côté les yeux, les mains et l’esprit libres à l’auditeur.
    A la suite du succès rencontré par cette première chaire, Inria et le Collège de France ont décidé de créer en commun et pour cinq ans une chaire annuelle « Informatique et sciences numériques », qui vient d’être renouvelée pour trois ans. J’ai encore eu l’honneur (et la charge) d’inaugurer cette chaire, avec un cours plus technique intitulé « Penser, modéliser et maîtriser le calcul informatique ». J’ai centré mon discours sur le fait qu’il y a un gouffre entre écrire un programme qui marche à peu près et un programme qui marche vraiment, en insistant sur le fait que seule une approche scientifique peut permettre d’atteindre le second objectif.
    Les années suivantes, la chaire s’est poursuivie par les cours de Martin Abadi (Université de Santa Cruz et Microsoft Research) sur « La sécurité informatique », Serge Abiteboul (Inria et ENS Cachan) sur « La science des données, de la logique du premier ordre à la toile », et Bernard Chazelle (Université de Princeton) sur « Les algorithmes naturels ».
    Cette année 2013-2014, le cours sera donné par Nicholas Ayache (Inria Sophia-Méditerranée) sur le thème « Des images médicales au patient numérique ». Il présentera les progrès extraordinaires de l’imagerie médicale et de la chirurgie robotisée, ainsi que l’évolution vers un patient numérique personnalisé permettant de mieux comprendre les maladies et leur traitement grâce à une modélisation informatique fine de l’anatomie et de la dynamique des organes. Je ne peux que recommander au lecteur de suivre ce cours, qui montrera bien comment l’informatique change complètement les façons de penser dans un domaine qui lui était autrefois tout à fait étranger.

    college2

    Photo : Collège de France

    La chaire permanente « Algorithmes, machines et langages »

    En 2012, devant l’importance du sujet et de son évolution et devant le succès des cours des chaires annuelles d’informatique, le Collège de France a décidé de créer une chaire permanente d’informatique « Algorithmes, machines et langages » et de me la confier. J’ai choisi de consacrer mes cours à un sujet relativement peu exploré par les approches traditionnelles mais qui devient de plus en plus central dans nombre d’applications : la gestion du temps et des événements dans les systèmes informatiques.
    Les algorithmes et langages classiques s’attachent surtout à la notions de calcul sur des données, et ne traitent le temps et les événements que du bout des lèvres : le temps est vu comme un impôt à payer pour le calcul, les événements comme des choses qu’il convient de traiter avec des primitives ad hoc pour les intégrer le plus simplement possible dans l’exécution séquentielle des programmes. Ceci correspond bien à la conception initiale de l’ordinateur comme super-machine à calculer. Mais, dans un autre monde, l’ordinateur est plutôt vu comme une « machine à réagir ». C’est le cas dans toutes les applications de contrôle de systèmes physiques (avions, automobiles, robots, etc.), où informatique et automatique sont étroitement associées et où le respect des temps de réaction est une contrainte primordiale. C’est aussi le cas pour les circuits électroniques les interfaces hommes-machines, désormais omniprésents, la simulation de système physiques, maintenant à la base de la création d’objets de toutes sortes, l’orchestration d’activités Web, indispensable pour les applications modernes construites par compositions de services existants et commandées par nos téléphones ou autres terminaux sensibles, et même la composition musicale, où les compositeurs contemporains mettent en interaction les merveilleux interprètes humains et les fantastiques possibilités de l’informatique pour produire de nouveaux sons. Tous ces systèmes sont maintenant rassemblés sous le nom de « systèmes cyber-physiques ». Nous allons assister à l’explosion de leur nombre et de  leurs interconnexions à travers le fameux « Web des objets » qui se développe exponentiellement. Il se trouve que la recherche française est en pointe dans ce domaine depuis plus de 30 ans, et fait ce qu’il faut pour le rester. C’est donc un excellent domaine pour le Collège de France, que je détaillerai ultérieurement

    Gérard Berry, Professeur au Collège de France

    college3Plaque en hommage à Claude Bernard, sous les fenêtres de son laboratoire au Collège de France à Paris.  Photo Collège de France. Jebulon

  • La datamasse s’invite Quai de Conti

    mammothLe mammouth Wooly au Royal BC Museum
    Victoria, British Columbia. Wikemedia

    Vidéos de la conférence-débat de l’Académie des sciences « La Datamasse : directions et enjeux pour les données massives »

    • Introduction,  Patrick Flandrin, CNRS, ENS Lyon
    • À la découverte des connaissances massives de la Toile, Serge Abiteboul,  Inria, ENS Cachan
    • Des mathématiques pour l’analyse de données massives, Stéphane Mallat, ENS Paris
    • La découverte du cerveau grâce à l’exploration de données massives, Anastasia Ailamaki, École polytechnique fédérale de Lausanne
    • Big Data et Relation Client : quel impact sur les industries et activités de services traditionnelles ? François Bourdoncle, co-fondateur et CTO d’Exalead, filiale de Dassault Systèmes

     Serge Abiteboul

     

  • Les blagues sur l’informatique #10

    Une blague d’informaticiens que vous ne comprenez pas?
    Un T-shirt de geek incompréhensible?
    Binaire vous explique (enfin) l’humour des informaticien(ne)s!

    Désolé(e), les blagues IPv4 sont épuisées.

    IPv4 est la version 4 (en fait la première largement déployée) du protocole de communication entre ordinateurs utilisé par Internet. Une adresse IPv4 est représentée sous la forme de quatre nombres décimaux (entre 0 et 255) séparés par des points comme par exemple 8.8.8.8. Pour simplifier, on peut considérer que les adresses IPv4 vont de 0.0.0.0 à 255.255.255.255, ce qui fait 232 soit un peu plus de 4 milliards d’adresses. Il n’y en a donc pas une pour chaque humain sur Terre! Et au vu du nombre d’équipement connectés, c’est peu ! Depuis 2011, il n’y a plus de blocs d’adresses IPv4 disponibles, ce qui explique la blague.

    Voici pour illustrer l’en-tête IPv4:

    En-tête IPv4Copyright Wikipedia
    Plusieurs solutions à ce problème existent, notamment la récupération d’adresses attribuées généreusement autrefois, l’utilisation de sous-réseaux, ou l’utilisation du protocole IPv6
    qui autorise 2128 adresses (au lieu de 232), ce qui fait plus de 1038 adresses soit plus de 100 milliards de milliards de milliards de milliards d’adresses.

    Voici pour comparer l’en-tête IPv6. Notez la taille largement supérieure de l’adresse!

    En-tête IPv6Copyright Wikipedia
     

    Voir aussi IPv4, Épuisement des adresses IPv4, Internet, le conglomérat des réseaux.

    Sylvie Boldo

  • L’ordinateur, un crayon pour créer

    L’ordinateur, un crayon pour créer

    Quand mon fils a eu 8 ans, j’ai eu l’idée de lui apprendre à programmer. Comment cette idée m’est-elle venue ? Pour les 15 ans de la promotion de mon école d’ingénieur, des camarades ont interviewé des acteurs du monde des télécoms sur les transformations passées et à venir. Ça a été un choc de revoir l’impact des technologies du numérique sur l’ensemble de la société. En quinze ans, avec internet, les smartphones et les tablettes, les objets portant en eux des programmes informatiques sont devenus omniprésent dans notre vie quotidienne au point de transformer nos modes de vie. Aujourd’hui nous achetons sur internet, nous échangeons sur les réseaux sociaux, nous télé-déclarons nos impôts, nous écoutons de la musique sur des plateformes en ligne… Et ces changements continuent à s’accélérer, nous demandant de nous adapter sans cesse.

    L’un des intervenants a conseillé d’apprendre à ses enfants à programmer. Cela m’a semblé tout d’un coup une évidence. J’avais appris à programmer en école d’ingénieur, ce qui est de fait très tard. Programmer est accessible aux jeunes enfants car pour eux c’est un jeu de création et de construction, qui plus est sur un support qu’ils adorent, l’ordinateur. Plus ils se familiarisent tôt avec la programmation informatique, mieux ils appréhendent les concepts de logique associée à cette discipline ; séquençage, conditions, boucles… Apprendre à programmer permet aux enfants de devenir acteurs dans un monde de plus en plus pénétré de technologies, et pas uniquement consommateurs. Sans être une développeuse, il m’a toujours semblé que je savais naviguer dans le monde actuel parce que je comprenais ce que je manipulais lorsque j’utilisais de près ou de loin un ordinateur, et ce que l’on pouvait attendre de la technologie.

    C’était il y a un peu plus d’un an. J’ai alors cherché un atelier extra-scolaire pour mon fils. J’ai été sidérée de ne rien trouver, même à Paris, pas le moindre atelier pour enfant sur ce thème. De là est née l’idée qui devait changer ma vie, celle de créer moi-même ce qui n’existait pas et qui m’apparaissait une nécessité : des ateliers où les enfants créent leurs jeux, leurs propres histoires avec l’ordinateur, tout en apprenant à programmer, et j’ai démarré les ateliers Magic Makers.

    Des outils adaptés pour les enfants

    J’ai commencé à rechercher quel outil adapté aux enfants je pourrais utiliser. J’ai choisi d’utiliser un des plus connus et des plus efficaces, comme en témoigne la grande communauté d’éducateurs qui l’utilise dans le monde. Scratch est un logiciel développé par le Lifelong Kindergarten au sein du Media Lab du MIT (Massachussetts Institute of Technology). Ce qui est intéressant avec Scratch, c’est d’abord qu’il est extrêmement intuitif et ludique. Les enfants adorent.

    Les commandes se présentent sous forme de blocs que les enfants assemblent simplement avec la souris. On y anime les personnages que l’on a choisis, on les fait apparaitre, disparaître, interagir parler… Le résultat est tout de suite visuel et concret pour les enfants. En créant, ils sont confrontés à des problèmes de logique: ils obtiennent le résultat désiré parce qu’ils ont trouvé une façon efficace d’enchaîner les instructions, dans le bon ordre, avec les bonnes conditions d’actions. Coder, programmer, c’est simplement donner des instructions à une machine pour produire un résultat. Le faire avec Scratch permet aux enfants d’appréhender ce fonctionnement et de se l’approprier.

    L’autre intérêt de Scratch, ce sont les idées sur lesquelles s’appuie sa conception, qui se retrouvent dans la façon de l’utiliser. Scratch est avant tout conçu comme un outil d’apprentissage au sens large, au-delà de l’apprentissage de la programmation. C’est avant tout un outil pour apprendre à apprendre : expérimenter, chercher des solutions, se tromper et recommencer, partager sur le site en ligne et apprendre par la collaboration auprès des autres scratchers. L’équipe du Lifelong Kindergarten s’appuie sur des travaux en sciences de l’éducation, notamment du chercheur Seymour Papert qui met en avant l’apprentissage par l’expérimentation.

    Créer

    L’enjeu des ateliers est la créativité. Le code est un moyen. Dans les ateliers Magic Makers, les enfants expérimentent toutes sortes de choses que l’on peut créer avec un ordinateur. J’aborde les projets dans un ordre qui permette de confronter les enfants à une complexité croissante.

    Nous avons tout d’abord mis en scène des histoires. Cela permet d’apprendre les bases nécessaires pour créer un projet, et d’appréhender déjà les notions de séquencement. Ils trouvent la manière de déclencher des actions en comptant le nombre de secondes au bout desquelles un personnage doit apparaître ou dire sa réplique. Les enfants inventent leurs personnages, ils les créent en dessinant, ou même en pâte à modeler, et ils utilisent ensuite le code pour l’animer. Ils sont très fiers de ces premiers résultats.

    Forts de ce succès, nous abordons ensuite la création de jeux vidéos. Cela fait appel à des concepts plus élaborés : il faut piloter un personnage, et déclencher des actions quand certaines conditions se réalisent, comme par exemple compter des points quand on touche un objet que l’on doit ramasser, et faire disparaitre cet objet, puisqu’on l’a ramassé. Il est passionnant de voir les enfants se prendre au jeu, et trouver un moyen de donner forme à ce qu’ils ont en tête. Ou tout simplement de recréer des jeux qui leur plaisent.

    En fin de compte, quand je repense aux quinze années écoulées, et que je pense aux quinze années à venir, je me dis qu’il faut fournir aux enfants les outils dont ils auront besoin. Et plus que des outils, une façon de les appréhender comme outils de création.

    Claude Terosier. Magic Makers.

  • L’informatique n’a pas besoin de grand frère

    L’informatique est clairement une science qui gagne à ne pas être isolée, qui s’enrichit de ses relations avec des disciplines voisines, ou moins voisines. Les exemples abondent où un travail commun a permis l’émergence de nouvelles questions, de scientifiques travaillant, découvrant autrement : ainsi l’interface entre l’informatique et la biologie a produit la bioinformatique, les travaux d’informaticiens et de linguistes ont permis l’émergence de la linguistique computationnelle ; de nombreux scientifiques s’appellent aujourd’hui géomaticiens, membres d’une nouvelle discipline fruit du mariage de l’informatique et de la géographie. Dans chacun de ces cas, le résultat est une discipline nouvelle, avec ses conférences, ses ouvrages de référence, son vocabulaire.

    Ces relations de co-production sont particulièrement enrichissantes et l’informaticien ne peut que s’estimer chanceux que sa discipline soit capable de co-fermenter autant de projets scientifiques collaboratifs nouveaux.
    Les relations mathématiques-informatique d’une part, sciences de l’ingénieur-informatique d’autre part, me paraissent relever d’une autre logique.

    Les conditions nécessaires à la naissance d’une nouvelle discipline n’ont pas cours, me semble-t-il. Plutôt que création de nouvelle discipline, il y a co-existence de disciplines, co-existence très positive, d’ailleurs !
    La comparaison qui me vient à l’esprit est avec une personne qui a une double nationalité : cette personne ne devient pas pour autant membre d’un nouveau groupe, elle se contente d’avoir la chance de bénéficier de deux cultures.

    De la même façon, tant mieux pour celles et ceux qui appartiennent à deux cultures scientifiques ! Ne réduisons pas cette richesse à vouloir les ranger dans une catégorie qui n’existera qu’administrativement.
    Or, le CNESER, principal organisme consultatif de l’enseignement supérieur, vient de voter une curieuse motion  dans laquelle on lit : « En témoignent des interventions venant quasiment de toutes les disciplines. Citons notamment les Mathématiques et l’Informatique, la Physique, les Arts, la Psychologie, l’Histoire ».  Le « et » ne souffre pas de la moindre ambigüité : pour le CNESER les mathématiques et l’informatique se fondent en une discipline unique ! Voilà comment, au détour d’une motion, se créerait une nouvelle discipline ?

    Le CNESER s’est sans doute inspiré d’un texte commun signé par les 3 sociétés savantes de mathématiques demandant le rétablissement d’une mention de master « mathématiques-informatique » (ou « informatique-mathématiques »), sans cependant utiliser l’argument de la discipline unique.
    La question n’est pas ici celle de la position des mathématiques qui ont naturellement le droit d’avoir un avis sur la question des Mathématiques et l’Informatique. Ce qui est troublant est  qu’ il a paru évident pour les membres du CNESER que l’avis du grand frère suffisait pour en faire l’avis de la fratrie.

    D’un autre côté, on trouve une discipline intitulée « sciences de l’ingénieur ». Cette discipline a une agrégation, ce qui en France est la preuve de son importance. Elle est enseignée au collège et au lycée, ainsi que dans les classes préparatoires. Elle mentionne dans ses programmes, à différents endroits, l’informatique comme étant l’un de ses outils. Elle se définit sans doute plus par ses procédés que par ses connaissances. Le paradoxe n’est pas que cette discipline est aujourd’hui enseignée au lycée alors que l’informatique ne l’est pas ; le paradoxe est que l’une des principales raisons pour laquelle l’informatique n’est pas enseignée est qu’elle apparait, tantôt implicitement, tantôt explicitement, comme étant au programme des sciences de l’ingénieur ou des matières qui sont liées (technologie, au collège). Ce qui n’est pas le cas.

    Ici encore, le grand frère sert régulièrement d’interlocuteur valide, ou du moins validé, et il n’est jamais jugé utile de demander ce que pense la petite sœur…

    L’informatique est une science. Son importance économique et culturelle n’est plus à démontrer. Les débats actuels en France concernant la question de son enseignement resteront faussés si l’on s’entête à vouloir en discuter avec l’un de ses grands frères, voire les deux et ne pas demander son avis à l’intéressée.

    Les informaticiens ont le plus grand respect pour les mathématiques et l’ingénierie qui ont toutes deux eu un rôle fondamental dans la création et le développement de la discipline. Traiter l’informatique comme une science adulte et choisir d’en discuter avec elle et non un grand frère, aussi respectable soit-il, est aujourd’hui une nécessité.

    Colin de la Higuera

     

  • Les blagues sur l’informatique #1

    Une blague d’informaticiens que vous ne comprenez pas?
    Un T-shirt de geek incompréhensible?
    Binaire vous explique (enfin) l’humour des informaticien(ne)s!

    Dans le monde, il y a 10 catégories de personnes : celles qui connaissent le binaire et celles qui ne le connaissent pas.

    Pour commencer cette série d’explications sur les blagues liées à l’informatique, voici évidemment la blague la plus connue sur le binaire. Pour le commun des mortels, 10 représente la valeur dix, c’est-à-dire 9+1. En effet, depuis notre enfance, nous utilisons pour représenter les nombres et pour compter la base 10. Ainsi


    2014 = 2 × 103 + 0 × 102 + 1 × 101 + 4 × 100.
    Les ordinateurs (et donc souvent les informaticiens) préfèrent la base 2 (pour les nombres entiers). L’idée est la même. On appelle cela la numérotation de position ou notation positionnelle.

    11111011110=
    1 × 210 + 1 × 29+
    1 × 28 + 1 × 27+
    1 × 26 + 0 × 25+
    1 × 24 + 1 × 23+
    1 × 22 + 1 × 21+
    0 × 20 =
    1024+512+256+128+64+16+8+4+2 =2014
    Maintenant, revenons à la blague et considérons non pas 10 écrit en base 10, mais en base 2, cela donne donc 21+0=2 catégories de personnes, celles qui connaissent le binaire et celles qui ne le connaissent pas.
    Et maintenant, vous êtes dans la première catégorie!

    Voir aussi Nom de code: binaire.

    Sylvie Boldo

  • La preuve par 42

    J’ai été visiter l’école 42 avec François B. (anonymat respecté, je connais deux François B.). J’arrivais avec mes aprioris de partisan convaincu de l’école publique, prêt à lui préférer l’ecole 41, un des plus anciens vignobles de la Walla Walla vallée d’Oregon, prêt à partager l’avis assez critique de la SIF sur 42. J’arrivais surtout avec la conviction que 42 posait de vraies questions. Je confirme. Je vais être parfois critique dans cet article, mais c’est parce que j’ai aimé ce que j’ai vu, parce que je crois qu’il devrait nous conduire à nous interroger sur nos manières traditionnelles d’enseigner, et parce que je crois qu’il serait possible d’améliorer l’école 42. Mais ce dernier point est dit avec une bonne dose d’humilité : la bande du 42 connait mieux le sujet que moi.

    Nous avons été reçus par le DG adjoint, Kwame Yamgnane, sympa, détendu, passionné par son travail.

    kwamePhoto : Kwame – @Kwame42

    Le lieu

    L’école, Porte de Clichy, n’est pas située dans les beaux quartiers, pas non plus dans « les banlieues ». L’architecture d’intérieur est moderne, assez réussie. La vie de l’école se concentre dans trois grands plateaux. Un millier de postes de travail, pour environ autant d’élèves. Quelques sacs de couchage dans une pièce, des restes de « take out » dans un coin cafétéria, bientôt un BBQ et un jacuzzi, on pourrait être dans une startup du Sentier. Sauf la démesure.

    D’où viennent les élèves ?

    Au look, ils ne sont pas très différents de mes élèves de l’ENS Cachan. Ils ont 18-30 ans pour la plupart. 40% n’ont pas le bac. A l’exception de 10% qui suivent des études supérieures en parallèle, ce sont plutôt des jeunes qui ne se sont pas sentis à l’aise dans le système de l’éducation nationale, qui cultivent pour beaucoup le désamour général pour les sciences, et en particulier les maths. Il y a un peu de pertes en lignes, mais elles sont plutôt dues à des problèmes sociaux ou personnels qu’à l’enseignement.

    On peut regretter l’absence d’ « affirmative action » pour intégrer plus de femmes ou plus de jeunes de milieux défavorisés. Pas de langue de bois : 42 attaque le problème de l’absence d’informaticiens et pas d’autres problèmes de notre société. Pour ça, il me faudra attendre ma visite à Simplon.co (la fabrique de codeurs entrepreneurs de Montreuil) dans quinze jours. Pourtant, Kwame reconnaît bien volontiers qu’il faudrait plus de femmes pour former plus d’informaticiens, et que plus de femmes apporteraient de la diversité dans les projets qui sont au cœur de la pédagogie de 42. Pour la prochaine promo ?

    La pédagogie

    Finalement, rien de si neuf. Les références classiques à Piaget. Mais l’approche ici est radicale. Les élèves ont des projets à réaliser, définis par les profs de manière volontairement peu précise. Ils travaillent toujours en groupe. Le groupe obtient une note, jamais l’individu. Chacun va à son rythme et les trois ans prévus pour l’école sont à titre purement indicatifs. Ils ont des grades comme à l’armée ? Une armée de padawans mais qui se passeraient de chevaliers Jedi ? A ce que j’ai compris, le prof est plus le surveillant ou le pompier que celui qui transmet.

    Le travail individuel ou collaboratif marche. On le sait depuis longtemps. Il marche particulièrement bien en informatique, car la programmation se prête bien à l’exercice solitaire de la production de lignes de codes, comme à l’écriture collaborative. A 42, les élèves sont challengés ; ils bossent beaucoup. Les écoles d’ingénieurs, avec forte sélection avant et exigence de travail modeste pendant, pourraient s’en inspirer. J’ai plus de mal à comprendre (à m’habituer ?) à la faiblesse de la transmission. On ferait gagner du temps aux élèves en travaillant avec eux, en répondant à leurs questions quand ils sont bloqués, en leur suggérant des lectures quand ils veulent aller plus loin. Cela ne semble pas au cœur des préoccupations de 42. S’ils sont si peu de maitres, c’est pour des raisons financières ou est-ce un choix pédagogique ?

    plateau2Photo : Serge Abiteboul, cc by-sa

    Science ou technique

    Comme moi, Kwame se réfère beaucoup à la pensée informatique (computational thinking). Mais parle-t-on de la même chose ? Pour moi, cette pensée combine science et technique intimement. L’éducation traditionnelle insiste trop sur la science. Pour 42, comme les élèves n’ont pas trop d’atomes crochus avec les sciences, ce sera seulement la technique. Tout tourne autour de « coder ». On code comme on parle, comme on compte. Ça me rappelle le slogan : « Apprendre à lire, écrire, compter et programmer ». A part, qu’ils disent « coder » au lieu de programmer, on parle de la même chose ? Faire que la programmation rentre dans la peau des élèves, leur devienne aussi naturelle que la parole. C’est exactement ça ! Finalement cela rentre bien dans la pensée informatique, dans un aspect essentiel de cette pensée.

    C’est enthousiasmant de voir que la programmation est au cœur du projet. Mais en même temps, je reste un peu déçu. Je voyais dans la programmation le moyen de raccrocher les décrocheurs, de leur faire apprécier la partie scientifique de l’informatique, de là, les maths, les autres sciences. Pour moi, coder c’est aussi raisonner, faire des maths. Pas à 42 ! On ne demande pas à l’enseignement de l’informatique de régler aussi les problèmes du décrochage en maths. On apprend l’informatique à des jeunes parfois décrocheurs pour leur apprendre un métier. Rien de plus.

    On retrouve bien l’esprit de l’Epitech, avec l’accent sur la technique et un programme scientifique minimum. (Pas surprenant, la direction vient d’Epitech.) Prenons un exemple, l’analyse syntaxique. Un enseignement trop classique, on vous donne les bases de théories des langages et on vous fait vaguement faire quelques exercices à la fin. Vous avez raté une chance de vraiment comprendre, d’inventer, de créer. Avec 42, on vous demande d’écrire un analyseur lexical. Vous ramez, vous bidouillez, pour finalement arriver à hacker quelque chose. Si vous ne savez rien de la théorie des langages, vous avez ses concepts essentiels au bout des doigts. Mais vous n’avez pas saisi leur essence ; vous aurez plus de mal à les appliquer dans des contextes totalement différents comme la linguistique ou la biologie.

    Micro trottoir (sans aucune prétention scientifique) auprès d’amis dans les entreprises : Les ingénieurs qui sortent de l’Epitech sont parfois exceptionnels, souvent ils sont limités par des manques de bases scientifiques. C’est une formation qui convient bien à certains jeunes (selon ces mêmes amis). Juste une inquiétude. Ce n’est pas risqué de trop dépendre de la technologie de l’instant quand tout s’agite autour de vous ? Que deviennent-ils dix ans après ? Pas les bons. Ceux-là s’en tireraient de toute façon. Mais les plus hésitants.

    Quid de la littératie numérique ?

    Avec mon travail au CNNum, j’étais obligé de poser la question. La réponse est simple : « On leur apprend à coder ». Oups. Je sens certains collègues du CNNum se crisper. On est dans la religion de 42 : « Born to code ». Quand on sait coder, on comprend mieux le monde numérique. Ce n’est pas faux. C’est nécessaire mais ce n’est sûrement pas suffisant. 42 ignore les autres aspects de la littératie numérique dans son curriculum. Mais, est-ce que les facs ou les grandes écoles font mieux ? A peine. A la marge. On retombe sur le même argument : Le but de 42 n’est pas de résoudre tous les problèmes mais de former des informaticiens.

    plateauPhoto : Serge Abiteboul, cc by-sa

    En guise de conclusion

    Quand Xavier Niel dit « Le système éducatif ne marche pas » dans un édito, on n’est pas obligé de le suivre. Le système est certainement perfectible mais des tas d’enseignements fonctionnent quoi qu’il dise. Par contre, quand Kwame m’explique qu’avec leurs élèves la méthode 42 semble marcher, je veux bien le croire. Les élèves n’ont ni tous les mêmes capacités, ni les mêmes histoires, ni tous les mêmes modes d’apprentissages. Du coup, cela mérite de regarder pourquoi 42 marche et si on pourrait adapter certaines idées de leur approche à d’autres contextes.

    J’imagine déjà une « piscine » à l’Ecole normale supérieure de Cachan, un plateau d’ordinateurs, où on plongerait pour plusieurs semaines les élèves normaliens, les matheux, les sociologues, les autres… On les ferait coder tout et n’importe quoi. Surtout n’importe quoi. Ce serait pour eux une expérience extraordinaire. Cela ferait je crois de meilleurs matheux, sociologues, etc. C’est tentant ?
    Mais les élèves de l’ENS sont des élèves qui étaient bien adaptés au système scolaire. Et les autres ? Il faut être bon en maths pour réussir en informatique ? Non ! La preuve par 42 que c’est faux. Vous pouvez être faible en maths et devenir un as de la programmation Cela démystifie violemment l’informatique. Tout le monde peut apprendre à programmer. C’est ce que je veux retenir de ma visite à 42.

    Serge Abiteboul

  • La place de l’informatique dans la classification des sciences

    Le questionnement sur la classification des sciences provient en partie du besoin d’organiser les institutions scientifiques : écoles, universités, laboratoires, etc. Ainsi, l’enseignement des sciences dans les écoles du Moyen Âge était-il organisé selon le quatrivium de Boèce : arithmétique, musique, géométrie et astronomie. Et avant sa récente réorganisation le Centre National de la Recherche Scientifique était-il organisé en suivant précisément la classification des sciences d’Auguste Comte : mathématiques (section 1), physique (sections 2 à 10), chimie (sections 11 à 16), astronomie (sections 17 à 19), biologie (sections 20 à 31), sciences humaines (sections 32 à 40), le seul écart étant la place de l’astronomie.


    boethius
    Boece enseignant, dans manuscript de La Consolation de la Philosophie, 1385 (Wikipédia)
    Mais ce questionnement provient aussi sans doute d’une interrogation plus fondamentale sur la nature des sciences, sur ce qui les unit et les sépare. Il y a ici une manière originale, car extensionnelle, de s’interroger sur la nature de la science, en s’interrogeant sur la nature des sciences.

    Ces raisons, institutionnelle et épistémologique, expliquent que ce questionnement ressurgisse particulièrement quand une nouvelle science apparaît, la physique sociale à l’époque de Comte, l’informatique aujourd’hui.

    Objets et méthodes

    Selon une tradition qui remonte au moins à Kant, s’interroger sur la nature d’une science consiste à s’interroger d’une part sur les objets qu’elle étudie et d’autre par sur sa méthode, c’est-à-dire sur la manière dont nous jugeons, dans cette science là, de la vérité d’une proposition. Cela nous mène concevoir la classification des sciences comme un tableau à deux dimensions.

    La première dimension concerne les objets étudiés. Ici, nous pouvons opposer les mathématiques, qui étudient des objets abstraits, ou du Logos, ou cognitifs, aux sciences de la nature, qui étudient des objets concrets, ou du Cosmos, ou objectifs. De manière équivalente, les connaissances peuvent être qualifiées de synthétiques dans les sciences de la nature et d’analytiques en mathématiques. Bien entendu, cette conception des connaissances mathématiques ne date que du programme de Frege et de la conception moderne, due à Hilbert et à Poincaré, des axiomes comme définitions, implicites ou déguisées, des objets étudiés par les mathématiques. Avant cela, les objets mathématiques étaient perçus comme réels bien qu’idéaux, le rôle des axiomes n’était que celui de décrire cette réalité idéale, et les connaissances mathématiques étaient perçues comme synthétiques. Cette transformation de la perception des mathématiques a mené à une évolution de la signification des mots « analytique » et « synthétique », qui, peu à peu, ont pris la même signification que les mots « nécessaire » et « contingent ».

    Il est ensuite possible de distinguer le vivant au sein de la nature et l’humain au sein du vivant, ce qui mène à la distinction entre les sciences physiques, les sciences de la vie et les sciences humaines, même si la spécificité de ces dernières mène parfois à les distinguer, ce qui conduit, par exemple,Michel Serres à séparer les sciences du collectif des sciences de l’objectif. Cette progression du général au particulier, qui distingue le vivant au sein de la nature et l’humain au sein du vivant est le principe dominant dans la classification de Comte. Ce principe explique aussi que les mathématiques se trouvent avant les sciences physiques, dans cette classification, si l’on veut bien considérer qu’une proposition est nécessaire quand elle est vraie dans tous les mondes possibles et que la nature n’est qu’un monde possible parmi d’autres.

    La seconde dimension concerne la méthode que chaque science utilise pour étudier ces objets. Ici encore, la distinction principale oppose les mathématiques, où juger qu’une proposition est vraie demande de la démontrer, aux sciences de la nature où juger qu’une proposition est vraie demande ou bien une observation, ou bien la construction d’une hypothèse qui n’est pas en contradiction avec les observations. Par exemple, nous savons que Jupiter a des satellites car nous les avons observés et nous tenons pour vrai que Mercure n’a pas de satellite, car nous n’en avons jamais observé. Dans les deux cas juger la proposition vraie demande une interaction avec la nature. Les jugements en mathématiques peuvent être qualifiés de a priori, et dans les sciences de la nature, d’a posteriori.

    Nous aboutissons finalement à une classification relativement simple, avec les mathématiques analytiques a priori, les sciences de la nature synthétiques à posteriori et deux cases du tableau vides, ou presque, pour d’hypothétiques connaissances analytiques a posteriori et synthétiques a priori, ces dernières se limitant, après Frege, à la connaissance de sa propre existence et quelques connaissances de la même nature.

    Quelle est la place de l’informatique dans une telle classification ?

    Les objets de l’informatique

    Commençons par nous demander de quels objets parle l’informatique.

    L’informatique parle d’objets de différente nature : informations, langages, machines et algorithmes. Ces quatre classes d’objets sont très vastes : les langages comprennent les langages de programmation, mais aussi les langages de requête, les langages de spécification, etc., les machines comprennent les ordinateurs, mais aussi les robots, les réseaux, etc.

    Il y a sans doute ici une originalité de l’informatique, que nous ne pouvons réduire à l’étude d’un seul type d’objets : nous amputons l’informatique en la définissant comme la science des algorithmes, ou comme celle des machines.

    Chacun de ces quatre concepts est antérieur à l’informatique, mais ce qui ce que l’informatique apporte sans doute de nouveaux est leur organisation en une science cohérente. Le concept d’algorithme, par exemple, existe depuis plus de quatre mille ans, mais cela ne suffit pas pour considérer les scribes de l’Antiquité comme des informaticiens. L’informatique n’a débuté qu’au milieu du XXe siècle, quand nous avons commencé à utiliser des machines pour exécuter des algorithmes, ce qui a demandé de concevoir des langages de programmation et de représenter des données sur lesquelles ces algorithmes opèrent sous une forme accessible aux machines, c’est là l’origine de la théorie de l’information.

    Ces quatre concepts sont d’égale dignité, mais ils ne jouent pas tous le même rôle dans la constitution de l’informatique. Illustrons cela par un exemple. Un programme de tri est un algorithme, exprimé dans un langage de programmation et exécuté sur une machine, qui transforme des informations. Par exemple, il transforme la liste 5,1,3 en la liste 1,3,5. Toute l’entreprise que constitue la conception d’un algorithme de tri, la définition d’un langage de programmation dans lequel l’exprimer, la construction d’une machine pour l’exécuter, etc. a comme but de savoir que le résultat du tri de la liste 5,1,3 est la liste 1,3,5. Il semble donc que le but ultime de l’informatique soit de transformer des informations et que les algorithmes, les langages et les machines soient des éléments de méthode pour atteindre ce but.

    Nous pouvons ici faire un parallèle avec la physique. Le but de la mécanique 3 céleste est de faire des prédictions sur la position des astres à une date donnée. Et les concepts de force, de moment ou d’énergie sont des éléments de méthode pour parvenir à ce but.

    Nous pourrions, à juste titre, objecter que l’informatique s’intéresse peu au résultat du tri de la liste 5,1,3 et davantage, par exemple, à l’algorithme de tri par fusion. Nous pourrions, de même, objecter que la physique s’intéressent davantage aux équations de Newton, qu’à la position de Jupiter lundi prochain. Il n’en reste pas moins que le but ultime de la physique est de produire des propositions sur la nature, et non sur les équations différentielles. Et que c’est ce ce but ultime qui définit la nature de la physique. De même, le but ultime de l’informatique est de transformer des informations, non de produire des résultats sur les algorithmes, les langages ou les machines. Et c’est ce but ultime qui définit la nature de l’informatique.

    Ainsi, s’interroger sur la nature de l’objet d’étude de l’informatique, c’est s’interroger sur la nature des informations, et non sur celle des langages, des machines ou des algorithmes. Les informations sont des objets abstraits et le jugement que le résultat du tri de la liste 5,1,3 est la liste 1,3,5 est analytique.

    Du point de vue des objets qu’elle étudie, l’informatique se place donc parmi les sciences analytiques, à coté des mathématiques.

    La méthode de l’informatique

    Il est possible de juger que le résultat du tri de la liste 5,1,3 est la liste 1,3,5 par une simple opération mentale. Ce jugement peut être alors qualifié de jugement a priori. Toutefois, le calcul mental n’appartient pas à l’informatique, car ce qui définit l’informatique n’est pas la simple application d’un algorithme à des informations, mais l’utilisation d’une machine, c’est-à-dire d’un système physique, pour cela.

    Juger que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 ne demande pas une simple opération mentale, mais tout d’abord une observation : le résultat du calcul est une configuration d’un système physique, que nous devons observer. Ce lien à la nature est essentiel en informatique : la possibilité ou non d’effectuer certains calculs avec une machine est conditionnée par les lois de la physique : que la vitesse de transmission de l’information cesse d’être bornée, et certaines fonctions impossibles à calculer avec une machine dans notre monde, pourraient alors être calculées.

    Le jugement que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 est donc un jugement a posteriori. Et du point de vue méthodologique, l’informatique appartient donc aux sciences a posteriori, à coté des sciences de la nature.

    Nous pourrions, bien entendu, objecter que, si le jugement que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 est a posteriori, d’autres jugements, en informatique, sont a priori. Par exemple le jugement que l’algorithme de tri par insertion est quadratique. De même, en physique, le jugement que les trajectoires solutions de l’équation de Newton sont des coniques est un jugement a priori. Toutefois cela ne fait pas de la physique une science a priori, car, comme nous l’avons dit, le but ultime de la physique n’est pas de produire des propositions sur les solutions des équations différentielles, mais sur la nature. De même l’existence de jugements a priori en informatique ne fait pas de l’informatique une science a priori, car le but ultime de l’informatique n’est pas de produire des propositions sur la complexité des algorithmes de tri, mais d’utiliser des machines, des systèmes physiques, pour exécuter ces algorithmes.


    tympan
    Cathédrale de Chartres. Sont figurées les disciplines enseignées à l’Ecole de Chartres, celles du trivium (la grammaire, la rhétorique, la logique) et celles du quadrivium (l’arithmétique, la géométrie, la musique, l’astronomie) (Wikipédia)

    L’informatique

    Nous arrivons donc à la conclusion que l’informatique est une science à la fois analytique, ce qui la rapproche des mathématiques, et à posteriori, ce qui la rapproche des sciences de la nature.

    Aux deux catégories, sciences analytiques à priori et synthétiques à posteriori, il convient donc d’en ajouter une troisième pour les sciences analytiques à posteriori, catégorie à laquelle l’informatique appartient.

    Les classifications traditionnelles de l’informatique

    De nombreuses Universités regroupent les mathématiques et l’informatique dans une Unité de Formation et de Recherche de mathématiques et informatique. À l’inverse, l’organisation du Centre National de la Recherche Scientifique faisait de l’informatique une partie de la physique, puisque la section 7, Sciences et technologies de l’information (informatique, automatique, signal et communication), était classée entre la section Matière condensée : structures et propriétés électroniques et la section Micro et nano-technologies, électronique, photonique, électromagnétisme, énergie électrique.

    Apparaissent ici deux visions partielles de l’informatique, comme science analytique, à l’instar des mathématiques, et science a posteriori, à l’instar des sciences de la nature, qui, l’une et l’autre, occultent la spécificité de l’informatique, à la fois analytique et a posteriori, et donc différente à la fois des mathématiques et des sciences de la nature. Ces deux visions amputent, l’une et l’autre, l’informatique pour la faire entrer dans une classification qui lui est antérieure.

    L’informatique est-elle la seule science analytique à posteriori ?

    Avant de nous demander si l’informatique est la seule science de sa catégorie ou s’il y a de nombreuses sciences analytiques à posteriori, nous pouvons nous poser la même question pour les deux autres catégories évoquées ci-avant. Les mathématiques nous semblent bien être la seule science analytique a priori, alors que les sciences synthétiques a posteriori sont nombreuses : physique, biologie, etc.

    Toutefois, cette différence semble purement conventionnelle. Nous aurions pu, comme Boèce, distinguer l’arithmétique de la géométrie, ou alors regrouper les sciences de la nature en une seule science : la philosophie naturelle.

    Nous pouvons, de même, diviser l’informatique en diverses branches qui étudient les langages de programmation, les réseaux, la complexité des algorithmes, l’architecture de machines, la sûreté, la sécurité, etc. Et considérer ces branches comme des sciences distinctes ou comme les rameaux d’une même science est purement conventionnel.

    De même, quand nous utilisons une machine analogique, ou même une soufflerie, pour résoudre une équation différentielle, nous produisons des connaissances analytique a posteriori. Et qu’un tel résultat soit considéré comme faisant partie de l’informatique ou non est purement conventionnel.

    Une relativisation de la distinction entre à priori et à posteriori

    L’informatique demande donc d’étendre la classification des sciences pour faire une place aux sciences analytiques à posteriori. Mais elle déstabilise également les classifications traditionnelles des sciences de deux manières.

    D’abord elle mène à relativiser la distinction entre connaissances à priori et connaissance à posteriori. L’externalisation de la pensée et de la mémoire qui a commencé avec l’écriture et qui s’est accélérée avec l’informatique, l’utopie du transhumanisme, l’exploration et la simulation des mécanismes neuronaux, la perception de soi-même comme autre, et plus généralement tout ce qui nous mène à nous penser, non comme extérieurs à la nature, mais comme partie de la nature, nous mène à relativiser la différence entre à priori et a posteriori.

    Nous considérons comme a priori un jugement établi par le seul recours du calcul mental, et comme a posteriori un jugement établi avec un objet matériel comme une calculatrice. Mais si nous parvenions à greffer à notre cerveau un circuit électronique permettant de faire des opérations arithmétiques, devrions nous considérer comme a priori ou a posteriori un jugement établi en ayant recours à ce dispositif ?

    Cette distinction entre jugement a priori établi par un calcul mental et a posteriori établi par recours à une calculatrice est-elle due au fait que nos neurones sont à l’intérieur de notre boîte crânienne, alors que la calculatrice en est à l’extérieur ? qu’ils sont formé de carbone, d’oxygène et d’hydrogène, et non de silicium? ou que pour lire le résultat du calcul nous avons besoin d’utiliser un organe sensoriel dans un cas mais non dans l’autre ?

    Donc, parce qu’elle renouvelle les méthodes permettant de juger une proposition vraie, l’informatique déstabilise la distinction entre connaissance a priori et connaissance a posteriori. Nous devons sans doute inventer des distinctions plus fines que la simple distinction entre a priori et a posteriori, qui prennent en compte la variété des outils qui permettent de juger la vérité d’une proposition : neurones, organes sensoriels, instruments de mesure, instruments de calculs, etc. en insistant à la fois sur le caractère faillible de chacun d’eux et sur leur complémentarité.

    La place de la technique en informatique

    Comme le mot « chimie », et contrairement au mot « physique », le mot « informatique » désigne à la fois une science et une technique, c’est-à-dire une activité qui vise à savoir et une autre qui vise à construire. Cependant, les liens entre ces deux activités semblent beaucoup plus forts en informatique que dans d’autres domaines du savoir. Par exemple, des branches entières de l’algorithmique, sont apparues pour répondre à des problèmes posés par le déploiement des réseaux.

    Cependant, il est vraisemblable que les sciences et les techniques aient des liens forts dans tous les domaines et que notre perception de cette séparation soit une illusion. Par exemple au XIXe siècle encore, le texte fondateur de la thermodynamique s’intitulait Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance. Sadi Carnot n’opposait donc pas la thermodynamique à la construction de machines à vapeur. L’informatique nous rappelle la force de ce lien entre science et technique et nous mène à nous demander si nous devrions chercher à classer les sciences uniquement ou les sciences et les techniques ensemble.

    Ainsi, l’informatique nous demande-t-elle non seulement d’étendre la classification des sciences pour faire une place aux sciences analytiques a posteriori, mais elle déstabilise aussi la distinction habituelle entre a priori et a posteriori, et les classifications habituelles qui ne classent que les sciences et non, ensemble, les sciences et les techniques.

    Gilles Dowek

  • Athéna, Héphaïstos et la robotique (2)

    Suite de l’entretien avec Jean-Paul Laumond

    DANSE-HRP2.2Le robot humanoïde HRP2 danse avec le chorégraphe et danseur Tayeb Benamara au festival La Novela de Toulouse en 2011. Crédit Photo C. Stasse

    B : Cette tension nous conduit au rôle que, dans ta leçon inaugurale au Collège de France, tu fais jouer à Héphaïstos. Peux-tu nous rappeler le mythe auquel tu t’es référé ?

    JPL : Dans la mythologie grecque, Héphaïstos est le dieu forgeron. C’est le dieu du faire, de la technologie, le dieu naturel du roboticien. Mais si j’ai utilisé cette référence, c’est surtout pour un épisode de sa vie amoureuse et de sa relation avec Athéna. C’est une histoire rapportée par Apollodore, un journaliste du deuxième siècle après Jésus-Christ. Un jour Athéna, la magnifique déesse de la sagesse et de la connaissance, commande des armes à Héphaïstos. Après quelque temps, elle vient voir où il en est. Héphaïstos tente alors de la séduire. Mais pas de manière symbolique ! Athéna le repousse, et il éjacule en l’air. L’éjaculât tombe sur la cuisse d’Athéna. Dégoûtée, Athéna s’essuie avec un morceau de laine. Le sperme tombe à terre, et la féconde. Il en naît Érichtonios, un des premiers rois d’Athènes. Héphaïstos ne parvient pas à posséder Athéna, mais sa tentative n’est pas tout à fait stérile. Cette histoire illustre assez bien la fertilité de la tension entre science et technologie.

    B : Je voudrais aborder la question de l’imitation. Il y a des informaticiens qui cherchent à ce que les ordinateurs, les robots, imitent les hommes. Et d’autres non. Par exemple quand on conçoit un algorithme d’inversion de matrices, on ne cherche pas nécessairement à ce que cet algorithme reproduise la manière dont nous inversons une matrice à la main. Quel rôle ce thème de l’imitation joue-t-il dans ta vision de la robotique et de l’informatique. Y a-t-il selon toi un intérêt à faire peindre des voitures par un robot humanoïde ?

    JPL : Non, je n’en vois pas l’intérêt. On a trouvé des solutions beaucoup plus simples et économiques. Le biomimétisme ne peut pas être une fin en soi. Il serait idiot de priver un robot d’un laser omnidirectionnel, même si aucun être vivant ne possède ce type de capteur. En revanche, il y a bien une dualité fructueuse entre comprendre comment les êtres vivants ont résolu un certain nombre de questions pour gérer leurs rapports avec le monde physique, et étudier comment une machine peut entretenir des rapports analogues avec son environnement pour remplir une fonction donnée. Je vais prendre un exemple issu de mes travaux actuels. Les robots humanoïdes marchent aujourd’hui en s’appuyant sur le contrôle du point de pression qui doit se situer dans l’enveloppe convexe des pieds sur le sol. Ce point de pression est observé par deux capteurs de force situés sur les chevilles du robot. Or, le neurophysiologiste nous apprend que le processus régulateur de la locomotion repose sur une référence à la verticale observée par une coopération subtile entre le système vestibulaire et la vision. Il y a là deux approches radicalement différentes. La comparaison entre ces deux approches permet de sélectionner celle qui est la plus performante. Le dialogue entre le roboticien et le chercheur en sciences du vivant ne peut être que stimulant. Seulement il faut prendre garde à ne pas confondre leurs missions respectives. J’aime rappeler que le roboticien est condamné à « faire » et le chercheur à « comprendre » et à tendre au général. Il n’est pas sûr que comprendre permette de faire, de la même manière qu’il n’est pas certain que faire aide à comprendre. On peut considérer toutes les combinatoires entre faire et comprendre, on trouvera toujours des exemples et des contre-exemples. Par exemple, les progrès dans le traitement du signal ont permis de mettre au point des machines permettant d’explorer le corps humain en donnant à voir ce qui était complètement invisible. Réciproquement, maîtriser les lois de la dynamique des fluides permet d’optimiser la forme de la coque des bateaux. Mais il y a aussi des contre-exemples qui montrent qu’il ne faut pas confondre faire et comprendre. Et je vais prendre un exemple qui va vous intéresser puisqu’il concerne l’algorithmique. Il y a en robotique un problème emblématique, celui du déménageur de piano : il s’agit de déplacer un objet pour l’amener d’un endroit à un autre dans un espace encombré d’obstacles. Le problème est parfaitement formalisé. Il est décidable. C’est une simple conséquence du théorème de Tarski sur la décidabilité de l’algèbre élémentaire. On peut donc le résoudre sur un ordinateur. Très bien. Il reste à trouver un algorithme et à analyser sa complexité. Un premier algorithme paraît en 1983, doublement exponentiel. Il est prouvé en parallèle que le problème est NP-difficile. Quelques années plus tard, un autre algorithme, simplement exponentiel, est publié. Son implémentation en calcul formel ne marche pas en pratique : trop d’équations et des degrés trop élevés. Puis dans les années quatre-vingt-dix, apparaissent des méthodes dites probabilistes. Elles font appel à des descentes de gradients qui optimisent localement un coût de progression vers le but, et elles les couplent avec des marches aléatoires lorsque les premières stagnent dans un minimum local. Conceptuellement, ces méthodes sont beaucoup moins puissantes que les précédentes : s’il y a une solution et qu’on dispose d’un temps infini, on en trouve une presque sûrement. En revanche, s’il n’y a pas de solution, on ne peut rien dire. Alors que les méthodes algébriques sont complètes, les méthodes probabilistes sont seulement complètes en probabilité. Conceptuellement, les méthodes probabilistes sont très simples, pour ne pas dire simplistes. Leur valeur vient du fait qu’elles résolvent en quelques minutes des problèmes trop difficiles pour les méthodes antérieures. Mais il faut bien comprendre que leur valeur dépend de la rapidité des processeurs. Elles n’auraient pas pu être publiées dans les années soixante ou soixante-dix, car les processeurs de l’époque auraient pris un temps de calcul rédhibitoire. C’est ce que j’appelle des méthodes immorales. Il n’est pas difficile de les mettre en échec en créant une instance des données d’entrée avec un puits de potentiel très profond, duquel une marche aléatoire a peu de chances de sortir en une nuit de calcul. Seulement il faut se creuser la tête pour trouver ce type de contre-exemple.

    B : Et dans les cas concrets, il marche bien ou il s’égare dans un puits de potentiel ?

    JPL : Voilà, on est au cœur du problème. Pourquoi conçoit-on ces algorithmes ? Pour comprendre ou pour faire ? Si c’est pour comprendre, cet algorithme ne sert pas à grand-chose. Si c’est pour faire, il est formidable, et j’ai même créé une société pour les vendre et les exploiter dans le domaine du prototypage virtuel. En effet, les contre-exemples tordus ne se présentent pas dans les problèmes de CAO. Une anecdote illustre ce point. Nous voulions vendre notre logiciel à une grande entreprise. Notre solution est d’abord expertisée dans les laboratoires de recherche de cette entreprise, et bien sûr, un contre-exemple est trouvé. Heureusement, en parallèle, nous avions démarché les opérationnels : eux étaient très satisfaits du produit. S’en est suivie une réunion tripartie entre les chercheurs et les opérationnels de cette entreprise, et nous, jeune entreprise. Tout le dialogue s’est passé entre eux : le laboratoire de recherche rejetait notre solution qui était incomplète, tandis que les opérationnels voulaient l’adopter parce qu’elle résolvait le problème qui était le leur, et que les contre-exemples identifiés ne correspondaient en rien à leur pratique.

    B : Je veux rebondir parce que ça rejoint complètement des expériences que j’ai et un questionnement. Les puissances de calcul vont croissantes avec l’évolution du matériel. On a un problème, et on cherche une méthode en adéquation avec ces performances. On trouve un algorithme et cet algorithme est d’une certaine façon, comme tu as dit (et j’aime bien le mot), « immoral ». Ce que j’aimerais savoir c’est s’il est par essence immoral ou si c’est uniquement parce que notre connaissance aujourd’hui nous empêche de comprendre les conditions dans lesquelles cet algorithme fonctionne. Est-ce qu’il y aurait une science qui nous permettrait d’expliquer de façon propre, de façon mathématique, pourquoi ça marche, quand ça marche et quand ça ne marche pas ? Et pas juste expérimentalement…

    JPL : Ta question contient la réponse. En général l’algorithme marche très bien. Mais comprendre pourquoi cela marche si bien est un problème très difficile qui porte un vrai défi scientifique. Au début des années quatre-vingt-dix, j’avais lancé une thèse sur le sujet. Rapidement des modèles de physique statistique se sont imposés comme modélisant très bien le comportement de nos algorithmes. Au bout d’un an, j’ai été faire un exposé dans un laboratoire de physique statistique. Les collègues m’ont dit : « On ne pensait pas que les roboticiens s’intéressaient à ces problèmes ! Si vous voulez vraiment les résoudre, c’est-à-dire comprendre pourquoi vos algorithmes marchent si bien, et par exemple calculer leur comportement en moyenne en fonction d’une classe de données d’entrée, vous êtes le bienvenu pour conduire votre recherche dans notre laboratoire. Mais il ne faut pas croire que vous pourrez faire en même temps de la robotique… ». En conséquence de quoi j’ai arrêté cette ligne de recherche, extrêmement bien identifiée, mais qui sort du champ de la robotique.

    HRP2-8.2Le robot humanoïde HRP-2 ramassant une balle.
    Crédit photo S. Dalibard, (c) LAAS-CNRS

    B : Mais quel est ton sentiment ? Penses-tu qu’on puisse parvenir à bien comprendre le comportement de ces méthodes ? Il y a un petit nombre de cas où on sait le faire. Il y a par exemple des algorithmes probabilistes pour factoriser des entiers. Et il y a clairement des cas où le problème est soit indécidable, soit d’une complexité tellement élevée qu’on ne sait pas faire.

    JPL: Je crois qu’on doit pouvoir atteindre des résultats partiels. Par exemple, il serait intéressant d’équiper d’une mesure l’espace des entrées de l’algorithme, et de prouver que l’ensemble des problèmes non résolubles en temps borné est de mesure nulle. Ce serait un joli résultat formel. Il me semble atteignable. Ensuite, pour revenir à la robotique, on pourrait se poser la même question sur la classe des problèmes qu’on cherche à résoudre dans le monde réel.

    B : Pour cet exemple, tu es parti du problème du déménageur de piano en robotique. Mais la problématique de recherche que tu évoques se retrouve dans d’autres pans de l’informatique.

    JPL : Certainement. Cela étant, je voudrais souligner un effet pervers de ces algorithmes du point de vue de l’enseignement. Sur les trente heures de mon cours sur la planification de mouvement en robotique, je ne consacre qu’une demi-heure aux méthodes probabilistes. Pourquoi ? Parce que je n’ai rien à dire de plus sur le plan formel. J’exagère un peu, et je ne veux pas dénigrer les travaux dans ce domaine, d’autant qu’il s’est développé toute une ingénierie de ces méthodes-là. Mais du point de vue de la connaissance générale, il n’y a pas plus que ce que nous en avons dit dans cette conversation. Je préfère insister sur le fait qu’elles doivent être utilisées avec parcimonie. Elles ne doivent pas se substituer à l’analyse des problèmes au simple prétexte qu’elles marchent. Nous arrivons à des situations où, face à un problème particulier, on ne se pose même plus la question fondamentale de sa décidabilité, on passe tout de suite à sa résolution ! Il en va de même dans d’autres domaines du numérique. Il règne par exemple une certaine confusion entre des notions telles que « mouvement optimal » et « mouvement optimisé » (tu peux remplacer « mouvement » par « solution », mon développement tiendra). Je me rappelle un article que j’avais soumis au début des années quatre-vingt-dix dans une conférence. C’était le premier algorithme qui garait une voiture de manière générique. L’article a été rejeté du fait que la solution proposée n’était pas optimale. Or, il est connu qu’il n’y a pas de solution optimale ! L’article n’est donc pas passé par la case conférence. Il a été publié directement dans une revue quelques semaines plus tard. Très souvent, ce défaut d’analyse conduit à des abus de langage. On raffine une solution avec un algorithme numérique d’optimisation et on conclut à l’optimalité du résultat.

    B : Tu peux quand même dire que ton algorithme prend une solution et calcule une solution meilleure ?

    JPL : Meilleure, c’est la moindre des choses quand même ! Mais pas optimale. Tout à l’heure, je disais que ma découverte de l’informatique a été celle de l’impératif de construction d’objets dont les mathématiques avaient prouvé l’existence. Reste à ne pas tomber dans le paradoxe de construire des objets dont on ne sait même pas s’ils existent !

    B : Cet angle-là est passionnant. Pourrais-tu nous en dire plus parce que, par exemple dans le rapport sur l’enseignement de l’informatique que nous t’avons passé, certains nous accusent d’être allés trop loin vers les mathématiques, d’autres trop loin vers la technique ; et là tu te situes véritablement dans le cœur du sujet, c’est-à-dire que tu refuses quelque chose qui serait complètement mathématique s’il n’y a pas de construction.

    JPL : Athéna seule, sans Héphaïstos.

    B : Et tu refuses quelque chose qui serait purement constructif, dans lequel on n’essaye même pas de comprendre ce qu’on fait.

    JPL : Héphaïstos seul, sans Athéna.

    B : Mais encore… C’est un compromis qu’on fait en permanence, non ?

    JPL : Résoudre le compromis, ce serait faire en sorte qu’Héphaïstos puisse réellement, en toute quiétude, en tout bonheur, épouser Athéna.

    B : Tu parles d’épouser ou de connaître au sens biblique du terme ?

    JPL : Je me réfère effectivement à la connaissance au sens biblique du terme, à l’idée de possession. Et ce n’est pas une pirouette. Je pense qu’il ne faut pas résoudre cette tension. Il ne faut pas chercher à la résoudre, d’abord parce que je pense qu’elle est insoluble. C’est une intuition, il faudrait appeler des philosophes des sciences autour de la table. Mais surtout, je pense que cette tension est à l’origine de la passion commune qui fait que nous sommes ensemble autour de cette table. Le moteur de cette passion réside dans cette tension. C’est cette espèce d’écartèlement entre des prétentions à une connaissance universelle, à une science qui est mouvante, qui n’est pas encore stabilisée, et un devoir de faire — un devoir d’action — qui ne s’impose pas dans d’autres sciences. Dans les autres sciences, normalement, il n’y a qu’un devoir de production de connaissances. Je force sciemment le trait, la réalité est bien sûr plus nuancée.

    B : Ça c’est une vision très récente de la science. Encore au XIXe Siècle, Quand on faisait de la thermodynamique, il y avait un but qui était de faire des machines à vapeur. On ne faisait pas de la thermodynamique pour le bonheur de faire de la thermodynamique exclusivement.

    JPL : Bien sûr. Et le XXe siècle finissant a inventé le cadran Pasteur pour rationaliser la gestion de la recherche. Disons que mon propos est d’insister sur certains aspects fondamentaux de nos recherches, pour relaxer quelque peu l’impératif des impacts sociétaux auxquels nous sommes soumis. Il s’agit seulement de rappeler que nombre d’exemples pullulent de résultats de recherches dont on ne savait pas sur quoi ils allaient déboucher en pratique au moment où ils étaient produits.

    B : La posture qui consiste à dire : « Je suis un savant, je m’intéresse à Athéna et pas à Héphaïstos » est relativement récente. Jusqu’au milieu du XIXe siècle, c’était un peu le même métier qui à certaines occasions était plus Athéna, à d’autres était plus Héphaïstos. La distinction sociale et la posture du savant pur sont récentes. Avec l’informatique, on est à redécouvrir ce qu’était un savant à l’époque de Torricelli, où Torricelli à la fois s’intéressait à des questions de fabrication de fontaine, et d’ailleurs ça lui a donné pas mal d’intuitions sur la notion de pression, mais également à comprendre la physique.

    JPL : C’est tant mieux. Et je suis persuadé que Torricelli vivait la même tension. Pour insister une dernière fois, je suis persuadé que cette tension a une origine épistémique profonde liée au concept d’action. L’action est impérative. Elle te force à faire des choix. Je vais prendre un exemple de la vie quotidienne. Tu dois garer ta voiture sur une place de parking un peu étroite. Tu essaies, tu n’y parviens pas, tu vas en chercher une autre. Tu ne sauras jamais si se garer à cet emplacement était possible ou non, alors même que nous avons des modèles formels prouvant la décidabilité de la question. Tu n’en as cure. Effectivement, le principe d’action porte en lui un principe de négligence. Convenons que ce principe de négligence est coupable dans le domaine de la recherche.

    Informaticien, mathématicien, roboticien ?

    JPL : Est-ce que toi, Jean-Paul Laumond, tu te considères comme un informaticien ?

    Jan-Paul Laumond : Non.

    B : Comme un mathématicien ?

    JPL : Non, ce n’est parce que j’ai eu une formation en mathématiques, ou que j’utilise des mathématiques dans mes travaux que je suis un mathématicien. Je n’ai pas produit d’abstraction nouvelle, ni prouvé de nouveaux théorèmes. J’ai fait quelques travaux en algorithmique, donné par exemple une condition linéaire et suffisante (mais malheureusement pas nécessaire) d’hamiltonicité pour un graphe planaire…

    B : On ne peut pas faire plus informatique que ça ! Donc, nous te revendiquons comme informaticien !

    JPL : Eh bien, très bien ! Je suis très heureux d’appartenir au club. Mais je préfère me définir comme un roboticien, car ce qui m’intéresse c’est le rapport que peut entretenir la machine avec le monde physique, pas seulement le traitement de l’information. Il y a bien sûr de l’informatique en robotique, mais aussi des mathématiques qui ne sont pas de l’informatique. Et puisque maintenant je suis un informaticien, dois-je aussi me considérer comme un automaticien et un traiteur du signal ? À moins que ces disciplines ne fassent partie de l’informatique, comme l’a suggéré la récente réorganisation des instituts au CNRS.

    Par ailleurs, je ne veux pas préjuger du futur de la robotique. On assiste aujourd’hui à un développement des liens entre la robotique et les neurosciences. Je crois en ces liens. Certes, les modèles qui autorisent le dialogue restent « calculatoires » au sens de l’informatique. Mais la robotique ne se réduit pas au calcul. Elle dépend aussi de la physique et de la conception de nouveaux matériaux. Un collègue de Pise vient de mettre au point une nouvelle main articulée. Elle est souple, tu peux la frapper avec un marteau, lui tordre les doigts. Elle intègre un nouveau moteur qui permet de programmer des modes de contrôle agonistes et antagonistes, suivant les mêmes principes de synergie motrice qu’on trouve en biomécanique. Ces nouveaux moteurs posent de nouveaux problèmes d’automatique. C’est pourquoi, quand tu me demandes si je suis informaticien, je préfère te répondre que je suis roboticien. La robotique est une discipline qui n’a que cinquante ans, beaucoup plus jeune que l’informatique. Il va falloir encore quelques années avant qu’elle soit reconnue autrement que comme une discipline d’intégration de disciplines diverses.

  • Athéna, Héphaïstos et la robotique (1)

     

    Entretien avec Jean-Paul Laumond

    laumond.2

    réalisé par Serge Abiteboul et Gilles Dowek

    Jean-Paul Laumond est directeur de recherche au LAAS-CNRS à Toulouse. Il a occupé une Chaire du Collège de France de 2011 à 2012, « Robotique : champs scientifiques et diffusions technologiques ». Il raconte son parcours et sa découverte de la robotique. Il montre les liens et les tensions entre la démarche scientifique, où la généralité des solutions prime, et la démarche technique, où toutes les solutions sont bonnes. Il nous montre comment la conquête de l’autonomie s’accompagne de l’émergence de description abstraite des tâches effectuées par le robot : des signes. Il évoque enfin la similarité des problèmes en robotique et en neurophysiologie. La robotique, territoire en pleine mutation, est aussi un lieu privilégié pour interroger les liens de l’informatique avec les mathématiques, la physique et la mécanique. La richesse de l’informatique, sa beauté, est aussi dans dans la complexité de ces rapports avec les autres sciences.

    Serge Abiteboul, directeur de Recherche à Inria, à l’ENS Cachan, membre du Conseil national du numérique et du Conseil scientifique de la SIF.
    Gilles Dowek chercheur à Inria dans l’équipe Deducteam et dans le Mooc Lab, membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene (CERNA), et du Conseil scientifique de la SIF.

    Binaire : Comment es-tu devenu chercheur en robotique ?

    Jean-Paul Laumond : Mon histoire est révélatrice de la manière dont la recherche en robotique s’est construite. À la fin des années soixante-dix, elle en était à ses débuts et réunissait des étudiants et des chercheurs d’horizons divers. J’ai fait les classes préparatoires, mais je n’avais pas envie d’être ingénieur. De fait, je ne comprenais pas ce que recouvrait le terme, et j’étais attiré par des formes de connaissance que je supposais plus abstraites. J’ai fait des mathématiques, sans être suffisamment bon pour décrocher une école normale. J’ai donc passé une maîtrise, puis le Capes, et j’ai enseigné quelques années. Mais, même si je garde de très bons souvenirs de cette époque, je n’étais pas pleinement satisfait par le métier. Il s’agissait de transmettre, mais pas d’apprendre et encore moins de créer. J’avais, à cette époque, des amis qui, eux, avaient fait une école d’ingénieur et qui m’ont fait découvrir un nouveau mot : la robotique. J’ignorais totalement ce que c’était. Une équipe de recherche était en train de se monter au LAAS sur ce thème. C’est à ce moment-là que je provoque une rencontre décisive : Georges Giralt accepte de recevoir un jeune professeur de mathématique désireux de pénétrer le monde de la recherche. Sur ses conseils, je décide de faire un DEA, puis une thèse, tout en poursuivant mon activité d’enseignant. Parmi les cours que j’ai alors suivis dans le cadre de mon DEA, il y avait un cours d’analyse d’algorithmes. Pour mon stage, je devais analyser un algorithme de Hopcroft et Tarjan sur la décomposition de graphes en composantes 3-connexes. J’ai eu beaucoup de difficultés, et c’est seulement des années plus tard que j’ai compris qu’il y avait de quoi ! C’est un algorithme assez difficile. C’est en lisant cet article que j’ai vu pour la première fois l’instruction « i := i + 1 » écrite en Algol libre. Pour moi les deux points étaient une erreur de typographie et je lisais « i = i + 1 ». Je ne comprenais pas, c’était absurde. J’ai l’air de caricaturer, mais, à cette époque, un étudiant en mathématique pouvait faire tout son cursus sans rencontrer d’algorithmes, ni cette notion étrange « d’affectation de variable ». C’était, par rapport à la formation générale d’un professeur de mathématique, une véritable révolution galiléenne qui se produisait dans ma tête. Pour moi, la découverte de l’informatique a été cette introduction du temps, base de toute construction. Et cela a commencé à me plaire. Je me suis ensuite intéressé au dessin de graphes sur une surface. Il y avait un théorème (le théorème de Fary) qui disait que tout graphe planaire pouvait se représenter par des segments de droites, sur une surface plane. Il y avait ce théorème d’existence, mais pas d’algorithme. Là j’ai senti s’ouvrir un champ de connaissance que je ne soupçonnais pas : l’informatique consistait à construire des objets dont les mathématiques avaient prouvé l’existence ! C’est une manière de voir l’informatique que j’ai gardée tout au long de ma carrière.

    HILARE.2Le robot Hilare a été un des tout premiers robots mobiles autonomes développé au LAAS-CNRS à la fin des années 1970. On peut le voir maintenant au Musée des Arts et Métiers de Paris. Crédit : Photo Matthieu Herrb (c) LAAS-CNRS

    B : Donc tu as commencé ta carrière de chercheur en faisant de la théorie algorithmique des graphes. Comment es-tu passé à la robotique ?

    JPL : En fait, si Malik Gallab (mon directeur de thèse) m’avait orienté vers la théorie des graphes, c’était dans le cadre des travaux précurseurs de Georges Giralt sur l’autonomie des machines : la robotique avait, dès cette époque, l’ambition de doter les machines physiques d’autonomie de comportement. Pour cela il fallait qu’elles comprennent l’univers dans lequel elles évoluaient. On partait de l’idée qu’il fallait doter les machines d’organes de perception leur permettant de dresser une carte géométrique de leur environnement, par exemple de l’appartement dans lequel elles étaient. Mais comment comprendre cette carte, comment dire : ceci est une pièce, ceci est une porte ? L’idée a été de trianguler l’espace et d’abstraire cette carte géométrique sous la forme d’un graphe. Dans un graphe, une porte c’est un point qui, si on le supprime, déconnecte la pièce dans laquelle la porte permet d’entrer : c’est un nœud d’articulation dans le graphe. D’où l’approche, que l’on doit à Malik Gallab, de décomposer le graphe pour faire émerger la structure du lieu. L’idée qui nous animait, à l’époque, et qui va être au cœur de mes travaux ultérieurs, était de traiter la puissance du continu de l’espace par des structures de données combinatoires. Le titre de ma thèse était « Utilisation de graphes planaires pour l’apprentissage de la structure de l’espace d’évolution d’un robot mobile ». C’était les débuts de l’apprentissage automatique. La robotique autonome était dominée par l’idée d’appliquer des techniques issues de l’intelligence artificielle. D’un côté, on avait la robotique industrielle représentée par exemple par tous les travaux sur la téléopération conduits au commissariat à l’énergie atomique. C’est elle qui a donné la robotique chirurgicale. D’un autre coté, il y avait cette ambition de la robotique autonome, qui venait des chercheurs en intelligence artificielle, principalement du Stanford Research Institute, qui voyaient dans les robots une concrétisation de systèmes d’intelligence artificielle. De ce point de vue la robotique était une partie de l’intelligence artificielle, et donc de l’informatique pure si on peut dire. C’est un point de vue que j’ai pu être amené à critiquer par la suite, mais à cette époque, c’était la vision qui prédominait. Au travers de ma thèse, l’idée émergeait que la logique des prédicats n’était pas le seul outil permettant de concevoir des machines intelligentes, et qu’il fallait traiter aussi symboliquement d’autres champs de la connaissance, en particulier la géométrie. À la fin des années quatre-vingt, j’établis un pont entre la géométrie algorithmique et la géométrie algébrique réelle (c’est-à-dire des géométries de structures statiques), et la géométrie différentielle qui introduit la notion du temps avec ses dérivées : il s’agissait de garer une voiture. Or le mouvement de roulement sans glissement est une liaison différentielle non intégrable. La robotique autonome convoquait les notions de distributions non intégrables et de crochets de Lie de champs de vecteurs ! Cette passerelle entre géométrie différentielle et géométrie algorithmique posait des problèmes tout à fait originaux et, ce qui est intéressant de noter, des problèmes nouveaux pour les mathématiciens eux-mêmes. En effet la robotique exigeait des algorithmes, là où les mathématiciens ne voyaient que des problèmes d’existence. En 1987, un grand colloque, intitulé « Mathématiques à venir », s’est tenu à l’École polytechnique. J’y étais invité à exposer mes travaux dans une session qui s’appelait non pas « mathématiques appliquées », mais plus subtilement « applications des mathématiques pures ». Les questions que l’on se posait à l’époque, et que l’on se pose toujours, étaient des questions de géométrie algébrique réelle et de géométrie sous-riemannienne. Des questions difficiles, en particulier parce que d’ordre combinatoire.

    « Des robots des chaînes de montage aux robots humanoïdes »

    B : Tu as évoqué la diversité des robots, avec d’un côté le bras robot des chaînes de montages automatisées, et de l’autre les robots qui cherchent l’autonomie, voire les robots humanoïdes. Est-ce qu’il existe, malgré tout, une unité de la robotique ? Ou la diversité des robots est-elle telle que les problèmes qui se posent n’ont rien à voir les uns avec les autres ?

    JPL : Mes travaux de recherche tendent à dégager une unité. La robotique se définit de manière synthétique comme l’étude des rapports que peut entretenir une machine avec le monde réel, une machine qui agit, et qui agit par le mouvement. Le mouvement est absolument central. Un robot est une machine qui bouge et qui est commandée par un ordinateur. Ce qui distingue le robot de l’automate, c’est qu’un robot n’est pas commandé par des cames, aussi subtiles soient-elles. Il y a une transformation, un traitement de l’information, qui met en rapport l’espace sensoriel et l’espace moteur. La fonction sensorimotrice — la rétroaction diraient les automaticiens — est fondamentale. Elle est d’ailleurs l’apanage du vivant : une laitue bouge et croît par photosynthèse ; un guépard repère sa proie et la poursuit en la maintenant dans son champ de vision. En robotique, cette boucle sensorimotrice est plus ou moins complexe : elle va de la simple fonction réflexe, où un signal produit directement une commande, à des architectures complexes, comme celles que j’évoquais plus tôt, qui incluent une modélisation et un raisonnement sur l’espace. Ce point de vue n’est bien sûr pas nouveau. Il a déjà été exploré, par exemple, par Poincaré qui établit une forme de triangulation entre l’espace physique, l’espace sensoriel et l’espace moteur. Nous, êtres humains, n’avons accès qu’à l’espace sensoriel et à l’espace moteur. Avec ces deux espaces nous devons reconstruire le réel. La géométrie est l’outil privilégié de cette construction. La question pour le roboticien est de conduire cette construction de manière effective, en utilisant un ordinateur. Ainsi posé, on sent bien poindre une unité.

    B : Pourquoi appelle-t-on un robot aspirateur « robot aspirateur » et non « aspirateur à roulette » ?

    JPL : Parce que le « robot aspirateur » a des capacités d’autonomie. Il est capable de s’adapter à des environnements pour lesquels il n’a pas été programmé explicitement. Il y a de nombreuses choses qui bougent dans nos maisons, mais vous n’avez jamais vu une machine à laver venir toute seule à coté de vous dans le salon. Je dois ici préciser la notion de mouvement. Il y a deux grands types de mouvements. D’un coté le mouvement d’une machine à laver qui tourne autour d’un axe fixe, d’une plante qui ne peut pas se déplacer, d’un robot-peintre sur une chaîne de montage automobile. Ces mouvements sont locaux, en quelque sorte, enracinés. Ils ne mettent en jeu que les variables internes du système. De l’autre, et c’est ce qui distingue l’animal du végétal, il y a les mouvements de déplacement : le guépard doit se déplacer pour se nourrir. Ce n’est pas le cas de la laitue. Pour le moment les seules machines qui bougent automatiquement dans notre quotidien sont sur des rails, horizontaux, comme les trains, verticaux, comme les ascenseurs… Mais qu’un robot se déplace, de manière autonome, c’est-à-dire sans que sa trajectoire ait été explicitement programmée, c’est nouveau. C’est en ce sens que les aspirateurs à roulettes que tu évoques sont bien des robots.

    B : Une voiture sans chauffeur ?

    JPL : Oui, c’est un robot.

    B : Et un avion de ligne, avec un pilote automatique ? Est-ce un robot ou un système embarqué ?

    JPL : On arrive aux limites de ma définition. Mais je vais essayer de défendre qu’un avion de ligne avec un pilote automatique n’est pas un robot. Pourquoi ? Parce qu’un pilote automatique conduit l’avion sur des rails. Ces rails sont virtuels ; ils sont constitués de points de passage obligés. Le pilote automatique consiste seulement à maintenir un cap entre ces points de navigation. Un pilote automatique ne peut pas être à l’origine d’un looping pour éviter un missile.

    B : Et les missiles justement ? Les drones ?

    JPL : Oui, ce sont des robots dans la mesure où ils ont une beaucoup plus grande capacité d’adaptation de leurs mouvements dans l’espace.

    LAMALe robot LAMA a été la plateforme de recherche du programme RISP de robotique d’exploration planétaire dans les années 1990.
    Crédit Photo Matthieu Herrb (c) LAAS-CNRS

    Pourquoi n’a-t-on pas encore de robots à la maison, comme dans les films ?

    B : Quels sont les verrous qui résistent ? Pourquoi n’a-t-on pas encore de robots à la maison, comme dans les films ?

    JPL : Les principaux succès de la robotique sont en robotique manufacturière : les robots des chaînes de montage, par exemple dans l’industrie automobile, ont profondément modifié les moyens de production. Avant de parler des robots à la maison, il faut noter que même dans le cas de la robotique manufacturière, il y a encore beaucoup de progrès à faire. Par exemple, assembler un ordinateur portable demande aux ouvriers plus de deux cents manipulations élémentaires de pièces diverses qu’il faut prendre, poser, retourner ou déplacer. Aujourd’hui, les chaînes de montage d’ordinateurs ou de téléphones ressemblent à s’y méprendre aux chaînes de montage de l’industrie manufacturière des années vingt. Il y a ici un énorme marché à conquérir pour la robotique. Il ne s’agit pas nécessairement de remplacer tous les opérateurs humains qui travaillent sur ces chaînes de montage, mais par exemple un sur deux. C’est la stratégie que met en place la société japonaise Kawada avec son robot HiroNX, composé de deux bras et d’une tête portant des caméras.

    B : Et pourquoi n’est-ce pas encore fait ?

    JPL : Parce que le problème de la sécurité n’est pas encore résolu. On ne peut pas s’approcher d’un robot qui fabrique une voiture, c’est trop dangereux. Le défi aujourd’hui est de concevoir un robot qui travaille avec des humains. Le problème est en voie de résolution grâce à l’introduction d’actionneurs flexibles qui permettent souplesse et sécurité dans les échanges d’énergie mécanique entre l’opérateur et la machine. On assiste à des démonstrations très impressionnantes : par exemple, au DLR en Allemagne, j’ai fait l’expérience d’arrêter instantanément avec ma main un bras manipulateur lancé à pleine vitesse. Le doctorant dont c’est le sujet de thèse l’arrête avec sa tête ! Ce type d’expérience s’appuie à la fois sur des progrès théoriques en automatique et sur des progrès technologiques en matière de calcul qui autorisent des temps de réponse extrêmement rapides. Cette question de la sécurité est essentielle dans le développement de la robotique de service. Si un robot vous accueille dans un supermarché pour vous guider vers le paquet de café que vous voulez acheter — au lieu de vous perdre dans le dédale des rayons — le robot va partager un espace avec vous et avec beaucoup d’autres personnes, et il ne faut pas qu’il mette ces personnes en danger.

    B : C’est donc cet impératif de sécurité qui fait que nous n’avons pas encore de robots autonomes autour de nous.

    JPL : La sécurité est un impératif critique. Ce n’est pas le seul. L’environnement d’un robot de service est beaucoup moins structuré que dans une usine. Un robot domestique devra être capable de s’adapter à un appartement ou à un autre (comme le font d’ores et déjà les robots aspirateurs). On ne veut pas programmer explicitement chaque robot individuellement. Il faut donc des robots avec un très haut degré d’autonomie, les degrés d’autonomie se définissant par les niveaux d’abstraction plus ou moins élevés de programmation.

    B : Et un tel robot — nous ne sommes pas ici pour éviter les questions — sera-t-il capable de simuler un comportement intelligent ? Quelles connections aujourd’hui entre la robotique autonome et l’intelligence artificielle ?

    JPL : J’aurais envie de dire que je ne sais pas ce qu’est l’intelligence artificielle. Mais c’est très difficile quand tu viens d’un groupe de recherche qui s’est longtemps appelé « Robotique et Intelligence Artificielle » ! On fait souvent référence, à juste titre, à l’analogie suivante. Si tu as un gamin qui joue très bien aux échecs, sa grand-mère va te dire « Qu’est-ce qu’il est intelligent, ton fils ! ». Mais, pour autant, on ne qualifie pas d’intelligent l’ordinateur qui bat le champion du monde aux échecs. Le terme « intelligence » est beaucoup trop connoté et, de ce fait, l’expression « intelligence artificielle » est souvent mal comprise, et inconsidérément utilisée vis-à-vis du grand public. Si on se réfère aux défis du fameux colloque de Dartmouth en 1956, on constate qu’il y a eu certes des grands progrès en matière de traitement symbolique de l’information, mais toujours pas de machine de traduction universelle comme cela avait été imprudemment annoncé. Et on peut se poser la question de la décidabilité du problème de traduction. Je ne parle pas de la traduction de bulletins météo (on y parvient d’ores et déjà), mais de la traduction qui consiste à rendre accessible « Ulysses » de Joyce aux lecteurs français. Est-ce vraiment du ressort de l’informatique ? La réponse ne me semble pas claire du tout.

    strip-hrp2Le robot humanoïde HRP2 sait comment saisir un objet au sol.
    Crédit photo S. Dalibard, (c) LAAS-CNRS

    B : Souvent, pour les être humains, on oppose intelligence et habileté manuelle. La robotique est-elle l’habileté manuelle artificielle ?

    JPL : Je suis assez d’accord avec cette vision. L’intelligence artificielle a toujours été abordée au niveau des fonctions cognitives visant des capacités de raisonnement et de prise de décision d’un haut niveau d’abstraction. On ne considère pas un mouvement réflexe comme un mouvement intelligent ou issu d’un processus intelligent. C’est une simple boucle de rétroaction combinant, au niveau du signal, une information sensorielle et une commande motrice. Le niveau d’abstraction est faible. Un thème de recherche passionnant est celui de l’émergence du symbole dans la représentation de l’action : à quel niveau faut-il le situer dans un processus dit « cognitif » qui a trait à la réalisation d’une tâche ? Prenons un exemple : la tâche « prendre un stylo » exprimée en langage naturel. Pour une machine, comme pour un être humain, réaliser cette tâche peut-être simple ou complexe. L’organe de la préhension est la main. Si le stylo est à portée, il me suffit de tendre le bras et de le saisir. Mais si le stylo est dans la pièce d’à côté, il faut que j’utilise mes jambes pour m’y rendre et donc faire appel à une fonction locomotrice, et peut-être même à un plan pour savoir par où passer. Si le stylo est à portée de main, je n’ai pas besoin d’utiliser mes jambes. En revanche, si le stylo est situé par terre entre mes pieds, je vais devoir me baisser, et donc utiliser mes jambes, sans pour autant faire appel à une fonction locomotrice. Les mouvements peuvent donc être très différents d’un cas à l’autre. Ils correspondent pourtant à une même tâche exprimée par seulement trois mots « Prends un stylo ». Comment ces trois mots, qui qualifient une même action et qui correspondent à un niveau élevé de programmation pour un robot humanoïde, vont-ils s’ancrer dans une architecture logicielle qui va combiner ou non une fonction locomotrice et une fonction de saisie ? Comment une simple fonction de saisie peut-elle être encorporée (« embodied » en anglais) dans le robot ? Quelle place donner au symbole ? Voilà des questions, spécifiques à la recherche en robotique, qui tendent à explorer les liens entre « intelligence » et « habileté manuelle » pour reprendre tes deux expressions.

    B : Cette remarque est très intéressante parce que, pour un non-initié, un robot dans un environnement humain effectue des tâches compliquées et interagit pour effectuer des tâches cognitives de plus en plus complexes. Or, tu viens de nous expliquer que, pour un robot seul dans une pièce, ramasser un objet est déjà, d’un point de vue cognitif, une tâche extrêmement complexe.

    JPL : Oui, et c’est aussi très compliqué pour un être humain : encore une fois, comment se fait-il qu’une tâche de saisie soit amenée à stimuler les muscles des jambes ? Par quel processus ? Ces questions que pose le roboticien sont les mêmes que celles que pose le neurophysiologiste. On arrive ici à des questions interdisciplinaires absolument passionnantes.

    B : Si on reprend l’exemple du stylo, on pourrait dire que tous les moyens sont bons, du moment qu’à la fin tu as le stylo en main. Donc un robot beaucoup plus simple — par exemple un treuil — conviendrait.

    JPL : Oui, mais ce qui intéresse le roboticien, c’est un robot un peu plus universel qu’un simple treuil automatisé. Si on doit faire une machine qui doit seulement ramasser des stylos, on fait une machine qui ramasse des stylos. Tu as raison. Et si cette machine ne peut pas monter un escalier, ce n’est pas grave, si on a juste besoin d’une machine à ramasser des stylos, sans exiger d’elle d’en chercher un qui se trouve à l’étage. Ta question illustre de fait la tension que vit le roboticien entre sa volonté de généralité — il n’y a de science que générale — et son devoir de fabriquer des robots qui répondent à une certaine fonction. Par exemple, quel est l’intérêt de fabriquer un robot humanoïde ? On peut en discuter. En revanche, ce que je sais en tant que chercheur, c’est que jamais on n’a eu autant de bonheur qu’en travaillant sur une machine aussi « générale » et complexe. Cette complexité est avant tout mécanique. Elle est rendue possible par les progrès de la mécatronique (miniaturisation des composants électroniques, des moteurs, des capteurs, etc.). Qu’il soit possible aujourd’hui de construire des machines anthropomorphes capables de marcher toutes seules, c’est assez magique. Coordonner leurs trente degrés de liberté — on est loin de nos six cent muscles — pour effectuer une tâche particulière, c’est un défi pour le chercheur. Après, que fera-t-on de ces robots humanoïdes ? C’est un autre débat.

    Suite de l’entretien à venir….

     

  • L’informatique : la science au cœur du numérique (5)

    Innovation et créativité

    Les mathématiques sont beauté, esthétique de l’absolu, du zéro et de l’infini. Elles définissent la pensée, posent des lois. Elles participent de la vérité. La physique et la chimie proposent des lectures de la nature, depuis les structures de l’infiniment petit jusqu’aux espaces galactiques. De l’explosion du Big Bang au magma plasmatique, elles révèlent les équations qui régissent le monde. La biologie est le royaume de la complexité. De la plus petite bactérie au cerveau le plus élaboré, la vie se multiplie, se compose, se combine, se reproduit dans des mystères insondés. Avec la médecine, il s’agit de repousser les limites de la maladie et de la mort. Les sciences humaines brillent dans leur diversité. Elles sont miroirs et mémoires de nos combats, reflets de nos illusions. Elles révèlent le mystère de l’humain. Peut-être un jour nous aideront-elles à comprendre nos folies.

    Et l’informatique ? Science et technique, l’informatique bouscule les frontières. Avec les mathématiques, elle tient du rêve ; elle se marie à la physique et la chimie dans des expériences prodigieuses ; elle est peut-être la clef pour décrypter les intrications de la biologie. Ses algorithmes disent pourquoi ; ils disent comment. Et de l’informatique, donc, quelle est l’essence ? Si les mathématiques définissent la vérité, si physique et chimie expliquent les merveilles du monde et si la biologie donne les clés de la vie, l’informatique est, quant à elle, le pouvoir de créer. Elle nous permet d’inventer notre propre monde.

    L’informatique fait chaque jour preuve de son inépuisable créativité. Elle ne cesse d’inventer de nouvelles applications, de nouvelles manières de communiquer, Si de nouveaux moyens de diffuser l’information. Grâce à l’informatique et aux télécommunications, on peut rêver dans un garage (Steve Jobs pour Apple), depuis un laboratoire universitaire (Sergueï Brin et Larry Page pour Google) ou même dans son dortoir (Mark Zuckerberg pour Facebook) d’un nouveau logiciel et poser ainsi les bases d’un empire industriel. On peut aussi être un dingue de liberté comme Richard Stallman et devenir l’artisan principal d’une des suites logicielles les plus utilisées au monde, le logiciel libre GNU/Linux.

    L’informatique étend le champ du possible.

    Par le Conseil scientifique de la SIF, composé : Serge Abiteboul (président), Gérard Berry, François Bourdoncle, Max Dauchet, Colin de la Higuera, Gilles Dowek, Anne-Marie Kermarrec, Claire Mathieu, Anca Muscholl, Laurence Nigay, Maurice Nivat, Jean-Marc Petit, Catherine Rivière, Gérard Roucairol, Marie-France Sagot, Florence Sèdes, Pascale Vicat-Blanc.