Catégorie : Entretiens autour de l’info

  • Une vie en interaction : itinéraire d’un pionnier de l’IHM

    Un nouvel entretien autour de l’informatique.
    Michel Beaudouin-Lafon est un chercheur en informatique français dans le domaine de l’interaction humain-machine. Il est professeur depuis 1992 à l’université de Paris-Saclay.  Ses travaux de recherche portent sur les aspects fondamentaux de l’interaction humain-machine, l’ingénierie des systèmes interactifs, le travail collaboratif assisté par ordinateur et plus généralement les nouvelles techniques d’interaction. Il a co-fondé et a été premier président de l’Association francophone pour l’interaction humain-machine. Il est membre senior de l’Institut universitaire de France, lauréat de la médaille d’argent du CNRS, ACM Fellow, et depuis 2025 membre de l’Académie des sciences. Cet article est publié en collaboration avec The Conversation.

    Michel Beaudouin-Lafon, https://www.lri.fr/~mbl/

    Binaire : Pourrais-tu nous raconter comment tu es devenu un spécialiste de l’interaction humain-machine ?

    MBL : J’ai suivi les classes préparatoires au lycée Montaigne à Bordeaux. On n’y faisait pas d’informatique, mais je m’amusais déjà un peu avec ma calculatrice programmable HP29C. Ensuite, je me suis retrouvé à l’ENSEEIHT, une école d’ingénieur à Toulouse, où j’ai découvert l’informatique… un peu trop ardemment : en un mois, j’avais épuisé mon quota de calcul sur les cartes perforées !

    À la sortie, je n’étais pas emballé par l’idée de rejoindre une grande entreprise ou une société de service.  J’ai alors rencontré Gérard Guiho de l’université Paris-Sud (aujourd’hui Paris-Saclay) qui m’a proposé une thèse en informatique. Je ne savais pas ce que c’était qu’une thèse : nos profs à l’ENSEEIHT, qui étaient pourtant enseignants-chercheurs, ne nous parlaient jamais de recherche.

    CPN Tools
    CPN Tools (https://cpntools.org)

    Fin 1982, c’était avant le Macintosh, Gérard venait d’acquérir une station graphique dont personne n’avait l’usage dans son équipe. Il m’a proposé de travailler dessus. Je me suis bien amusé et j’ai réalisé un logiciel d’édition qui permettait de créer et simuler des réseaux de Pétri, un formalisme avec des ronds, des carrés, des flèches, qui se prêtait bien à une interface graphique. C’est comme ça que je me suis retrouvé à faire une thèse en IHM : interaction humain-machine.

    Binaire : Est-ce que l’IHM existait déjà comme discipline à cette époque ?

    MBL : Ça existait mais de manière encore assez confidentielle. La première édition de la principale conférence internationale dans ce domaine, Computer Human Interaction (CHI), a eu lieu en 1982. En France, on s’intéressait plutôt à l’ergonomie.  Une des rares exceptions : Joëlle Coutaz qui, après avoir découvert l’IHM à CMU (Pittsburgh), a lancé ce domaine à Grenoble.

    Binaire : Et après la thèse, qu’es-tu devenu ?

    MBL : J’ai été nommé assistant au LRI, le laboratoire de recherche de l’Université Paris-Sud, avant même d’avoir fini ma thèse. Une autre époque ! Finalement, j’ai fait toute ma carrière dans ce même laboratoire, même s’il a changé de nom récemment pour devenir le LISN, laboratoire interdisciplinaire des sciences du numérique. J’y ai été nommé professeur en 1992. J’ai tout de même bougé un peu. D’abord en année sabbatique en 1992 à l’Université de Toronto, puis en détachement à l’Université d’Aarhus au Danemark entre 1998 et 2000, et enfin plus récemment comme professeur invité à l’université de Stanford entre 2010 et 2012.

    En 1992, au cours d’un workshop au Danemark, j’ai rencontré Wendy Mackay, une chercheuse qui travaillait sur l’innovation par les utilisateurs. Un an plus tard, nous étions mariés ! Cette rencontre a été déterminante dans ma carrière pour combiner mon parcours d’ingénieur, que je revendique toujours, avec son parcours à elle, qui était psychologue. Wendy est spécialiste de ce qu’on appelle la conception participative, c’est-à-dire d’impliquer les utilisateurs dans tout le cycle de conception des systèmes interactifs. Je vous invite d’ailleurs à lire son entretien dans Binaire. C’est cette complémentarité entre nous qui fait que notre collaboration a été extrêmement fructueuse sur le plan professionnel. En effet, dans le domaine de l’IHM, c’est extrêmement important d’allier trois piliers : (1) l’aspect humain, donc la psychologie ; (2) le design, la conception, la créativité ; et (3) l’ingénierie. Ce dernier point concerne la mise en œuvre concrète, et les tests avec des vrais utilisateurs pour voir si ça marche (ou pas) comme on l’espère. Nous avons vécu la belle aventure du développement de l’IHM en France, et sa reconnaissance comme science confirmée, par exemple, avec mon élection récente à l’Académie des Sciences.

    Binaire : L’IHM est donc une science, mais en quoi consiste la recherche dans ce domaine ? 

    MBL : On nous pose souvent la question. Elle est légitime. En fait, on a l’impression que les interfaces graphiques utilisées aujourd’hui par des milliards de personnes ont été inventées par Apple, Google ou Microsoft, mais pas vraiment ! Elles sont issues de la recherche académique en IHM !

    Si on définit souvent l’IHM par Interface Humain-Machine, je préfère parler d’Interaction Humain-Machine. L’interaction, c’est le phénomène qui se produit lorsqu’on est utilisateur d’un système informatique et qu’on essaie de faire quelque chose avec la machine, par la machine. On a ainsi deux entités très différentes l’une de l’autre qui communiquent : d’un côté, un être humain avec ses capacités cognitives et des moyens d’expression très riches ; et de l’autre, des ordinateurs qui sont de plus en plus puissants et très rapides mais finalement assez bêtes. Le canal de communication entre les deux est extrêmement ténu : taper sur un clavier, bouger une souris. En comparaison des capacités des deux parties, c’est quand même limité. On va donc essayer d’exploiter d’autres modalités sensorielles, des interfaces vocales, tactiles, etc., pour multiplier les canaux, mais on va aussi essayer de rendre ces canaux plus efficaces et plus puissants.

    Ce phénomène de l’interaction, c’est un peu une sorte de matière noire : on sait que c’est là, mais on ne peut pas vraiment la voir. On ne peut la mesurer et l’observer que par ses effets sur la machine et sur l’être humain. Et donc, on observe comment l’humain avec la machine peuvent faire plus que l’humain seul et la machine seule. C’est une idée assez ancienne : Doug Engelbart en parlait déjà dans les années 60 (voir dans Interstices). Et pourtant, aujourd’hui, on a un peu tendance à l’oublier car on se focalise sur des interfaces de plus en plus simples, où c’est la machine qui va tout faire et on n’a plus besoin d’interagir. Or, je pense qu’il y a vraiment une valeur ajoutée à comprendre ce phénomène d’interaction pour en tirer parti et faire que la machine augmente nos capacités plutôt que faire le travail à notre place. Par extension, on s’intéresse aussi à ce que des groupes d’humains et de machines peuvent faire ensemble.

    Théories génératives d'interaction
    Les théories génératives d’interaction (Beaudouin-Lafon, Bødker et Mackay, 2021)

    La recherche en IHM, il y a donc un aspect recherche fondamentale qui se base sur d’autres domaines (la psychologie mais aussi la sociologie quand on parle des interactions de groupes, ou encore la linguistique dans le cadre des interactions langagières) qui permet de créer nos propres modèles d’interaction, qui ne sont pas des modèles mathématiques ; et ça, je le revendique parce que je pense que c’est une bonne chose qu’on ne sache pas encore mettre le cerveau humain en équation. Et puis il y a une dimension plus appliquée où on va créer des objets logiciels ou matériels pour mettre tout ça en œuvre.

    Pour moi, l’IHM ne se résume pas à faire de nouveaux algorithmes. Au début des années 90, Peter Wegener a publié dans Communications of the ACM – un des journaux de référence dans notre domaine – un article qui disait “l’interaction est plus puissante que les algorithmes”. Cela lui a valu pas mal de commentaires et de critiques, mais ça m’a beaucoup marqué.

    Binaire : Et à propos d’algorithmes, est-ce que l’IA soulève de nouvelles problématiques en IHM ? 

    MBL : Oui, absolument ! En ce moment, les grandes conférences du domaine débordent d’articles qui combinent des modèles de langage (LLM) ou d’autres techniques d’IA avec de l’IHM. 

    Historiquement, dans une première phase, l’IA a été extrêmement utilisée en IHM, par exemple pour faire de la reconnaissance de gestes. C’était un outil commode, qui nous a simplifié la vie, mais sans changer nos méthodes d’interaction.

    Aux débuts de l’IA générative, on est un peu revenu 50 ans en arrière en matière d’interaction, quand la seule façon d’interagir avec les ordinateurs, c’était d’utiliser le terminal. On fait un prompt, on attend quelques secondes, on a une réponse ; ça ne va pas, on bricole. C’est une forme d’interaction extrêmement pauvre. De plus en plus de travaux très intéressants imaginent des interfaces beaucoup plus interactives, où on ne voit plus les prompts, mais où on peut par exemple dessiner, transformer une image interactivement, sachant que derrière, ce sont les mêmes algorithmes d’IA générative avec leurs interfaces traditionnelles qui sont utilisés.

    Pour moi, l’IA soulève également une grande question : qu’est-ce qu’on veut déléguer à la machine et qu’est-ce qui reste du côté humain ? On n’a pas encore vraiment une bonne réponse à ça. D’ailleurs, je n’aime pas trop le terme d’intelligence artificielle. Je n’aime pas attribuer des termes anthropomorphiques à des systèmes informatiques. Je m’intéresse plutôt à l’intelligence augmentée, quand la machine augmente l’intelligence humaine. Je préfère mettre l’accent sur l’exploitation de capacités propres à l’ordinateur, plutôt que d’essayer de rendre l’ordinateur identique à un être humain. 

    Binaire : La parole nous permet d’interagir avec les autres humains, et de la même façon avec des bots. N’est-ce pas plus simple que de chercher la bonne icône ? 

    MBL : Interagir par le langage, oui, c’est commode. Ceci étant, à chaque fois qu’on a annoncé une nouvelle forme d’interface qui allait rendre ces interfaces graphiques (avec des icônes, etc.) obsolètes, cela ne s’est pas vérifié. Il faut plutôt s’intéresser à comment on fait cohabiter ces différentes formes d’interactions. Si je veux faire un schéma ou un diagramme, je préfère le dessiner plutôt que d’imaginer comment le décrire oralement à un système qui va le faire (sans doute mal) pour moi. Ensuite, il y a toujours des ambiguïtés dans le langage naturel entre êtres humains. On ne se contente pas des mots. On les accompagne d’expressions faciales, de gestes, et puis de toute la connaissance d’un contexte qu’un système d’IA aujourd’hui n’a souvent pas, ce qui le conduit à faire des erreurs que des humains ne feraient pas. Et finalement, on devient des correcteurs de ce que fait le système, au lieu d’être les acteurs principaux. 

    Ces technologies d’interaction par la langue naturelle, qu’elles soient écrites ou orales, et même si on y combine des gestes, soulèvent un sérieux problème : comment faire pour que l’humain ne se retrouve pas dans une situation d’être de plus en plus passif ? En anglais, on appelle ça de-skilling : la perte de compétences et d’expertise. C’est un vrai problème parce que, par exemple, quand on va utiliser ces technologies pour faire du diagnostic médical, ou bien prononcer des sentences dans le domaine juridique, on va mettre l’être humain dans une situation de devoir valider ou non la décision posée par une IA. Et en fait, il va être quand même encouragé à dire oui, parce que contredire l’IA revient à s’exposer à une plus grande responsabilité que de constater a posteriori que l’IA s’est trompée. Donc dans ce genre de situation, on va chercher comment maintenir l’expertise de l’utilisateur et même d’aller vers de l’upskilling, c’est-à-dire comment faire pour qu’un système d’IA le rende encore plus expert de ce qu’il sait déjà bien faire, plutôt que de déléguer et rendre l’utilisateur passif. On n’a pas encore trouvé la façon magique de faire ça. Mais si on reprend l’exemple du diagnostic médical, si on demande à l’humain de faire un premier diagnostic, puis à l’IA de donner le sien, et que les deux ont ensuite un échange, c’est une interaction très différente que d’attendre simplement ce qui sort de la machine et dire oui ou non. 

    Binaire : Vous cherchez donc de nouvelles façons d’interagir avec les logiciels, qui rendent l’humain plus actif et tendent vers l’upskilling.

    MBL : Voilà ! Notre équipe s’appelle « Ex Situ », pour Extreme Situated Interaction. C’est parti d’un gag parce qu’avant, on s’appelait « In Situ » pour Interaction Située. Il s’agissait alors de concevoir des interfaces en fonction de leur contexte, de la situation dans laquelle elles sont utilisées. 

    Nous nous sommes rendus compte que nos recherches conduisaient à nous intéresser à ce qu’on a appelé des utilisateurs “extrêmes”, qui poussent la technologie dans ses retranchements. En particulier, on s’intéresse à deux types de sujets, qui sont finalement assez similaires. D’un part, les créatifs (musiciens, photographes, graphistes…) qui par nature, s’ils ont un outil (logiciel ou non) entre les mains, vont l’utiliser d’une manière qui n’était pas prévue, et ça nous intéresse justement de voir comment ils détournent ces outils. D’autre part, Wendy travaille, depuis longtemps d’ailleurs, dans le domaine des systèmes critiques dans lequel on n’a pas droit à l’erreur : pilotes d’avion, médecins, etc. 

    Dans les industries culturelles et créatives (édition, création graphique, musicale, etc.), les gens sont soit terrorisés, soit anxieux, de ce que va faire l’IA. Et nous, ce qu’on dit, c’est qu’il ne s’agit pas d’être contre l’IA – c’est un combat perdu de toute façon – mais de se demander comment ces systèmes vont pouvoir être utilisés d’une manière qui va rendre les humains encore plus créatifs. Les créateurs n’ont pas besoin qu’on crée à leur place, ils ont besoin d’outils qui les stimulent. Dans le domaine créatif, les IA génératives sont, d’une certaine façon, plus intéressantes quand elles hallucinent ou qu’elles font un peu n’importe quoi. Ce n’est pas gênant au contraire. 

    Binaire : L’idée d’utiliser les outils de façon créative, est-ce que cela conduit au design ?

    MBL : Effectivement. Par rapport à l’ergonomie, qui procède plutôt selon une approche normative en partant des tâches à optimiser, le design est une approche créative qui questionne aussi les tâches à effectuer. Un designer va autant mettre en question le problème, le redéfinir, que le résoudre. Et pour redéfinir le problème, il va interroger et observer les utilisateurs pour imaginer des solutions. C’est le principe de conception participative, qui implique les acteurs eux-mêmes en les laissant s’approprier leur activité, ce qui donne finalement de meilleurs résultats, non seulement sur le plan de la performance mais aussi et surtout sur l’acceptation.

    Notre capacité naturelle d’être humain nous conduit à constamment réinventer notre activité. Lorsque nous interagissons avec le monde, certes nous utilisons le langage, nous parlons, mais nous faisons aussi des mouvements, nous agissons sur notre environnement physique ; et ça passe parfois par la main nue, mais surtout par des outils. L’être humain est un inventeur d’outils incroyables. Je suis passionné par la  facilité que nous avons à nous servir d’outils et à détourner des objets comme outils ; qui n’a pas essayé de défaire une vis avec un couteau quand il n’a pas de tournevis à portée de main ? Et en fait, cette capacité spontanée disparaît complètement quand on passe dans le monde numérique. Pourquoi ? Parce que dans le monde physique, on utilise des connaissances techniques, on sait qu’un couteau et un tournevis ont des propriétés similaires pour cette tâche. Alors que dans un environnement numérique, on a besoin de connaissances procédurales : on apprend que pour un logiciel il faut cliquer ici et là, et puis dans un autre logiciel pour faire la même chose, c’est différent. 

    Interaction instrumentale
    Le concept d’interaction instrumentale (illustration par Nicolas Taffin)

    C’est en partant de cette observation que j’ai proposé l’ERC One, puis le projet Proof-of Concept OnePub, qui pourrait peut-être même déboucher sur une startup. On a voulu fonder l’interaction avec nos ordinateurs d’aujourd’hui sur ce modèle d’outils – que j’appelle plutôt des instruments, parce que j’aime bien l’analogie avec l’instrument de musique et le fait de devenir virtuose d’un instrument. Ça remet en cause un peu tous nos environnements numériques. Pour choisir une couleur sur Word, Excel ou Photoshop, on utilise un sélecteur de couleurs différent. En pratique, même si tu utilises les mêmes couleurs, il est impossible de prendre directement une couleur dans l’un pour l’appliquer ailleurs. Pourtant, on pourrait très bien imaginer décorréler les contenus qu’on manipule (texte, images, vidéos, son…) des outils pour les manipuler, et de la même façon que je peux aller m’acheter les pinceaux et la gouache qui me conviennent bien, je pourrais faire la même chose avec mon environnement numérique en la personnalisant vraiment, sans être soumis au choix de Microsoft, Adobe ou Apple pour ma barre d’outils. C’est un projet scientifique qui me tient à cœur et qui est aussi en lien avec la collaboration numérique.

    Substrat
    Différents instruments pour interagir avec différentes représentations d’un document, ici un graphe issu d’un tableau de données

    Binaire : Par rapport à ces aspects collaboratifs, n’y a-t-il pas aussi des verrous liés à la standardisation ?

    MBL : Absolument. On a beau avoir tous ces moyens de communication actuels, nos capacités de collaboration sont finalement très limitées. À l’origine d’Internet, les applications s’appuyaient sur des protocoles et standards ouverts assurant l’interopérabilité : par exemple, peu importait le client ou serveur de courrier électronique utilisé, on pouvait s’échanger des mails sans problème. Mais avec la commercialisation du web, des silos d’information se sont créés. Aujourd’hui, des infrastructures propriétaires comme Google ou Microsoft nous enferment dans des “jardins privés” difficiles à quitter. La collaboration s’établit dans des applications spécialisées alors qu’elle devrait être une fonctionnalité intrinsèque.

    C’est ce constat qui a motivé la création du PEPR eNSEMBLE, un grand programme national sur la collaboration numérique, dont je suis codirecteur. L’objectif est de concevoir des systèmes véritablement interopérables où la collaboration est intégrée dès la conception. Cela pose des défis logiciels et d’interface. Une des grandes forces du système Unix, où tout est très interopérable, vient du format standard d’échange qui sont des fichiers textes ASCII. Aujourd’hui, cela ne suffit plus. Les interactions sont plus complexes et dépassent largement l’échange de messages.

    Interaction collaborative
    Interaction collaborative sur le mur d’écrans WILD, © Inria, photo H. Raguet

    C’est frustrant car on a quand même fait beaucoup de progrès en IHM, mais il faudrait aussi plus d’échanges avec les autres disciplines comme les réseaux, les systèmes distribués, la cryptographie, etc., parce qu’en fait, aucun système informatique aujourd’hui ne peut se passer de prendre en compte les facteurs humains. Au-delà des limites techniques, il y a aussi des contraintes qui sont totalement artificielles et qu’on ne peut aborder que s’il y a une forme de régulation qui imposerait, par exemple, la publication des API de toute application informatique qui communique avec son environnement. D’ailleurs, la législation européenne autorise le reverse engineering dans les cas exceptionnels où cela sert à assurer l’interopérabilité, un levier que l’on pourrait exploiter pour aller plus loin.

    Cela pose aussi la question de notre responsabilité de chercheur pour ce qui est de l’impact de l’informatique, et pas seulement l’IHM, sur la société. C’est ce qui m’a amené à m’impliquer dans l’ACM Europe Technology Policy Committee, dont je suis Chair depuis 2024. L’ACM est un société savante apolitique, mais on a pour rôle d’éduquer les décideurs politiques, notamment au niveau de l’Union européenne, sur les capacités, les enjeux et les dangers des technologies, pour qu’ils puissent ensuite les prendre en compte ou pas dans des textes de loi ou des recommandations (comme l’AI ACT récemment). 

    Binaire : En matière de transmission, sur un ton plus léger, tu as participé au podcast Les petits bateaux sur Radio France. Pourrais-tu nous en parler ?

    MBL : Oui ! Les petits bateaux. Dans cette émission, les enfants peuvent appeler un numéro de téléphone pour poser des questions. Ensuite, les journalistes de l’émission contactent un scientifique avec une liste de questions, collectées au cours du temps, sur sa thématique d’expertise. Le scientifique se rend au studio et enregistre des réponses. A l’époque, un de mes anciens doctorants [ou étudiants] avait participé à une action de standardisation du clavier français Azerty sur le positionnement des caractères non alphanumériques, et j’ai donc répondu à des questions très pertinentes comme “Comment les Chinois font pour taper sur un clavier ?”, mais aussi “Où vont les fichiers quand on les détruit ?”, “C’est quoi le com dans .com ?” Évidemment, les questions des enfants intéressent aussi les adultes qui n’osent pas les poser. On essaie donc de faire des réponses au niveau de l’enfant mais aussi d’aller un petit peu au-delà, et j’ai trouvé cela vraiment intéressant de m’adresser aux différents publics.

    Manuel NSI
    Numérique et Sciences Informatiques Terminale Spécialité, de Michel Beaudouin-Lafon, Benoit Groz, Emmanuel Waller, Cristel Pelsser, Céline Chevalier, Philippe Marquet, Xavier Redon, Mathieu Nancel, Gilles Grimaud. 2022.

    Je suis très attaché à la transmission, je suis issu d’une famille d’enseignants du secondaire, et j’aime moi-même enseigner. J’ai dirigé et participé à la rédaction de manuels scolaires des spécialités informatiques SNT et NSI au Lycée. Dans le programme officiel de NSI issu du ministère, une ligne parle de l’interaction avec l’utilisateur comme étant transverse à tout le programme, ce qui veut dire qu’elle n’est concrètement nulle part. Mais je me suis dit que c’était peut-être l’occasion d’insuffler un peu de ma passion dans ce programme, que je trouve par ailleurs très lourd pour des élèves de première et terminale, et de laisser une trace ailleurs que dans des papiers de recherche…

    Serge Abiteboul (Inria) et Chloé Mercier (Université de Bordeaux)

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

     

  • La passion du pair-à-pair

    Un nouvel entretien autour de l’informatique.

    Anne-Marie Kermarrec est une informaticienne française, professeure à l’École polytechnique fédérale de Lausanne. Elle est internationalement reconnue pour ses recherches sur les systèmes distribués, les systèmes « pair à pair », les algorithmes épidémiques et les systèmes collaboratifs d’apprentissage automatique. Elle fait partie du Conseil présidentiel de la science français et est nouvellement élue à l’Académie des Sciences. Elle contribue régulièrement à binaire, et a publié en 2021 « Numérique, compter avec les femmes », chez Odile Jacob.

    Anne-Marie Kermarre. Par EPFL, CC BY 4.0, Wikimedia Commons

    Binaire : Tout d’abord, peux-tu nous retracer rapidement le parcours depuis la petite fille en Bretagne jusqu’à la membre Académie des sciences ?

    AMK : Oui, je viens de Bretagne ; je suis la petite dernière d’une fratrie de quatre. On a tous suivi des études scientifiques. Au lycée, en seconde, j’avais pris option informatique pour aller dans un lycée particulier à Saint-Brieuc. À la fac, j’hésitais entre l’économie, les maths, l’informatique, et j’ai choisi l’informatique, un peu par hasard j’avoue. Je n’avais pas une idée très précise de ce que c’était mais il se trouve que j’avais un frère informaticien, qui avait fait un doctorat, et ça avait l’air d’un truc d’avenir !

    J’ai découvert la recherche pendant mon stage de maîtrise, où j’ai étudié les architectures des ordinateurs. Puis, en DEA et en thèse, j’ai bifurqué vers les systèmes distribués, là encore, un peu par hasard. La façon de travailler en thèse m’a beaucoup plu, et m’a donné envie de continuer dans cette voie. J’ai donc poursuivi un postdoc à Amsterdam, avec un chercheur qui m’a beaucoup inspiré, Andy Tanenbaum. C’est là que j’ai commencé à travailler sur les systèmes distribués à large échelle – mon sujet principal de recherche depuis. Après deux ans comme maitresse de conférences à Rennes, j’ai passé cinq ans comme chercheuse pour Microsoft Research à Cambridge en Angleterre. C’était très chouette. Ensuite, je suis devenue directrice de recherche Inria et j’ai monté une équipe sur les systèmes pair-à-pair, un sujet très en vogue à l’époque. Cela m’a conduite à créer une start-up, Mediego, qui faisait de la recommandation pour les journaux en ligne et exploitait les résultats de mon projet de recherche. En 2019, juste avant le Covid, j’ai vendu la start-up. Depuis je suis professeure à l’EPFL. J’y ai monté un labo, toujours sur les systèmes distribués à large échelle, avec des applications dans l’apprentissage machine et l’intelligence artificielle.

    Binaire : Pourquoi est-ce que tu n’es pas restée dans l’industrie après ta start-up?

    AMK : La création de ma start-up a été une expérience très enrichissante techniquement et humainement. On était parti d’un algorithme que j’avais développé et dont j’étais très fière, mais finalement, ce qui a surtout fonctionné, c’est un logiciel de création de newsletters qu’on avait co-construit avec des journalistes. Les joies du pivot en startup. Et à un moment donné, j’avais un peu fait le tour dans le sens où, même si ce n’était pas une grosse boîte, une fois qu’on avait trouvé notre marché, je m’occupais essentiellement des sous et des ressources humaines… et plus tellement, plus assez, de science. Donc j’ai décidé de revenir dans le monde académique que je n’avais pas complètement quitté, puisque j’y avais encore des collaborations. J’ai aimé mon passage dans l’industrie, mais j’aime aussi la nouveauté, et c’est aussi pour ça que j’ai pas mal bougé dans ma carrière. Et après quelque temps, le monde académique me manquait, les étudiants, les collègues. Et puis, ce qui me plaît dans la recherche : quand on a envie, on change de sujet. On fait plein de choses différentes, on jouit d’une énorme liberté et on est entouré d’étudiants brillants. J’avais vraiment envie de retrouver cette liberté et ce cadre.

    Et puis, au vu de tout ce qui se passe avec ces grosses boîtes en ce moment, je me félicite d’être revenue dans le monde académique ; je n’aurais pas du tout envie de travailler pour elles maintenant….

    Binaire : Ton premier amour de chercheuse était le pair-à-pair. Est-ce que tu peux nous expliquer ce que c’est, et nous parler d’algorithmes sur lesquels tu as travaillé dans ce cadre ?

    Architecture centralisée
    (1)
    Architecture pair à pair
    (2)

    Architecture centralisée (1), puis pair-à-pair (2).
    Source: Wikimedia commons.

    AMK : Commençons par les systèmes distribués. Un système distribué consiste en un ensemble de machines qui collaborent pour exécuter une application donnée ; l’exemple type, ce serait les data centers. On fait faire à chaque machine un morceau du travail à réaliser globalement. Mais à un moment donné, il faut quand même de la synchronisation pour mettre tout ça en ordre.

    La majorité des systèmes distribués, jusqu’au début des années 2000, s’appuyait sur une machine, qu’on appelle un serveur, responsable de l’orchestration des tâches allouées aux autres machines, qu’on appelle des clients. On parle d’architecture client-serveur. Un premier inconvénient, qu’on appelle le passage à l’échelle, c’est que quand on augmente le nombre de machines clientes, évidemment le serveur commence à saturer. Donc il faut passer à plusieurs serveurs. Comme dans un restaurant, quand le nombre de clients augmente, un serveur unique n’arrive plus à tout gérer, on embauche un deuxième serveur, puis un autre, etc. Un second problème est l’existence d’un point de défaillance unique. Si un serveur tombe en panne, le système en entier s’écroule, alors même que des tas d’autres machines restent capables d’exécuter des tâches.

    Au début des années 2000, nous nous sommes intéressés à des systèmes distribués qui n’étaient plus seulement connectés par des réseaux locaux, mais par Internet, et avec de plus en plus de machines. Il est alors devenu crucial de pouvoir supporter la défaillance d’une ou plusieurs machines sans que tout le système tombe en panne. C’est ce qui a conduit aux systèmes pair-à-pair.

    Binaire : On y arrive ! Alors qu’est-ce que c’est ?

    AMK : Ce sont des systèmes décentralisés dans lesquels chaque machine joue à la fois le rôle de client et le rôle de serveur. Une machine qui joue les deux rôles, on l’appelle un pair. En termes de passage à l’échelle, c’est intéressant parce que ça veut dire que quand on augmente le nombre de clients, on augmente aussi le nombre de serveurs. Et si jamais une machine tombe en panne, le système continue de fonctionner !

    Bon, au début, les principales applications pour le grand public étaient… le téléchargement illégal de musique et de films avec des systèmes comme Gnutella ou BitTorrent ! On a aussi utilisé ces systèmes pour de nombreuses autres applications comme le stockage de fichiers ou même des réseaux sociaux. Plus récemment, on a vu arriver de nouveaux systèmes pair-à-pair très populaires, avec la blockchain qui est la brique de base des crypto-monnaies comme le Bitcoin.

    Maintenant, entrons un peu dans la technique. Dans un système distribué avec un très grand nombre de machines (potentiellement des millions), chaque machine ne communique pas avec toutes les autres, mais juste avec un petit sous-ensemble d’entre elles. Typiquement, si n est le nombre total de machines, une machine va communiquer avec un nombre logarithmique, log(n), de machines. En informatique, on aime bien le logarithme car, quand n grandit énormément, log(n) grandit doucement.

    Maintenant, tout l’art réside dans le choix de ce sous-ensemble d’environ log(n) machines avec qui communiquer. La principale contrainte, c’est qu’on doit absolument éviter qu’il y ait une partition dans le réseau, c’est-à-dire qu’il doit toujours exister un chemin entre n’importe quels nœuds du réseau, même s’il faut pour cela passer par d’autres nœuds. On va distinguer deux approches qui vont conduire à deux grandes catégories de systèmes pair-à-pair, chacune ayant ses vertus.

    La première manière, dite « structurée », consiste à organiser tous les nœuds pour qu’ils forment un anneau ou une étoile par exemple, bref une structure géométrique particulière qui va garantir la connectivité du tout. Avec de telles structures, on est capable de faire du routage efficace, c’est-à-dire de transmettre un message de n’importe quel point à n’importe quel autre point en suivant un chemin relativement court. Par exemple, dans un anneau, en plaçant des raccourcis de façon astucieuse, on va pouvoir aller de n’importe quelle machine à n’importe quelle autre machine en à peu près un nombre logarithmique d’étapes. Et la base de tous ces systèmes, c’est qu’il y a suffisamment de réplication un peu partout pour que n’importe quelle machine puisse tomber en panne et que le système continue à fonctionner correctement.

    La seconde manière, dite « non structurée », se base sur des graphes aléatoires. On peut faire des choses assez intéressantes et élégantes avec de tels graphes, notamment tout ce qui s’appelle les algorithmes épidémiques (j’avais parlé de ça dans un autre article binaire). Pour envoyer un message à tout un système, je l’envoie d’abord à mes voisins, et chacun de mes voisins fait la même chose, etc. En utilisant un nombre à peu près logarithmique de voisins, on sait qu’au bout d’un nombre à peu près logarithmique d’étapes, tout le monde aura reçu le message qui s’est propagé un peu comme une épidémie. Cela reste vrai même si une grande partie des machines tombent en panne ! Et le hasard garantit que l’ensemble reste connecté.

    On peut faire évoluer en permanence cette structure de graphe aléatoire, la rendre dynamique, l’adapter aux applications considérées. C’est le sujet d’un projet ERC que j’ai obtenu en 2008. L’idée était la suivante. Comme je dispose de ce graphe aléatoire qui me permet de m’assurer que tout le monde est bien connecté, je peux construire au-dessus n’importe quel autre graphe qui correspond bien à mon application. Par exemple, je peux construire le graphe des gens qui partagent les mêmes goûts que moi. Ce graphe n’a même pas besoin de relier tous les nœuds, parce que de toute façon ils sont tous connectés par le graphe aléatoire sous-jacent. Et dans ce cas-là, je peux utiliser ce réseau pour faire un système de recommandation. En fait, au début, je voulais faire un web personnalisé et décentralisé. C’était ça, la « grande vision » qui a été à la base de la création de ma startup. Sauf que business model oblige, finalement, on n’a pas du tout fait ça 😉 Mais j’y crois encore !

    Architecture structurée
    (1)

    Graphe aléatoire
    (2)

    Architectures pair-à-pair: structurée (ici en anneau (1)) et  routage aléatoire (2).
    Source: Geeks for geeks.

    Binaire : Et aujourd’hui, toujours dans le cadre du pair-à-pair, tes recherches portent sur l’apprentissage collaboratif.

    AMK : Oui, l’apprentissage collaboratif, c’est mon sujet du moment ! Et oui, on reste proche du pair-à-pair, mon dada !

    Dans la phase d’entraînement de l’apprentissage automatique classique, les données sont rapatriées dans des data centers où se réalise l’entrainement. Mais on ne veut pas toujours partager ses données ; on peut ne pas avoir confiance dans les autres machines pour maintenir la confidentialité des données.

    Donc, imaginons des tas de machines (les nœuds du système) qui ont chacune beaucoup de données, qu’elles ne veulent pas partager, et qui, pour autant, aimeraient bénéficier de l’apprentissage automatique que collectivement ces données pourraient leur apporter. L’idée est d’arriver à entraîner des modèles d’apprentissage automatique sur ces données sans même les déplacer. Bien sûr, il faut échanger des informations pour y arriver, et, en cela, l’apprentissage est collaboratif.

    Une idée pourrait être d’entrainer sur chaque machine un modèle d’apprentissage local, récupérer tous ces modèles sur un serveur central, les agréger, renvoyer le modèle résultat aux différentes machines pour poursuivre l’entrainement, cela s’appelle l’apprentissage fédéré. A la fin, on a bien un modèle qui a été finalement entraîné sur toutes les données, sans que les données n’aient bougé. Mais on a toujours des contraintes de vulnérabilité liées à la centralisation (passage à l’échelle, point de défaillance unique, respect de la vie privée).

    Alors, la solution est d’y parvenir de manière complètement décentralisée, en pair-à-pair. On échange entre voisins des modèles locaux (c’est à dire entrainés sur des données locales), et on utilise des algorithmes épidémiques pour propager ces modèles. On arrive ainsi à réaliser l’entrainement sur l’ensemble des données. Ça prend du temps. Pour accélérer la convergence de l’entrainement, on fait évoluer le graphe dynamiquement.

    Cependant, que ce soit dans le cas centralisé ou, dans une moindre mesure, décentralisé, l’échange des modèles pose quand même des problèmes de confidentialité. En effet, même si les données ne sont pas partagées, il se trouve qu’il est possible d’extraire beaucoup d’informations des paramètres d’un modèle et donc du client qui l’a envoyé. Il y a donc encore pas mal de recherches à faire pour garantir que ces systèmes soient vraiment respectueux de la vie privée, et pour se garantir d’attaques qui chercheraient à violer la confidentialité des données : c’est typiquement ce sur quoi je travaille avec mon équipe à l’EPFL.

    Binaire : L’entraînement dans un cas distribué, est-ce que cela ne coûte pas plus cher que dans un cas centralisé ? Avec tous ces messages qui s’échangent ?

    AMK : Bien sûr. Il reste beaucoup de travail à faire pour réduire ces coûts. En revanche, avec ces solutions, il est possible de faire des calculs sur des ordinateurs en local qui sont souvent sous-utilisés, plutôt que de construire toujours plus de data centers.

    Binaire : Cela rappelle un peu les problèmes de coût énergétique du Bitcoin, pour revenir à une autre application du pair-à-pair. Peux-tu nous en parler ?

    AMK : Un peu mais nous sommes loin des délires de consommation énergétique du Bitcoin.

    En fait, au début, quand j’ai découvert l’algorithme original de la blockchain et du Bitcoin, je n’y ai pas du tout cru, parce que d’un point de vue algorithmique c’est un cauchemar ! En systèmes distribués, on passe notre vie à essayer de faire des algorithmes qui soient les plus efficaces possibles, qui consomment le moins de bande passante, qui soient les plus rapides possibles, etc… et là c’est tout le contraire ! Un truc de malade ! Bon, je regrette de ne pas y avoir cru et de ne pas avoir acheté quelques bitcoins à l’époque…

    Mais c’est aussi ça que j’aime bien dans la recherche scientifique : on se trompe, on est surpris, on apprend. Et on découvre des algorithmes qui nous bluffent, comme ceux des IA génératives aujourd’hui.

    Binaire : Tu as beaucoup milité, écrit, parlé autour de la place des femmes dans le numérique. On t’a déjà posé la question : pourquoi est-ce si difficile pour les femmes en informatique ? Peut-être pas pour toi, mais pour les femmes en général ? Pourrais-tu revenir sur cette question essentielle ?

    AMK : On peut trouver un faisceau de causes. Au-delà de l’informatique, toutes les sciences “dures” sont confrontées à ce problème. Dès le CP, les écarts se creusent entre les filles et les garçons, pour de mauvaises raisons qui sont des stéréotypes bien ancrés dans la société, qui associent les femmes aux métiers de soins et puis les hommes à conduire des camions et à faire des maths… Pour l’informatique, la réforme du lycée a été catastrophique. La discipline n’avait déjà pas vraiment le vent en poupe, mais maintenant, quand il faut abandonner une option en terminale, on délaisse souvent l’informatique. Et ça se dégrade encore dans le supérieur. La proportion de femmes est très faible dans les écoles d’ingénieurs, et ça ne s’améliore pas beaucoup. Pour prendre l’exemple d’Inria, la proportion de candidates entre le début du recrutement et l’admission reste à peu près constante, mais comme elle est faible à l’entrée on ne peut pas faire de miracles…

    Pourtant, une chose a changé : la parité dans le domaine est devenue un vrai sujet, un objectif pour beaucoup, même si ça n’a pas encore tellement amélioré les statistiques pour autant. Ça prend beaucoup de temps. Un sujet clivant est celui de la discrimination positive, celui des quotas. Beaucoup de femmes sont contre dans les milieux académiques parce qu’elles trouvent ça dévalorisant, ce que je peux comprendre. Je suis moi-même partagée, mais parfois je me dis que c’est peut-être une bonne solution pour accélérer les choses…

    Binaire : Bon, de temps en temps, cela change sans quota. Même à l’Académie des sciences !

    AMK : C’est vrai, magnifique ! Je suis ravie de faire partie de cette promo. Une promo sans quota plus de 50 % de femmes parmi les nouveaux membres Académie des sciences en général, et 50 % en informatique. On a quand même entendu pendant des années qu’on ne pouvait pas faire mieux que 15-20% ! Pourvu que ça dure !

    Serge Abiteboul, Inria, et Chloé Mercier, Université de Bordeaux.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/
  • Informatique théâtrale

    Un nouvel entretien autour de l’informatique.

    Remi Ronfard a travaillé plusieurs années au centre Watson d’IBM Research à Yorktown Heights et à la direction de la recherche de l’Institut National de l’Audiovisuel (INA), avant de rejoindre Inria. Il est spécialiste de la modélisation géométrique, d’animation 3D, de vision par ordinateur, et d’informatique théâtrale. Il s’intéresse à la création et mise en scène de mondes virtuels narratifs. Il a fondé et anime les journées d’informatique théâtrale.
    Rémi Ronfard, Crédit image :  Miguel Bucana, pour le magazine Chut !

     

    Binaire : Peux-tu nous raconter ton parcours, et comment tu t’es intéressé à ce domaine à la frontière de l’informatique et des arts vivants ?

    RR : J’ai suivi des études d’ingénieur à l’École des Mines. Il n’y avait pas d’informatique dans la formation à l’époque. J’ai découvert l’informatique après mes études en réalisant une thèse en télédétection. J’ai commencé alors à me sentir informaticien même si ma thèse tenait surtout du traitement du signal. Pendant 10 ans, j’ai travaillé ensuite pour la R&D dans l’industrie par exemple au centre Watson d’IBM, et à l’INA. Je suis devenu chercheur à Inria à 40 ans. Ce n’est pas un parcours standard !

    C’est par hasard que je me suis intéressé au théâtre. En 1996, j’ai rencontré au Medialab du MIT Claudio Pinhanez (de IBM Research, Brésil) inventeur de l’expression Computer theater que je traduis comme « informatique théâtrale ». Son questionnement d’alors : peut-on faire avec l’informatique ce que l’on a fait pour la musique avec l’informatique musicale ? Il décrivait le théâtre comme essentiellement une série d’actions ; cela résonnait bien avec mon domaine de recherche à l’INA sur l’indexation audiovisuelle. Cela me conduisait à la question : comment reconnaître et représenter symboliquement des actions théâtrales ? Cette idée a commencé alors à me trotter dans la tête mais je n’ai pas imaginé en faire mon sujet de recherche principal. Quand je suis rentré à Inria des années plus tard, j’ai pu revenir sur ce sujet.

    Binaire : Pourrais-tu nous dire comment tu définis toi-même l’informatique théâtrale ?

    RR : Oh là là. Pour moi, l’informatique théâtrale doit rester très ouverte. Je ne veux pas l’enfermer dans des définitions. Regardez l’informatique musicale. Elle s’est construite au-delà des distinctions entre musique et son. Je ne veux pas que des tentatives de définition ferment la discipline. Une difficulté avec le théâtre c’est que dès on change quelque chose, ce n’est plus du théâtre : un film, ce n’est plus du théâtre, même une pièce filmée pour beaucoup ce n’est plus du théâtre. En musique, si on change les instruments, cela reste de la musique.

    Binaire : On va insister. Peux-tu quand même essayer de définir l’informatique théâtrale ?

    On peut y voir deux aspects essentiels. Du point de vue de l’artiste, c’est d’abord, des pièces de théâtre qui utilisent l’informatique dans leur création ou leur diffusion, avec l’idée que le résultat se distingue de ce qui aurait été fait sans informatique. D’un autre côté, avec un regard d’informaticien, l’informatique théâtrale regroupe tout ce qu’on peut faire au service du théâtre avec des machines, des algorithmes ou des langages qui traitent du théâtre.

    Techniquement, mon travail personnel s’inscrit dans le cadre de l’informatique graphique. En général, dans ce domaine on modélise en trois dimensions pour produire des images en deux dimensions. Avec l’informatique théâtrale, on s’intéresse à un déploiement dans les trois dimensions et dans le temps.

    Binaire : Des algorithmes au service du théâtre. C’est passionnant ! Pourrais-tu nous donner un exemple ?

    RR : Aujourd’hui, cela tourne beaucoup autour de l’automatisation de la régie théâtrale. En régie, pour accompagner un spectacle, on dispose d’une liste de repères, avec des événements comme certains endroits du texte ou un geste d’un acteur qui servent de déclencheurs à d’autres événements, par exemple lancer une lumière ou une chanson. Il faut suivre cette « liste d’événements ». On pourrait imaginer automatiser cela. Il faut bien reconnaitre que cela reste encore balbutiant ; cela se fait seulement dans des conditions expérimentales. C’est d’abord pour des raisons de fiabilité. On ne peut pas planter un spectacle devant une salle remplie de spectateurs parce qu’un programme informatique beugue.

    Binaire : Le script d’une représentation théâtrale, c’est comme une partition musicale ? Peut-on imaginer décrire formellement une mise en scène ?

    RR : C’est très proche d’une partition. Mais pour le théâtre, il n’existe pas de notation universelle : chaque metteur en scène, chaque régisseur, utilise ses propres notations.

    Développer une telle notation est un défi considérable, un sujet un peu tabou. Il y a une résistance culturelle, les créateurs considèrent qu’ils font de l’alchimie et que leur travail ne doit pas être codé. Mais il existe aussi une tradition de « transcription de la mise en scène », pour des questions de transmission. J’aimerais bien regarder cela sérieusement. Malheureusement pour ceux qui veulent faire des recherches sur ces sujets, ces documents ne sont pas faciles à trouver.

    Binaire : Est-ce qu’on pourrait imaginer une IA qui réaliserait la transcription d’une mise en scène ?

    RR : J’aimerais beaucoup construire une telle IA. Mais ce n’est pas facile, car elle devrait être d’une certaine façon assez générale : intégrer des techniques de vision, de reconnaissance vocale, de traitement de la parole, de compréhension des mouvements, de la prosodie… Il lui faudrait s’appuyer sur une notation. Quelle notation ? À vrai dire c’est une de mes ambitions à long terme. Une difficulté pour une telle IA est de savoir où on s’arrête, de distinguer ce qui est important et ce qui ne l’est pas dans une mise en scène. Si à un moment donné, un acteur lève le petit doigt, est-ce un hasard, ou est-ce que cela fait partie de la mise en scène ?

    Binaire : Est-ce qu’on pourrait entraîner une IA sur des millions d’enregistrement de mises en scènes pour apprendre cela ?

    RR : Je n’y crois pas du tout avec les IA actuelles. Cela demande une forme de compréhension globale de trop d’aspects distincts. On pourrait déjà regarder ce qu’on peut faire avec une dizaine de mises en scènes différentes d’une même pièce ; on peut trouver cela pour des auteurs très populaires comme Marivaux.

    Mais… est-ce qu’il faut viser un tel but ? Ce n’est pas évident. J’imagine plutôt que la technologie assiste le metteur en scène, l’aide à donner des indications sur sa mise en scène, à transcrire la mise en scène. De telles transcriptions seraient utile pour garder des traces patrimoniales, une forme de dépôt légal.

    Mosaïque d’images filmées avec KinoAi et utilisées dans le 3eme court métrage cité. Crédit image : KinoAi.

     

    Binaire : Ces aspects patrimoniaux nous conduisent naturellement à ton outil KinoAi ? Mais d’abord, comment ça se prononce ?

    RR : On dit Kino-Aïe. Le nom est un clin d’œil à un mouvement important de l’histoire du cinéma [1]. Nous l’avons développé dans le cadre d’une thèse en partenariat avec le théâtre des Célestins à Lyon. La directrice du théâtre voulait enrichir leur site avec des vidéos de répétitions. Mais pour cela, il fallait les filmer, ce qui demande beaucoup d’efforts et coûte cher. Comment arriver à le faire sans les moyens considérables d’une grosse équipe de télévision ?

    Notre solution part d’une captation avec une seule caméra fixe de l’ensemble de la scène. Puis, des algorithmes détectent les acteurs, déterminent leurs positions, les identifient et les recadrent. Pour cela, on utilise des techniques existantes de détection des mouvements et des poses du corps. Notre logiciel propose des cadrages. La difficulté est qu’un bon cadrage doit capturer complètement un acteur et exclure les acteurs voisins, ou bien les inclure sans les découper. Et puis les acteurs bougent et tout cela doit être réalisé dynamiquement. Enfin, le metteur en scène peut choisir parmi plusieurs cadrages intéressants pour réaliser un film.

    Le problème de filmer automatiquement un spectacle est passionnant. On a fait déjà plusieurs courts métrages sur des répétitions de spectacles [2]. Et on continue à travailler sur le sujet, y compris pour la captation du produit final lui-même, le spectacle.

    Binaire : Mais pourquoi ne trouve-t-on pas plus les vidéos de spectacles ?

    RR : Le problème est d’abord commercial. Si la pièce est visible en ligne, cela incite moins les spectateurs à payer pour aller au théâtre ? Pour le théâtre privé, l’obstacle est là. Pour le théâtre public, ceux qui pensent filmer préfèrent carrément réaliser un vrai film. La diffusion vidéo de spectacles s’est un peu développée pendant le covid. J’espère que cette question reviendra. Pour des questions de préservation de notre patrimoine, on pourrait déjà filmer plus systématiquement les spectacles au moins en caméra fixe.

    Binaire : De nos jours, des IA sont utilisées en assistant pour l’écriture, par exemple de scénarios aux USA. Pourrait-on imaginer ça dans l’écriture de pièces de théâtre ?

    RR : Cela a déjà été imaginé ; des pièces ont été écrites par des IA et jouées. C’est un peu du buzz ; ça ne m’intéresse pas trop. C’est une drôle d’idée, on se demande pourquoi faire cela. Je trouve beaucoup plus intéressant d’avoir des IA qui aident à la mise en scène de textes écrits par des auteurs humains. C’est peut-être plus difficile, mais tellement plus intéressant !

    Par exemple, on peut utiliser de l’intelligence artificielle pour prévisualiser un spectacle qu’on a imaginé. L’auteur peut avoir, avec l’IA, une impression de ce que pourrait donner son texte. Et puis, les roboticiens s’intéressent beaucoup aussi à réaliser des robots qui jouent dans des spectacles.

    Binaire : Comment se fait la mayonnaise entre informaticiens et des artistes dans les spectacles ?

    RR : J’ai peu d’exemples parce que des formes longues de théâtre utilisant l’informatique sont encore rares. Mais la question se pose déjà quand on engage des projets de recherche sur le sujet. Le dialogue n’est pas toujours facile. Il faut vaincre des résistances. En tant qu’informaticien, on se sent bête quand on parle avec auteurs parce qu’on plonge dans un monde nouveau pour nous, dont on n’a pas tous les codes. On sort de sa zone de confort. Et certains artistes ont sûrement un sentiment symétrique. Du coup, il y a parfois une certaine timidité. C’est pour ça que j’organise des rencontres annuelles de la communauté en informatique théâtrale.

    Binaire : Comment ces travaux pluridisciplinaires se valorisent-t-ils au niveau académique, surtout pour les doctorants ?

    RR : Il faut faire très attention à rester dans une recherche validée par son domaine. L’idéal serait un système de thèses en parallèle en arts du théâtre et en informatique. Chacun reste dans sa discipline mais les deux décident de travailler ensemble. La difficulté est de synchroniser les intérêts, de trouver des sujets intéressants des deux côtés. On peut avoir un sujet super original et passionnant pour le théâtre mais qui ne met en jeu que des techniques standard en informatique. Ou on peut avoir des idées de techniques informatiques super novatrices qui laissent de marbre les gens de théâtre.

    Binaire : Comment les artistes s’approprient-ils les nouvelles technologies ?

    RR : Les artistes adorent détourner la technologie, faire l’inverse ce qui était prévu. Ils adorent également en montrer les limites. Pour les informaticiens, ce n’est pas toujours facile à accepter. On s’escrime à faire marcher un truc, et l’artiste insiste sur le seul aspect qui met en évidence l’imperfection ! On voit cela comme une déconsidération du travail de recherche. Mais en même temps, les détournements qu’ils imaginent sont passionnants.

    Binaire : Tu observes de leur part une tendance à la technophobie ?

    RR : Ce n’est pas du tout de la technophobie, puisque, par nature, les technophobes ne veulent pas travailler avec nous. Les autres nous aiment bien, mais ils gardent un regard hyper critique. Ce n’est pas facile mais cela rend la collaboration intéressante. Ces questionnements sont finalement très sains.

    Binaire : Et pour parler d’un autre domaine dans lequel tu as travaillé, quels sont les liens entre le jeu vidéo et l’informatique théâtrale ?

    RR : D’un point de vue technique, c’est curieusement assez proche. Je vois quand même une grande différence. En théâtre, on peut expérimenter, alors que dans le domaine du jeu vidéo, c’est difficile et cela représente des efforts de développement énormes. Il y a peu d’industriels du jeu vidéo avec qui on peut mener des expériences. Ils peuvent commander des trucs d’animation par exemple sur des points très techniques, mais ne sont pas du tout dans l’expérience. Le théâtre offre cette possibilité d’expérimenter, de faire de la recherche, parce qu’il est moins industrialisé, plus proche de l’artisanat.

    « Le théâtre est-il une industrie » est d’ailleurs l’objet d’une journée qu’on organise dans le cadre du programme de recherche ICCARE[3].

    Binaire : Et le métavers ?

    RR : Il existe une pratique du théâtre dans le métavers. Des acteurs ont utilisé le métavers pendant la pandémie avec un public distant, avec des casques de réalité virtuelle. C’est du théâtre distribué, qui apporte aux artistes de théâtre une forme d’ubiquité qui est complètement nouvelle pour eux. Un jour, on peut enregistrer un spectacle, et y assister voire participer le lendemain n’importe où dans le monde. Pour la musique, ce phénomène est devenu courant, au théâtre non.

    Aujourd’hui le théâtre est matériel et cela nous parait faire partie de son essence. Mais est-ce absolument nécessaire ? Qu’est-ce que ça changerait, si on avait un théâtre immatériel avec une immersion parfaite en réalité virtuelle ? Des risques existent évidemment comme de voir le modèle publicitaire en vogue coloniser ce nouveau  théâtre. Mais si on arrive à maîtriser ces risques, le métavers ouvre des perspectives folles dans le domaine des arts et de la culture, bien plus intéressantes à mon avis que ses perspectives commerciales.

    Serge Abiteboul, Inria et ENS Paris, et Charlotte Truchet, Université Paris Sorbonne et Ircam.

    [1] Kino-Eye, ou Ciné-Œil, ou Kino Glaz, est à la fois un film et un manifeste du réalisateur et théoricien du cinéma Dziga Vertov, parus ensemble à Moscou en 1924 .

    [2] Répétitions en cours, La fabrique des Monstres de Jean-François Peyret.

    [3] http://pepr-iccare.fr

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • La vision par ordinateur à votre service

    Un nouvel entretien autour de l’informatique.

    Gérard Medioni est un informaticien, professeur émérite d’informatique à l’université de Californie du Sud, vice-président et scientifique distingué d’Amazon. Il a des contributions fondamentales à la vision par ordinateur, en particulier à la détection 3D, à la reconstruction de surfaces et à la modélisation d’objets. Il a travaillé sur des questions fondamentales comme : Comment déduire des descriptions d’objets à partir d’images ? Comment « reconnaître » des objets que nous n’avons jamais vus ? Ses recherches ont inspiré nombre d’inventions qu’il a porté dans des startups puis chez Amazon.

    Gérard Médioni (Source G. Médioni)

     

    Binaire : Peux-tu nous raconter brièvement comment tu es devenu professeur d’informatique à l’Université de Californie du Sud ?

    GM : J’ai un parcours classique en France, en passant par le lycée Saint-Louis puis Télécom Paris. J’ai découvert l’informatique à Télécom. J’y ai écrit mon premier programme sur un ordinateur, un Iris 80. Il dessinait des figures de Moiré. J’ai découvert alors que les images pouvaient parler à tous.

    Figure de Moiré, Wikipédia Commons (cliquer sur le lien pour voir l’animation)

    J’étais attiré par la Californie, un peu à l’image de la chanson de Julien Clerc. J’ai candidaté dans des universités californiennes. J’ai été accepté à l’Université de Californie du Sud, à Los Angeles, dans le département d’Electrical Engineering. J’ai eu une bourse du gouvernement français. Quand je suis arrivé, le département d’informatique, minuscule alors avec seulement 3 professeurs, est venu me proposer de rejoindre ce département en tant qu’assistant.

    Je me suis retrouvé assistant du Professeur Nevatia, pour le cours d’Intelligence Artificielle, un sujet qui m’était totalement étranger. J’avais deux semaines d’avance sur les étudiants. J’ai découvert alors que le meilleur moyen d’apprendre un sujet était de l’enseigner. De fil en aiguille, je suis devenu prof dans ce département.

    Partition de « La Californie », musée Sacem

     

    Binaire : Peux-tu nous parler de ta recherche académique à l’Université de Californie du Sud ?

    GM : Quand j’étais à Télécom, un grand professeur américain, King-Sun Fu, est venu faire un séminaire. Il nous a présenté l’image d’un cube, et nous a demandé comment un ordinateur pouvait comprendre cette image. Je ne comprenais même pas la question. Et puis, en y réfléchissant, j’ai fini par réaliser la distance qui existe entre une image, un tableau de pixels, et notre perception d’une scène en tant qu’éléments sémantiques, objets, personnes et relations ; nous reconnaissons peut-être un objet, un animal. Comment notre cerveau réalise-t-il cela ? Comment un algorithme peut-il le faire ? J’ai passé ma vie à répondre à ces questions. Elle est assez complexe pour me garantir à vie des sujets de recherche passionnants.

    Le sujet est donc la vision par ordinateur qui s’intéresse à donner du sens à des images, des films, à comprendre la sémantique présente dans des nuages de points. Pour y arriver, on a développé toute une gamme de techniques. Par exemple, en observant une même scène en stéréo avec deux caméras qui capturent des images en deux dimensions à partir de points de vue légèrement différents, on peut essayer de reconstruire la troisième dimension.

    Binaire : l’intelligence artificielle a-t-elle transformé ce domaine ?

    GM : Elle l’a véritablement révolutionné. La vision par ordinateur obtenait de beaux résultats jusqu’en 2012, mais dans des domaines restreints, dans des environnements particuliers. Et puis, on a compris que le deep learning* ouvrait des possibilités fantastiques. Depuis, on a obtenu des résultats extraordinaires en vision par ordinateur. Je pourrais parler de cela quand on arrivera à mon travail sur Just walk out d’Amazon.

    Binaire : Tu fais une belle recherche, plutôt fondamentale, avec de superbes résultats. Tu aurais pu en rester là. Qu’est-ce qui te motive pour travailler aussi sur des applications ?

    GM : On voit souvent un professeur d’université comme quelqu’un qui invente un problème dans sa tour d’ivoire, et lui trouve une solution. Au final, son problème et sa solution n’intéressent pas grand monde. Ce n’est pas mon truc. J’ai toujours été attiré par les vrais problèmes. Quand les ingénieurs d’une équipe industrielle sont bloqués par un problème, qu’ils n’arrivent pas à le résoudre, ce n’est pas parce qu’ils sont médiocres, c’est souvent parce que le problème est un vrai défi, et que le cœur du sujet est un verrou scientifique. Et là, ça m’intéresse.

    Aide visuelle pour les aveugles (Source G. Médioni) 

     

    Pour prendre un exemple concret, j’ai travaillé plusieurs années sur l’aide à la navigation de personnes aveugles. Le système consistait en une caméra pour étudier l’environnement et de micro-moteurs dans les vestes des personnes pour leur transmettre des signaux. On a réalisé un proof of concept (preuve de concept), et cela a été un franc succès. Et puis, j’ai reçu un courriel d’une personne aveugle qui me demandait quand elle pourrait utiliser le système. Je n’ai pas pu lui répondre et j’ai trouvé cela hyper déprimant. Je voulais aller jusqu’au produit final. Pour faire cela, il fallait travailler directement avec des entreprises.

    Binaire : Cela t’a donc conduit à travailler souvent avec des entreprises. Pourrais-tu nous parler de certains de tes travaux ?

    GM : J’ai beaucoup travaillé avec des entreprises américaines, israéliennes, ou françaises. J’ai participé au dépôt de nombreux brevets. Une de mes grandes fiertés est d’avoir participé au développement d’une camera 3D qui se trouve aujourd’hui dans des millions de téléphones. J’ai travaillé, pour une entreprise qui s’appelait Primesense, sur une caméra très bon marché qui équipait un produit que vous connaissez peut-être, le Microsoft Kinect. Kinect est rentré dans le Guinness des records comme le consumer electronics device (appareil électronique grand public) le plus rapidement vendu massivement. Primesense a été rachetée ensuite par Apple, et aujourd’hui cette technologie équipe les caméras des Iphones.  Je suis fier d’avoir participé au développement de cette technologie !

    Senseur Primesensense intégré dans l’iPhone (Source G.Médioni)

     

    Et puis, un jour Amazon m’a contacté pour me proposer de m’embaucher pour un projet sur lequel ils ne pouvaient rien me dire. Je leur ai répondu que j’aimais mon travail de prof et que je ne cherchais pas autre chose. Ils ont insisté. Je les ai rencontrés. Et ils ont fini par me parler d’Amazon Go, des boutiques sans caissier. C’était techniquement fou, super complexe. C’était évidemment tentant. Je leur ai posé sans trop y croire des conditions dingues comme de pouvoir recruter plein de chercheurs, de monter un labo de R&D en Israël. Ils ont dit oui à tout. Je bosse pour Amazon depuis 10 ans, et j’aime ce que j’y fais.

    Binaire : Pourrais-tu nous en dire un peu plus sur Amazon Go, et sur le projet suivant Just Walk Out ? Quelles étaient les difficultés ?

    GM : Avec Amazon Go, le client entre dans un magasin, prend ce qu’il veut et ressort. Il ne s’arrête pas à la caisse pour payer. Les vidéos de caméras placées dans tout le magasin sont analysées en permanence. Le client présente un mode de paiement à l’entrée, auquel une signature visuelle est associée. Ainsi, le système permet de le localiser dans le magasin, de détecter quand il prend ou qu’il pose un objet, quel est cet objet. Un reçu virtuel est mis à jour automatiquement. Quand le client sort du magasin, le reçu virtuel devient un reçu définitif et le paiement s’effectue. On a testé Amazon Go en 2017 dans des magasins pour les employés d’Amazon, et puis on a ouvert au public en 2018.

    Une difficulté est qu’il faut que ça fonctionne tout le temps, et pour tous les clients, avec un très bon niveau de précision. On a très peu droit à l’erreur si on ne veut pas perdre la confiance des clients.

    Plutôt que de créer des magasins avec tout le métier que cela représente, Amazon a choisi dans un deuxième temps de proposer cette techno à des magasins existants pour les équiper. On est passé à Just Walk Out, il y a deux ans. On équipe aujourd’hui plus de 160 points de vente, notamment dans des stades et des aéroports.

    Binaire : Pourrait-on parler maintenant du deep learning et de sa place dans ce projet ?

    GM : Au début du projet, Amazon Go n’utilisait pas le deep learning. Et autour de 2012, nous avons été convaincus que cette techno apporterait des améliorations considérables. Cela a un peu été comme de changer le moteur de l’avion en plein vol. Nos équipes travaillaient avant sur des modules séparés que l’on combinait. Mais chaque modification d’un module était lourde à gérer. On est passé avec le deep learning et le end-to-end learning** à un seul module. L’apprentissage permet d’améliorer toutes les facettes de ce module en même temps. Cela n’a pas été simple de faire évoluer toutes les équipes. On y est arrivé, et cela fonctionne bien mieux, plus efficacement.  

    Binaire : Pourquoi cette technologie ne s’est-elle pas installée sur plus de supermarchés ?

    GM : Un problème est que, dans des grandes surfaces, certains produits sont difficiles à gérer : les fruits et légumes au poids, les fleurs, le vrac… La techno s’est donc déployée dans des domaines où l’attente des clients est un vrai problème comme les évènements sportifs et culturels.

    Binaire : Tu participes ensuite à la création du service d’identité biométrique Amazon One, pour faciliter le paiement et d’autres fonctions. Pourrais-tu nous dire en quoi cela consiste ?

    GM : À Amazon, un souci constant est de résoudre les problèmes de nos clients. Pour Just Walk Out, c’était très clair, personne n’aime faire la queue à la caisse. Avec Amazon One, le problème est celui de valider son identité. Pour faire cela, de nombreuses méthodes peuvent être considérées : ADN, empreinte digitale, iris, etc. Nous avons choisi d’utiliser la paume de la main. On est arrivé à faire plus que de la vérification : de l’identification. On peut trouver une personne parmi des millions dans une base de données, ou détecter qu’elle n’y est pas.

    Pour réaliser cela, on prend deux images : une de la surface de la paume de la main et une autre en infrarouge du réseau sanguin. Ces informations indépendantes se complémentent et identifient une personne avec une surprenante précision, 1000 fois plus précis que le visage, et 100 fois plus que les 2 iris des yeux !

    L’appareil de Amazon One, ©Amazon

     

    Binaire : En vieillissant, ma paume ne va-t-elle pas changer ?

    GM : Oui, lentement et progressivement. Mais, à chaque fois que vous utilisez le service, la signature est mise à jour. Si vous ne vous servez pas du service pendant deux ans, on vous demande de vous réidentifier.

    Binaire : Et aujourd’hui, sur quoi travailles-tu ?

    GM : Je travaille pour le service Prime Video d’Amazon. Nous cherchons à créer de nouvelles expériences vidéos pour le divertissement.

    Binaire : Tu es resté lié à des chercheurs français. Pourrais-tu nous dire comment tu vois la différence entre la recherche en informatique aux US et en France ?

    GM : L’éducation française est extraordinaire ! La qualité des chercheurs en informatique en France est excellente. Mais l’intelligence artificielle change la donne. La France avec des startups comme Mistral est à la pointe du domaine. Mais, pour rester dans la course, une infrastructure énorme est indispensable. Cela exige d’énormes investissements. Est-ce qu’ils sont là ?

    Les talents existent en France. Il faut arriver à construire un cadre, des écosystèmes, dans lesquels ils puissent s’épanouir pour créer de la valeur technologique.

    Binaire : Aurais-tu un conseil pour les jeunes chercheurs ?

    GM : Le monde de la publication a changé fondamentalement. Les publications dans des journaux ont perdu de leur importance, car elles prennent trop de temps. Et même aujourd’hui, une publication dans une conférence arrive tard. Si on ne suit pas les prépublications comme sur arXiv, on n’est plus dans le coup.

    Personne n’avait vu venir le deep learning, les large language models… On vit une révolution technologique incroyable de l’informatique et de l’intelligence artificielle.  La puissance des outils qu’on développe est fantastique. Tous les domaines sont impactés, médecine, transport, agriculture, etc.

    Les chercheurs vont pouvoir faire plus, beaucoup plus vite. Les jeunes chercheurs vont pouvoir obtenir des résultats dingues. Mais, il va leur falloir être très agiles !

    Serge Abiteboul, Inria, & Ikram Chraibi Kaadoud, Inria

    (Serge Abiteboul a étudié avec Gérard Médioni à Télécom et USC. Ils sont amis depuis.)

    Pour aller plus loin 

    (*) Le deep learning ou « apprentissage profond » est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes.

    (**) L’end-to-end learning ou « apprentissage de bout en bout » est un type de processus d’apprentissage profond dans lequel tous les paramètres sont mis au point en même temps, plutôt que séparément.

     

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

     

  • Sarah et le virus de bioinformatique

    Un nouvel entretien autour de l’informatique.

    Sarah Cohen-Boulakia est bioinformaticienne,  professeure à l’Université Paris Saclay et chercheuse au Laboratoire Interdisciplinaire des Sciences du Numérique. Elle est spécialiste en science des données, notamment de l’analyse et l’intégration de données biologiques et biomédicales. Pendant la crise du covid, elle a participé à l’intégration les résultats de milliers d’essais cliniques. Elle a obtenu en 2024 la médaille d’argent du CNRS. Elle est directrice adjointe sur les aspects formation de l’institut DATAIA. Elle participe également au montage du réseau français de reproductibilité.

    Sarah Cohen-Boulakia, Site du LISN

     

    Binaire : Comment es-tu devenue informaticienne ?

    SCB : Quand je suis entrée à l’Université, j’ai commencé par faire des maths. Et puis j’ai rencontré des informaticiennes, des enseignantes formidables comme Marie-Christine Rousset, Christine Froidevaux, ou Claire Mathieu, qui commençait ses cours en poussant les tables dans toute la salle, parce qu’elle disait que c’était comme ça qu’on pouvait mieux “travailler l’algo”. Elles étaient brillantes, passionnées ; certaines avaient même un côté un peu dingue qui me plaisait énormément. Je me suis mise à l’informatique.

    J’avais de bons résultats, mais je n’aurais jamais osé penser que je pouvais faire une thèse. C’est encore une enseignante, Christine Paulin, qui m’a littéralement fait passer de la salle de réunion d’information sur les Masters Pro (DESS à l’époque) à celle pour les Master Recherche (DEA). Je l’ai écoutée, j’ai fait de belles rencontres, fini major de promo de mon DEA et j’ai décidé avec grand plaisir de faire une thèse.

    Binaire : Tu cites des enseignantes. C’était important que ce soit des femmes ?

    SCB : Oh oui ! Parce que c’était impressionnant en licence d’être seulement sept filles dans un amphi de 180 personnes. Elles m’ont montré qu’il y avait aussi une place pour nous. Mais j’ai eu aussi d’excellents enseignants masculins ! Grâce à elles et eux, j’ai mordu à la recherche. Pour moi, la science est un virus qui fait du bien. Les enseignants se doivent de transmettre ce virus. Maintenant, j’essaie à mon tour de le partager au maximum.

    © Léa Castor / INS2I (Les décodeuses du numérique !)

     

    Binaire : Tu travailles sur l’intégration de données biologiques. Qu’est-ce que ça veut dire ?

    SCB : En biologie, on dispose de beaucoup de données, de points de vue différents, de formats très différents : des mesures, des diagrammes, des images, des textes, etc. L’intégration de données biologiques consiste à combiner ces données provenant de différentes sources pour en extraire des connaissances : l’évolution d’une maladie, la santé d’un patient ou d’une population…

    Binaire : Où sont stockées ces données ?

    SCB : Des données de santé sont collectées dans de grandes bases de données gérées par l’État, le Ministère de la Santé, la CNAM. Elles sont pseudonymisées : le nom du patient est remplacé par un pseudonyme qui permet de relier les données concernant le même patient mais en protégeant son identité. D’autres données sont obtenues par les hôpitaux pour tracer le parcours de soin. En plus de tout cela, il y a toutes les données de la recherche, comme les études sur une cohorte pour une pathologie donnée. Toutes ces données sont essentielles mais également sensibles. On ne peut pas faire n’importe quoi avec.

    Binaire : Pourrais-tu nous donner un exemple de ton travail, un exemple de recherche en informatique sur ce qu’on peut faire avec ces données ?

    SCB : Un médecin peut rechercher, par exemple, les gènes associés à une maladie. Avec un moteur de recherche médical, il tape le nom de la maladie qu’il étudie et il obtient une liste de gènes, triés dans l’ordre de pertinence. Le problème, c’est que la maladie peut être référencée sous plusieurs noms. Si le médecin tape un synonyme du nom de la maladie dans le moteur de recherche, la liste de gènes obtenus est sensiblement modifiée, de nouveaux gènes peuvent apparaître et leur ordre d’importance être différent. L’enjeu ici c’est à partir d’un ensemble de listes de gènes de construire une liste de gènes consensuelle : classant au début les gènes très bien classés dans un grand nombre de listes tout en minimisant les désaccords. Ce classement est bien plus riche en information pour les médecins que celui obtenu avec une simple recherche avec le nom commun de la maladie. Derrière cela, il y a un objet mathématique beaucoup étudié, les permutations. 

    Travailler sur les classements de résultats, c’est loin d’être simple algorithmiquement. Et ce problème est proche d’un autre problème dans une autre communauté : la théorie du vote. La situation est similaire, pour le vote, on a un grand nombre de votants (de milliers) qui votent pour un relativement petit nombre de candidats (une dizaine). Dans notre contexte biomédical, nous avons un grand nombre de gènes potentiellement associés à une maladie (des centaines) et un petit nombre de synonymes pour la maladie (une dizaine). Cela change un peu les choses, on reste dans un problème difficile et on peut s’inspirer de certaines solutions. Nous avons développé un outil basé sur ces recherches dans lequel les médecins mettent simplement le nom de la maladie à étudier, l’outil cherche automatiquement les synonymes dans les bases de synonymes, récupère les listes de gènes et fournit un classement consensuel. Avec notre outil, les médecins accèdent à une liste de gènes qui leur donne des informations plus complètes et plus fiables.

    Binaire : Les données de santé sont évidemment essentielles. On parle beaucoup en ce moment du Health Data Hub. Pourrais-tu nous en dire quelques mots ?

    SCB : Le Health Data Hub (HDH) propose un guichet d’entrée aux données de santé pour améliorer les soins, l’accompagnement des patients, et la recherche sur ces données. Le HDH a soulevé une polémique en choisissant un stockage dans Microsoft Azure, un service de cloud américain. Même si le stockage est conforme au RGPD, il pose un problème de souveraineté. Ce n’est pas une question d’impossibilité : d’autres données, de volume et complexité comparables sont sur des serveurs français. On espère que ce sera corrigé mais cela va sûrement durer au moins quelques années.

    Binaire : Tu travailles sur les workflows scientifiques. Pourrais-tu expliquer cela aux lecteurs de binaire ?

    SCB : Pour intégrer de gros volumes de données et les analyser, on est amené à combiner un assez grand nombre d’opérations avec différents logiciels, souvent des logiciels libres. On crée des chaînes de traitements parfois très complexes, en séquençant ou en menant en parallèle certains de ces traitements. Un workflow est une description d’un tel processus (souvent un code) pour s’en souvenir, le transmettre, peut-être le réaliser automatiquement. Pour les chercheurs, il tient un peu la place des cahiers de laboratoires d’antan.

    Un workflow favorise la transparence, ce qui est fondamental en recherche. Définir du code informatique qui peut être réalisé par une machine mais également lu et compris par un humain permet de partager son travail, de travailler avec des collègues experts de différents domaines.

    Binaire : Les workflows nous amènent à la reproductibilité, un sujet qui te tient particulièrement à cœur.

    SCB : La reproductibilité d’une expérience permet à quelqu’un d’autre de réaliser la même expérience de nouveau, et d’obtenir, on l’espère, le même résultat. Compte tenu de la complexité d’une expérience et des variations de ses conditions de réalisation, c’est loin d’être évident. Nous avons toutes et tous vécu de grands moments de solitude en travaux pratiques de chimie quand on fait tout comme le prof a dit : on mélange, on secoue, c’est censé devenir bleu, et … ça ne se passe pas comme ça. Cela peut être pour de nombreuses raisons : parce qu’on n’est pas à la bonne température, que le mélange est mal fait, que le tube n’est pas propre, etc. Pour permettre la reproductibilité il faut préciser les conditions exactes qui font que l’expérience marche.

    Le problème se pose aussi en informatique. Par exemple, on peut penser que si on fait tourner deux fois le même programme sur la même machine, on obtient le même résultat. La réponse courte c’est pas toujours  ! Il suffit de presque rien, une mise à jour du compilateur du langage, du contexte d’exécution, d’un paramétrage un peu différent, et, par exemple, on obtient des arbres phylogénétiques complètement différents sur les mêmes données génétiques !

    Binaire : Pourquoi est-il important d’être capable de reproduire les expériences ?

    SCB : La science est cumulative. Le scientifique est un nain sur des épaules de géants. Il s’appuie sur les résultats des scientifiques avant lui pour ne pas tout refaire, ne pas tout réinventer. S’il utilise des résultats erronés, il peut partir sur une mauvaise piste, la science se fourvoie, le géant chancelle.

    Des résultats peuvent être faux à cause de la fraude, parce que le scientifique a trafiqué ses résultats pour que son article soit publié. Ils peuvent être faux parce que le travail a été bâclé. Une étude de 2009 publiée par le New York Times a montré que la proportion de fraude varie peu, par contre le nombre de résultats faux a beaucoup augmenté. Les erreurs viennent d’erreurs de calcul statistiques, de mauvaises utilisations de modèles, parfois de calculs de logiciels mal utilisés. Cela arrive beaucoup en ce moment à cause d’une règle qui s’est imposée aux chercheurs : “publish or perish” (publie ou péris, en français) ;  cette loi pousse les scientifiques à publier de façon massive au détriment de la qualité et de la vérification de leurs résultats.

    La reproductibilité s’attache à combattre cette tendance. Il ne s’agit pas de rajouter des couches de processus lourds mais de les amener à une prise de conscience collective. Il faudrait aller vers moins de publications mais des publications beaucoup plus solides. Publier moins peut avoir des effets très positifs. Par exemple, en vérifiant un résultat, en cherchant les effets des variations de paramètres, on peut être conduit à bien mieux comprendre son résultat, ce qui fait progresser la science.

    Binaire : Tu es directrice adjointe de l’institut DATAIA. Qu’est-ce que c’est ?

    SCB : L’Université Paris-Saclay est prestigieuse, mais elle est aussi très grande. On y trouve de l’IA et des données dans de nombreux établissements et l’IA est utilisée dans de nombreuses disciplines. Dans l’institut DATAIA, nous essayons de coordonner la recherche, la formation et l’innovation à UPS dans ces domaines. Il s’agit en particulier de fédérer les expertises pluridisciplinaires des scientifiques de UPS pour développer une recherche de pointe en science des données en lien avec d’autres disciplines telles que la médecine, la physique ou les sciences humaines et sociales. En ce qui me concerne, je coordonne le volet formation à l’IA dans toutes les disciplines de l’université. Un de mes objectifs est d’attirer des talents plus variés dans l’IA, plus mixtes et paritaires.

    Binaire : Tu travailles dans un domaine interdisciplinaire. Est-ce que, par exemple, les différences entre informaticiens et biologistes ne posent pas de problèmes particuliers ?

    SCB : Je dis souvent pour provoquer que l’interdisciplinarité, “ça fait mal”… parce que les résultats sont longs à émerger. Il faut au départ se mettre d’accord sur le vocabulaire, les enjeux, les partages du travail et des résultats (qui profite de ce travail). Chaque discipline a sa conférence ou revue phare et ce qui est un objectif de résultat pour les uns ne l’est pas pour les autres. L’interdisciplinarité doit se construire comme un échange : en tant qu’informaticienne je dois parfois coder, implémenter des solutions assez classiques sur les données de mes collaborateurs mais en retour ces médecins et biologistes passent un temps long et précieux à annoter, interpréter les résultats que j’ai pu obtenir et ils me font avancer.

    Depuis le début de ma carrière, j’ai toujours adoré les interactions interdisciplinaires avec les biologistes et les médecins. Grâce à ces échanges, on développe un algorithme nouveau qui répond à leur besoin, cet algorithme n’est pas juste un résultat dans un article, il est utilisé par eux. Parfois plus tard on se rend aussi compte que cet algorithme répond aux besoins d’autres disciplines.

    Pendant la crise du covid, le CNRS m’a demandé de monter une équipe – collègues enseignants-chercheurs et ingénieurs – et ensemble nous sommes partis au feu pour aider des médecins à rapidement extraire les traitements prometteurs pour la Covid-19 à partir des données de l’OMS… Ces médecins travaillaient jours et nuits depuis plusieurs semaines… Nous les avons rejoints dans leurs nuits blanches pour les aider à automatiser leurs actions, pour intégrer ces données et proposer un cadre représentant tous les essais de façon uniforme. J’étais très heureuse de pouvoir les aider. Ils m’ont fait découvrir comment étaient gérés les essais cliniques au niveau international. A l’époque, je ne savais pas ce qu’était un essai clinique mais cela ressemblait fort à des données que je connaissais bien et j’avais l’habitude d’interagir avec des non informaticiens; maintenant je peux t’en parler pendant des heures. J’ai fait des rencontres incroyables avec des chercheurs passionnants.

    Serge Abiteboul, Inria et ENS, Paris, Charlotte Truchet, Université de Nantes.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’universalité de la vérification des démonstrations mathématiques

    Un nouvel « Entretien autour de l’informatique ». Gilles Dowek est chercheur en informatique chez Inria et enseignant à l’ENS de Paris-Saclay. Il est lauréat du Grand prix de philosophie 2007 de l’Académie française pour son ouvrage Les métamorphoses du calcul, une étonnante histoire de mathématiques (éditions Le Pommier) et du Grand prix Inria – Académie des sciences 2023 pour ses travaux sur les systèmes de vérification automatique de démonstrations mathématiques. Il a brièvement travaillé sur le système Coq au début de sa carrière. Il est à l’origine de Dedukti, un cadre logique permettant d’exprimer les théories utilisées dans différents systèmes de vérification de démonstrations. C’est l’une des personnes qui a le plus contribué à l’introduction en France de l’enseignement de l’informatique au collège et au lycée.

    Gilles Dowek, © Inria / Photo B. Fourrier

    Binaire : Comment doit-on te présenter ? Mathématicien, logicien, informaticien ou philosophe ?

    GD :  Le seul métier que j’aie jamais exercé, c’est informaticien. La séparation des connaissances en disciplines est bien sûr toujours un peu arbitraire. Il y a des frontières qu’on passe facilement. Mes travaux empiètent donc sur les mathématiques, la logique et la philosophie. Mais je suis informaticien.

    Binaire : Peux-tu nous raconter brièvement ta vie professionnelle ?

    GD : Enfant, je voulais déjà être chercheur, mais je ne savais pas dans quelle discipline. Les chercheurs que je connaissais étaient surtout des physiciens : Einstein, Marie Curie… Je voyais dans la recherche une construction collective qui durait toute l’histoire de l’humanité.  J’étais attiré par l’idée d’apporter une contribution, peut-être modeste, à cette grande aventure. Mes fréquentes visites au Palais de la Découverte m’ont encouragé dans cette voie.

    J’ai commencé ma carrière de chercheur assez jeune grâce à l’entreprise Philips, qui organisait, à l’époque, chaque année un concours pour les chercheurs de moins de 21 ans, des amateurs donc. J’ai proposé un programme pour jouer au Master Mind et j’ai obtenu le 3ème prix. Jacques-Louis Lions qui participait au jury a fait lire mon mémoire à Gérard Huet, qui l’a fait lire à François Fages. J’avais chez moi en 1982 un ordinateur avec 1 k-octet de mémoire et mon algorithme avait besoin de plus. Je ne pouvais l’utiliser qu’en fin de partie et je devais utiliser un autre algorithme, moins bon, pour le début et le milieu de la partie.

    Gérard et François m’ont invité à faire un stage pendant les vacances de Noël 1982. Ils ont tenté de m’intéresser à leurs recherches sur la réécriture, mais sans succès. La seule chose que je voulais était utiliser leurs ordinateurs pour implémenter mon algorithme pour jouer au Master Mind. Et ils m’ont laissé faire. Cela m’a permis d’avoir de bien meilleurs résultats et de finir avec le 3ème prix, cette fois au niveau européen.

    Durant ce stage, Gérard m’avait quand même expliqué qu’il n’y avait pas d’algorithme pour décider si un programme terminait ou non ; il m’a juste dit que c’était un théorème, sans m’en donner la démonstration. Mais cela me semblait incroyable. À l’époque, pour moi, l’informatique se résumait à écrire des programmes ; je voyais cela comme une forme d’artisanat. Ce théorème m’ouvrait de nouveaux horizons : l’informatique devenait une vraie science, avec des résultats, et même des résultats négatifs. C’est ce qui m’a fait changer de projet professionnel.

    Gérard m’avait aussi dit que, pour si je voulais vraiment être chercheur et avoir un poste, je devais faire des études. Alors j’ai fait des études, prépa puis école d’ingénieur. Je suis retourné chez Gérard Huet, pour mon stage de recherche de fin d’étude, puis pour ma thèse. Ensuite, je suis devenu professionnel de la recherche ; j’ai eu un poste et j’ai obtenu le grand plaisir de gagner ma vie en faisant ce qui m’intéressait et qui, le plus souvent, qui me procure toujours une très grande joie.

    Binaire : Peux-tu nous parler de ta recherche ?

    GD : En thèse, je cherchais des algorithmes de démonstration automatique pour produire des démonstrations dans un système qui est devenu aujourd’hui le système Coq. Mais dans les conférences, je découvrais que d’autres gens développaient d’autres systèmes de vérification de démonstrations, un peu différents. Cela me semblait une organisation curieuse du travail. Chacun de son côté développait son propre système, alors que les mathématiques sont, par nature, universelles.

    Qu’est-ce qu’un système de vérification de démonstrations mathématiques ? Prouver un théorème n’est pas facile. En fait, comme l’ont montré Church et Turing, il n’existe pas d’algorithme qui puisse nous dire, quand on lui donne un énoncé, si cet énoncé a une démonstration ou non. En revanche, si, en plus de l’énoncé du théorème, on donne une démonstration potentielle de cet énoncé, il est possible de vérifier avec un algorithme que la démonstration est correcte. Trouver des méthodes pour vérifier automatiquement les démonstrations mathématiques était le programme de recherche de Robin Milner (Prix Turing) et également de Nicolaas De Bruijn. Mais en faisant cela, ils se sont rendu compte que si on voulait faire vérifier des démonstrations par des machines, il fallait les écrire très différemment, et beaucoup plus rigoureusement, que la manière dont on les écrit habituellement pour les communiquer à d’autres mathématiciens.

    Les travaux de Milner et de De Bruijn ouvraient donc une nouvelle étape dans l’histoire de la rigueur mathématique, comme avant eux, ceux d’Euclide, de Russell et Whitehead et de Bourbaki. Le langage dans lequel on exprime les démonstrations devient plus précis, plus rigoureux. L’utilisation de logiciels change la nature même des mathématiques en créant, par exemple, la possibilité de construire des démonstrations qui font des millions de pages.

    Notre travail était passionnant mais je restais insatisfait par le côté tour de Babel : chaque groupe arrivait avec son langage et son système de vérification. Est-ce que cela impliquait à un relativisme de la notion de vérité ? Il me semblait que cela conduisait à une crise de l’universalité de la vérité mathématique. Ce n’était certes pas la première de l’histoire, mais les crises précédentes avaient été résolues. J’ai donc cherché à construire des outils pour résoudre cette crise-là.

    Binaire : Est-ce qu’on ne rencontre pas un problème assez semblable avec les langages de programmation ? On a de nombreuses propositions de langages.

    GD : Tout à fait. Cela tient à la nature même des langages formels. Il faut faire des choix dans la manière de s’exprimer. Pour implémenter l’algorithme de l’addition dans un langage de programmation (ajouter les unités avec les unités, puis les dizaines avec les dizaines, etc. en propageant la retenue), on doit décider comment représenter les nombres, si le symbole « etc. » traduit une boucle, une définition par récurrence, une définition récursive, etc. Mais pour les langages de programmation, il y a des traducteurs (les compilateurs) pour passer d’un langage à un autre. Et on a un avantage énorme : tous les langages de programmation permettent d’exprimer les mêmes fonctions : les fonctions calculables.

    Avec les démonstrations mathématiques, c’est plus compliqué. Tous les langages ne sont pas équivalents. Une démonstration particulière peut être exprimable dans un langage mais pas dans un autre. Pire, il n’y a pas de langage qui permette d’exprimer toutes les démonstrations : c’est une conséquence assez simple du théorème de Gödel. Peut-on traduire des démonstrations d’un langage vers un autre ? Oui, mais seulement partiellement.

    Pour résoudre une précédente crise de l’universalité de la vérité mathématique, la crise des géométries non euclidiennes (*), Hilbert et Ackermann avaient introduit une méthode : ils avaient mis en évidence que Euclide, Lobatchevski et Riemann n’utilisaient pas les mêmes axiomes, mais surtout ils avaient proposé un langage universel, la logique des prédicats, dans lequel ces différents axiomes pouvaient s’exprimer. Cette logique des prédicats a été un grand succès des mathématiques des années 1920 et 1930 puisque, non seulement les différentes géométries, mais aussi l’arithmétique et la théorie des ensembles s’exprimaient dans ce cadre. Mais, rétrospectivement, on voit bien qu’il y avait un problème avec la logique des prédicats, puisque personne n’avait exprimé, dans ce cadre logique, la théorie des types de Russell, une autre théorie importante à cette époque. Et pour le faire, il aurait fallu étendre la logique des prédicats. Par la suite, de nombreuses autres théories ont été proposées, en particulier le Calcul des Constructions, qui est le langage du système Coq, et n’ont pas été exprimée dans ce cadre.

    Au début de ma carrière, je pensais qu’il suffisait d’exprimer le Calcul des Constructions dans la logique des prédicats pour sortir de la tour de Babel et retrouver l’universalité de la vérité mathématique. C’était long, pénible, frustrant, et en fait, cette piste m’a conduit à une impasse. Mais cela m’a surtout permis de comprendre que nous avions besoin d’autres cadres que la logique des prédicats. Et, depuis les années 1980, plusieurs nouveaux cadres logiques étaient apparus dans les travaux de Dale Miller, Larry Paulson, Tobias Nipkow, Bob Harper, Furio Honsel, Gordon Plotkin, et d’autres. Nous avons emprunté de nombreuses idées à ces travaux pour aboutir à un nouveau cadre logique que nous avons appelé Dedukti (“déduire” en espéranto). C’est un cadre général, c’est-à-dire un langage pour définir des langages pour exprimer des démonstrations. En Dedukti, on peut définir par exemple la théorie des types de Russell ou le Calcul des Constructions et on peut mettre en évidence les axiomes utilisés dans chaque théorie, et surtout dans chaque démonstration.

    Binaire : Pourquoi l’appeler Dedukti ? Ce n’est pas anodin ?

    GD : Qu’est-ce qui guidait ces travaux ? L’idée que certaines choses, comme la vérité mathématique, sont communes à toute l’humanité, par-delà les différences culturelles. Nous étions attachés à cette universalité des démonstrations mathématiques, les voir comme des “communs”. Dans l’esprit, les liens avec des communs numériques comme les logiciels libres sont d’ailleurs étroits. On retrouve les valeurs d’universalité et de partage. Il se trouve d’ailleurs que la plupart des systèmes de vérification de démonstrations sont des logiciels libres. Coq et Dedukti le sont. Vérifier une démonstration avec un système qu’on ne peut pas lui-même vérifier, parce que son code n’est pas ouvert, ce serait bizarre.

    Revenons sur cette universalité. Si quelqu’un arrivait avec une théorie et qu’on n’arrivait pas à exprimer cette théorie dans Dedukti, il faudrait changer Dedukti, le faire évoluer. Il n’est pas question d’imposer un seul système, ce serait brider la créativité. Ce qu’on vise, c’est un cadre général qui englobe tous les systèmes de vérification de démonstrations utilisés.

    Longtemps, nous étions des gourous sans disciples : nous avions un langage universel, mais les seuls utilisateurs de Dedukti étaient l’équipe de ses concepteurs. Mais depuis peu, Dedukti commence à avoir des utilisateurs extérieurs à notre équipe, un peu partout dans le monde. C’est bien entendu une expansion modeste, mais cela montre que nos idées commencent à être comprises et partagées.

    Binaire : Tu es très intéressé par les langages formels. Tu as même écrit un livre sur ce sujet. Pourrais-tu nous en parler ?

    GD : Les débutants en informatique découvrent d’abord les langages de programmation. L’apprentissage d’un langage de programmation n’est pas facile. Mais la principale difficulté de cet apprentissage vient du fait que les langages de programmation sont des langages. Quand on s’exprime dans un langage, il faut tout dire, mais avec un vocabulaire et une syntaxe très pauvre. Les langages de démonstrations sont proches des langages de programmation. Mais de nombreux autres langages formels sont utilisés en informatique, par exemple des langages de requêtes comme SQL, des langages de description de pages web comme HTML, et d’autres. Le concept de langage formel est un concept central de l’informatique.

    Mais ce concept a une histoire bien plus ancienne que l’informatique elle-même. Les humains ont depuis longtemps inventé des langages dans des domaines particuliers, comme les ophtalmologistes pour prescrire des lunettes. On peut multiplier les exemples : en mathématiques, les langages des nombres, de l’arithmétique, de l’algèbre, où apparaît pour la première fois la notion de variable, les cylindres à picots des automates, le langage des réactions chimiques, inventé au XIXe siècle, la notation musicale.

    C’est le sujet de mon livre, Ce dont on ne peut parler, il faut l’écrire (Le Pommier, 2019). La création de langage est un énorme champ de notre culture. Les langages sont créés de toute pièce dans des buts spécifiques. Ils sont bien plus simples que les langues naturelles utilisées à l’oral. Ils expriment moins de choses mais ils sont souvent au centre des progrès scientifiques. L’écriture a probablement été inventée d’abord pour fixer des textes exprimés dans des langages formels et non dans des langues.

    Binaire : Tu fais une très belle recherche, plutôt fondamentale. Est-ce que faire de la recherche fondamentale sert à quelque chose ?

    GD : Je ne sais pas si je fais de la recherche fondamentale. En un certain sens, toute l’informatique est appliquée.

    Maintenant, est-ce que la recherche fondamentale sert à quelque chose ? Cela me rappelle une anecdote. À l’École polytechnique, le poly d’informatique disait que la moitié de l’industrie mondiale était due aux découvertes de l’informatique et celui de physique que deux tiers de  l’industrie mondiale étaient dus aux découvertes de la physique quantique. Les élèves nous faisaient remarquer que 1/2 + 2/3, cela faisait plus que 1. Bien entendu, les physiciens avaient compté toute l’informatique dans la partie de l’industrie que nous devions à la physique quantique, car sans physique quantique, pas de transistors, et sans transistors, pas d’informatique. Mais le message commun que nous voulions faire passer était que des pans entiers de l’économie existent du fait de découvertes scientifiques au départ perçues comme fondamentales.  L’existence d’un algorithme pour décider de la correction d’une démonstration mathématique, question qui semble très détachée de l’économie, nous a conduit à concevoir des logiciels plus sûrs. La recherche la plus désintéressée, éloignée a priori de toute application, peut conduire à des transformations majeures de l’économie.

    Cependant, ce n’est pas parce que la recherche a une forte influence sur le développement économique que nous pouvons en conclure que c’est sa seule motivation. La recherche nous sert aussi à mieux comprendre le monde, à développer notre agilité intellectuelle, notre esprit critique, notre curiosité.  Cette quête participe de notre humanité. Et si cela conduit à des progrès industriels, tant mieux.

    Serge Abiteboul, Inria, & Claire Mathieu, CNRS

    (*) Des géomètres comme Euclide ont démontré que la somme des angles d’un triangle est toujours égale à 180 degrés. Mais des mathématiciens comme Lobatchevski ont démontré que cette somme était inférieure à 180 degrés. Crise ! Cette crise a été résolue au début du XXe siècle par l’observation, finalement banale, que Euclide et Lobatchevski n’utilisaient pas les mêmes axiomes, les mêmes présupposés sur l’espace géométrique.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • La révolution de la microbiologie par le numérique

    Un nouvel « Entretien autour de l’informatique ». Pascale Cossart est une biologiste française, une Pasteurienne, professeur de classe exceptionnelle à l’Institut Pasteur depuis 2006. Ses travaux ont notamment porté sur l’étude des mécanismes impliqués dans les infections bactériennes. Grâce à des approches multidisciplinaires, Pascale Cossart a véritablement démarré une nouvelle discipline, la « microbiologie cellulaire », et mis en lumière de nombreuses stratégies utilisées par les bactéries lors de l’infection. Elle a été la Secrétaire perpétuelle de l’Académie des Sciences pour la deuxième section (chimie, la biologie et la médecine) de 2016 à 2021. Depuis 2022, elle est scientifique invitée à l’EMBL Heidelberg.

     

    Pascale Cossart

    B : Pourrais-tu nous parler de ta discipline de recherche ?

    PC : Je travaille à la frontière entre la microbiologie et la biologie cellulaire. Depuis 1986, je m’intéresse aux infections par des bactéries qui vivent à l’intérieur des cellules ; cela m’a conduite à des études sur les bactéries (de la microbiologie), et sur les cellules (de la biologie cellulaire), et sur la façon dont les bactéries pénètrent et vivent dans les cellules, que ce soit au niveau des tissus ou des organismes entiers.

    En général, après avoir analysé des mécanismes sur des cellules en culture, nous validons nos résultats sur des modèles animaux pour comprendre la maladie humaine. On est à la limite de la médecine, mais ce qui m’intéresse surtout, ce sont les mécanismes fondamentaux : comprendre comment un microbe provoque une maladie, comment une maladie s’installe, comment des maladies donnent des signes cliniques, et comment l’organisme peut échapper à cette maladie.

    A l’époque de Pasteur, à la fin du XIXe siècle, les microbiologistes cherchaient à identifier le microbe responsable de telle ou telle maladie (peste ou choléra ?). Maintenant on cherche à comprendre comment un microbe produit une maladie.

    Il y a différentes catégories de microbes : des bactéries, des parasites, des virus. Nous travaillons sur les bactéries qui sont des cellules uniques (des petits sacs) sans noyau mais qui ont un chromosome. Les mammifères (nous !), les plantes ont des millions de cellules différentes qui ont un noyau contenant des chromosomes. Les chromosomes sont faits d’ADN, composé qui a été découvert dans les années 50. Il a ensuite été établi que l’ADN était la molécule essentielle pour la transmission du patrimoine génétique, le génome. L’ADN, c’est la molécule de la vie !

    Parmi les bactéries certaines sont inoffensives, d’autres sont pathogènes !

    C’est pour leurs travaux ici, à l’Institut Pasteur, sur des bactéries non pathogènes et sur leur ADN que François Jacob, Jacques Monod et André Lwoff ont obtenu le prix Nobel. Ils s’intéressaient au chromosome bactérien et à la façon dont les bactéries en se nourrissant, produisent des protéines, grandissent, et se divisent en deux (division binaire !) en générant une descendance identique à la bactérie initiale.

    À la fin des années 70, on a assisté à l’explosion de la biologie moléculaire, c’est à dire la biologie des molécules, héritée de la découverte de l’ADN. À la fin des années 80, les chercheurs en biologie moléculaire cherchaient à comprendre comment les molécules fonctionnent, alors que les chercheurs en biologie cellulaire s’intéressaient à la façon dont les cellules fonctionnent.

    J’étais chercheuse à ce moment clé. Il y avait des avancées du côté bactéries, et aussi du côté des cellules de mammifères, grâce en particulier aux nouveaux microscopes. On pouvait donc commencer à observer des infections par les bactéries pathogènes. On pouvait combiner biologie moléculaire et biologie cellulaire, en essayant de comprendre les interactions entre composants bactériens ou ceux de la cellule hôte dans le cas d’infections. C’est sur cela qu’ont porté alors mes travaux. Cela a conduit à l’émergence d’une nouvelle discipline que nous développions, qui s’intéressait en particulier à ce qui se passe dans les cellules quand arrive un corps étranger. Pendant un colloque que j’ai organisé sur ce sujet, un journaliste de Science nous a conseillé de donner un nom à cette discipline : nous avons proposé la microbiologie cellulaire. J’ai fait partie des lanceurs de cette discipline, la microbiologie cellulaire.

    Cette discipline a été rapidement acceptée, avec un livre fondateur, des revues, et aujourd’hui des professeurs et des départements de microbiologie cellulaire.

    Cellules humaines infectées par la bactérie Listeria monocytogenes : en bleu le noyau des cellules, en rouge les bactéries et en vert l’actine, un composant de la cellule infectée que la bactérie recrute et utilise pour se déplacer et éventuellement passer d’une cellule à une autre.

    B : Pourrais-tu nous expliquer en quoi consiste le travail dans ce domaine ?

    PC : Quand une bactérie essaie d’entrer dans une cellule, la bactérie s’adapte à la cellule et vice versa. Le travail dans le domaine consiste à observer la bactérie qui rentre et parfois se promène dans la cellule, on la filme. On choisit plutôt des cellules faciles à cultiver, et pour la bactérie, j’ai choisi Listeria monocytogenes. Je l’ai choisie avec soin pour ses propriétés uniques. On la trouve dans l’environnement ; elle peut parfois contaminer des aliments, et ainsi par l’alimentation atteindre dans le tractus intestinal, parfois traverser la barrière intestinale et arriver au foie, à la rate, ou au placenta et éventuellement au cerveau. Elle est capable d’aller jusqu’au fœtus. Elle cause des gastroentérites, des accouchements prématurés, des méningites. On a beaucoup avancé dans la connaissance du processus infectieux mais on ne comprend encore pas bien comme elle va jusqu’au cerveau.

    Plus concrètement, dans un labo, on cultive la bactérie dans des tubes contenant un liquide nutritif. On cultive soit la bactérie originale soit des mutants de la bactérie. Dans un autre coin du labo, on fait pousser des cellules. La suite dépend de la question qu’on se pose. En général on met les bactéries ou les mutants sur les cellules et on observe ce qui se passe ou ce qui ne se passe pas avec certains mutants.

    On peut aussi infecter des animaux, ce qui est bien sûr très règlementé. Si j’injecte la bactérie par voie orale dans une souris, est-ce qu’elle arrive au foie ? Comment la souris réagit-elle ? On a une multitude de questions à poser.

    B : Tu te doutes que Binaire s’intéresse aux apports du numérique dans ta discipline.

    PC : On a vécu une double révolution avec le numérique : du côté de la bactérie avec la génomique, et du côté de la cellule et de l’infection, avec l’imagerie numérique.

    B : Commençons par la génomique si tu veux bien.

    PC : Les bactéries n’ont pas de noyau, Elles ont un chromosome, c’est-à-dire un grand ADN circulaire. Au début de mes travaux sur Listeria, on ne connaissait rien sur son chromosome, c’est-à-dire son génome. Pour le comprendre, on a d’abord créé des mutants, avec différents outils génétiques : par exemple on peut mettre la bactérie Listeria à côté d’une autre bactérie qui va injecter dans son ADN, un transposon. On obtient alors une « banque de mutants » parmi lesquels on cherche, par exemple, un mutant non invasif, c’est-à-dire qui ne parvient pas à entrer dans les cellules.

    L’ADN consiste en une séquence de lettres. Pour trouver l’endroit où le gène a été interrompu, on réalise le « séquençage » de l’ADN situé à côté du transposon. Les différentes techniques de séquençage de l’ADN sont apparues vers la fin des années 70. Au début on ne pouvait séquencer que des petits fragments. J’ai réalisé à l’époque mon premier séquençage, avec une technique chimique. Je lisais les séquences et j’écrivais les résultats dans un cahier.

    Et puis, on a obtenu des séquences de plus en plus longues qu’on a entrées dans des ordinateurs. On a pu utiliser des programmes pour trouver des ressemblances entre des séquences. On pouvait « aligner des séquences », c’est-à-dire les positionner pour en faire ressortir les régions similaires. L’informatique nous permettait de faire ce qu’on n’arrivait plus à faire à la main, quand les séquences grandissaient.

    Les techniques ont alors progressé et dans le cadre d’un consortium européen que je dirigeais, nous avons publié en 2000 le séquençage du génome de Listeria qui comporte 3 millions de lettres. À titre de comparaison, le génome humain, qui a été séquencé plus tard, a 3 milliards de lettres. Au début, le travail de séquençage était lent et considérable, il exigeait de faire collaborer plusieurs labos, chacun travaillant dans son coin sur certaines régions de l’ADN chromosomique. L’ordinateur est devenu indispensable pour assembler les morceaux de séquences et analyser les résultats.

    Nous avons donc séquencé le génome de Listeria monocytogenes, l’espèce pathogène, et aussi celui d’une cousine non-pathogène, Listeria innocua. L’observation des différences entre les séquences a été une mine d’or de découvertes. La comparaison des deux génomes ouvrait une infinité de possibilités d’expériences. On pouvait réaliser des mutations ciblées, en inactivant tel ou tel gène, présent chez L. monocytogenes et absent chez Listeria innocua et tester si le mutant obtenu était encore virulent.

    Il reste beaucoup de travail à faire, notamment, sur des bactéries pour lesquelles on ne sait pas grand-chose, en particulier, parce qu’on ne sait pas les cultiver, comme c’est le cas pour les bactéries anaérobies de l’intestin, du sol ou des océans

    La grande révolution à l’heure actuelle, c’est la métagénomique. Les machines sont devenues très performantes pour séquencer l’ADN. Elles séquencent des mélanges d’ADN et sont capables d’identifier tous les ADN différents présents et donc les espèces d’où ils proviennent. Par exemple, dans la mission Tara, une goélette récolte du microbiome marin. Les séquenceurs vont être capables d’identifier des milliers de petits bouts de séquences d’ADN. Un logiciel va faire le catalogue des espèces présentes. Tout ceci serait impensable sans ordinateur.

    B : Est-ce qu’un séquençage prend beaucoup de temps ?

    PC : Avant, en 2000, séquencer un génome bactérien prenait au moins dix-huit mois. Maintenant, en trois jours on a la séquence et les premières analyses. L’ordinateur sait comparer deux génomes l’un à l’autre, ou encore comparer un génome à une banque de génomes. Il sait « regarder » le génome et faire son « analyse grammaticale », identifier les gènes et donc les protéines que ces gènes peuvent produire. C’est une révolution. Des tâches qui auraient pris des années pour des humains sont maintenant faites très rapidement par des ordinateurs.

    Cela nous permet maintenant de nous tourner vers les microbiotes, ces grandes assemblées de micro-organismes. On peut analyser les microbiotes de l’intestin, la bouche, l’environnement (les sols, les océans)… Cela ouvre des possibilités extraordinaires comme de comprendre pourquoi certaines personnes sont malades, pourquoi certains sols sont stériles.

    B : Nous pourrions maintenant passer aux apports de l’imagerie cellulaire.

    PC : Le passage de l’observation des images par l’homme à l’analyse des images par l’ordinateur a fait passer les conclusions tirées, du stade subjectif au stade objectif : deux cellules ne sont jamais identiques. Le scientifique pouvait observer par exemple qu’une bactérie semblait entrer mieux ou plus vite dans une cellule que dans une autre. Mais cette observation était relativement subjective. Il était difficile de la rendre objective : alors on refaisait des manips des milliers de fois et on calculait des moyennes. Ceci prenait un temps fou. L’imagerie numérique nous permet d’observer de nombreuses cellules en même temps. La microbiologie cellulaire est une discipline qui a évolué considérablement avec le numérique.

    Les techniques d’imagerie reposent sur l’usage de marqueurs fluorescents avec lesquels on peut marquer la membrane extérieure de la cellule, ou le noyau, ou les mitochondries, etc. On utilise des programmes qui ressemblent aux programmes de reconnaissance faciale pour reconnaitre les marqueurs fluorescent qu’on a placés. On peut répondre à des questions comme : en combien de temps la bactérie va-t-elle arriver au noyau ? L’imagerie numérique est beaucoup plus sensible que l’œil humain, elle nous donne accès à des événements qui auraient échappé à l’observation à l’œil nu.

    On obtient de plus en plus de données qu’on peut stocker. On fait des analyses statistiques sur ces données pour répondre à différents types de questions qui permettent de comprendre dans notre cas les facteurs qui sont critiques pour qu’une infection prenne place.

    B : Tu nous as dit qu’il y avait une multitude de questions à poser. On ne peut pas les poser toutes. Il faut choisir. La sérendipité joue-t-elle un rôle pour trouver réponse à des questions intéressantes ?

    PC : Oui, très important. Pasteur disait à peu près : la science sourit aux esprits préparés ! J’ai eu une grande chance dans ma vie, c’est de trouver un mutant de Listeria que je ne cherchais pas. C’était en 1990. Ça a été une histoire incroyable.

    Un collègue, Dan Portnoï avait découvert grâce à ses travaux en microscopie électronique, la capacité exceptionnelle de Listeria à se mouvoir à l’intérieur des cellules et à passer d’une cellule à l’autre. Son résultat avait passionné les biologistes cellulaires qui cherchaient à comprendre comment en général les cellules bougent par exemple lors du développement d’un organisme.

    C’était l’époque pré génomique. Je cherchais dans une banque de mutants un mutant qui, sur des boîtes de Pétri, ne faisait pas de halo dans du jaune d’œuf. Rien à voir donc a priori. Et je trouve un mutant qui ne fait plus ce halo. Je demande à une postdoc de vérifier au microscope si cette bactérie passe bien d’une cellule à l’autre. Elle m’appelle alors qu’elle était au microscope : « Viens voir ! » Ce mutant était incapable de motilité intracellulaire. En l’analysant, nous avons trouvé le gène et donc la protéine responsables de la motilité. Le hasard m’a donc permis de réaliser une belle avancée en biologie cellulaire, parce que ça a permis de comprendre non seulement la motilité des bactéries mais aussi celle des cellules de mammifères.

    Mais pour une telle histoire, il fallait savoir profiter de l’occasion. Dans notre métier, on doit en permanence se poser des questions précises, évaluer si elles sont importantes et si on a les moyens techniques pour y répondre. Il faut aussi sans cesse être aux aguets de choses inattendues !

    B : Est-ce que le numérique continue à transformer le domaine.

    PC : Oui. Récemment on a vu des applications dans la prédiction des structures de protéines avec Alphafold. La cristallographie de protéines et l’analyse de diffusion de rayons X sur les cristaux de protéines nous permettaient de comprendre leurs structures 3-dimensionnelles, c’est à dire le repliements de protéines dans l’espace. On pouvait ensuite essayer de prédire comment des protéines s’assemblent, mais c’était très compliqué et à petite échelle. On pouvait aussi essayer de prédire comment inhiber la fonction d’une protéine en introduisant un composé dans un endroit clé pour toute la structure de la protéine.

    Alphafold part d’énormes bases de données sur les structures tridimensionnelles de protéines. Dans les programmes d’Alphafold, des logiciels d’apprentissage automatique (machines learning) combinent toute une gamme de techniques pour prédire comment un repliement pourrait de produire, et proposent des configurations spatiales aux scientifiques. Cela ouvre des possibilités fantastiques pour comprendre comment fonctionnent les protéines, et a donc des potentialités médicales incroyables.

    Serge Abiteboul et Claire Mathieu

    Pour aller plus loin

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’avenir de la réalité virtuelle sera hybride et physiologique

    Réalité virtuelle, réalité augmentée, interfaces cerveau-ordinateur (BCI en anglais), autant de domaines relativement peu connus du grand public et qui sont appelés à se développer dans un futur proche. Pour mieux comprendre quelles questions ils soulèvent, nous nous sommes entretenus avec Anatole LECUYER (Directeur de recherches Inria à Rennes).  Pascal Guitton 

    Binaire : pourrais-tu commencer par nous expliquer ton parcours de formation ?

    Anatole Lecuyer : Après un bac scientifique et des classes préparatoires, j’ai intégré l’école Centrale de Lille. La formation généraliste m’a globalement intéressé mais je me suis surtout amusé pendant mon stage de 3ème année. Je suis allé à l’université Simon Fraser à Vancouver où j’ai développé un outil de simulation visuelle pour une main robotisée. Ce fut une révélation : avec ce type de recherches je pouvais enfin faire dialoguer mes intérêts pour la science et pour les expressions  graphiques voire artistiques. Je ne m’en rendais pas compte à cette époque (été 1996) mais j’avais la chance de participer à l’émergence de la réalité virtuelle qui était encore balbutiante et pratiquement inexistante en France.

    Anatole LECUYER – Copyright Innovaxiom

    Après ce stage, j’ai travaillé pendant deux ans dans l’industrie aéronautique mais avec comme objectif de préparer une thèse et tout d’abord de composer le sujet qui m’intéressait. En 1998, j’ai démarré une thèse à Orsay sous la direction de Sabine Coquillart (Inria) et Philippe Coiffet (CNRS) sur l’utilisation des retours haptiques et visuels pour la simulation aéronautique en lien avec Aérospatiale (devenue EADS par la suite). C’était un sujet très précis, « délimité » comme je l’avais souhaité, mais je dois dire qu’un grain de sable s’y est introduit : le dispositif haptique que j’utilisais est tombé en panne et a été indisponible pendant 6 mois. Il a donc fallu « réinventer » une nouvelle approche et m’est alors venu l’idée du pseudo-haptique : comment produire des sensations haptiques sans utiliser aucun dispositif mécanique (ce que faisait le bras robotisé en panne) et en les remplaçant par des stimuli visuels. Comment donc générer des « illusions haptiques » exploitant un autre sens : la vision. Il est amusant de constater avec le recul que ce travail a été couronné de succès alors qu’il n’était absolument pas planifié mais résultait d’un accident de parcours ! A la fin de ma thèse soutenue en 2001, j’avais trouvé ma voie : je voulais faire de la recherche en réalité virtuelle mon métier.

    B : parle-nous de ce début de carrière

    AL : Après un an passé au CEA, j’ai été recruté en 2002 comme chargé de recherche Inria dans l’équipe SIAMES à Rennes. La première chose que je retiens est le décalage entre d’une part, l’impression d’avoir enfin réussi à atteindre un objectif préparé de façon intensive depuis plusieurs années et après un processus de sélection assez complexe et puis, d’autre part, le démarrage d’une nouvelle vie scientifique qui était totalement à construire. Cela n’a pas été simple ! Parmi beaucoup d’autres choses, je suis gré à Bruno Arnaldi, le responsable de SIAMES, de m’avoir proposé de travailler immédiatement avec un stagiaire pour en quelque sorte relancer la machine, explorer de nouvelles voies et finalement rebâtir un projet scientifique. C’est en tout cas, une expérience qui me sert quand, à mon tour, j’accueille aujourd’hui un nouveau chercheur dans l’équipe.

    binaire : tu as travaillé sur beaucoup de sujets, quel domaine te semble central dans ton activité

    AL : sans nul doute, c’est la réalité virtuelle (RV) qui est au cœur de toutes mes recherches, que ce soit pour l’interaction, les équipements technologiques, la perception humaine… Je la définirais comme « la mise en œuvre de technologies immersives qui permettent de restituer en temps réel et d’interagir avec des univers synthétiques via des interfaces sensorielles permettant de procurer un sentiment de « présence » aux utilisateurs ». Je tiens à rappeler que même si beaucoup la découvrent depuis peu, elle existe depuis plus d’une quarantaine d’années avec une communauté très active de chercheurs et d’ingénieurs, des concepts éprouvés, des revues/conférences…. Située à l’intersection de domaines variés comme l’interaction hommes-machine, le traitement du signal, l’intelligence artificielle, l’électronique, la mécatronique sans oublier les facteurs humains (perception, sciences cognitives), cette technologie permet de simuler la plupart des activités humaines, ce qui ouvre notre travail à des collaborations interdisciplinaires extrêmement variées et enrichissantes.

    B : tu pourrais nous fournir un exemple ?

    AL : en 2005, nous avons imaginé de combiner la RV avec les technologies d’interfaces cerveau-ordinateur (ICO, ou BCI pour Brain Computer Interface en anglais) et le traitement des signaux cérébraux issus d’électro-encéphalogrammes (EEG) ouvrant ainsi une voie nouvelle d’hybridation technologique. A cette époque, l’objectif principal était d’interagir avec des environnements virtuels ; on parlait alors de commande « par la pensée », ce qui était un abus de langage. Aujourd’hui on parle plutôt de commande « par l’activité cérébrale », ce qui est plus précis. Concrètement, il s’agit de détecter l’activité cérébrale et d’interpréter les signaux recueillis comme des entrées pour piloter un ordinateur ou modifier un environnement virtuel. En 4 ans, nous avons développé un logiciel baptisé OpenViBE qui s’est vite imposé comme une plate-forme de référence dans le domaine. Chaque nouvelle version est téléchargée environ 5000 fois et l’article le présentant a été cité environ 800 fois. Mais le plus intéressant est de constater qu’il réunit des communautés très diverses : neurosciences bien entendu mais aussi RV, arts, jeux vidéo, robotique… Avec Yann Renard et Fabien Lotte les co-créateurs d’OpenViBE, nous sommes toujours aussi émerveillés de cette réussite.

    Jeu vidéo « multi-joueur » contrôlé directement par l’activité cérébrale. Les deux utilisateurs équipés de casques EEG jouent ensemble ou l’un contre l’autre dans un jeu de football simplifié où il faut marquer des buts à droite (ou à gauche) de l’écran en imaginant des mouvements de la main droite (ou gauche) – © Inria / Photo Kaksonen

     B : et si maintenant nous parlions d’Hybrid l’équipe de recherche que tu animes à Rennes ?

    AL : si je devais résumer la ligne directrice d’Hybrid, je dirais que nous explorons l’interface entre les technologies immersives et d’autres approches scientifiques notamment en termes d’exploitation de signaux physiologiques. Ce qui était un pari il y a 10 ans s’est progressivement imposé comme une évidence. On peut par exemple remarquer qu’une des évolutions des casques RV est d’y intégrer de plus en plus de capteurs physiologiques, ce qui réalise notre hypothèse initiale.

    Pour illustrer cette démarche, je peux évoquer des travaux réalisés pendant la thèse de Hakim Si-Mohammed et qui ont été publiés en 2018. C’était la première fois que l’on utilisait conjointement un casque de Réalité Augmentée (Microsoft Hololens) et un casque EEG. Nous avons d’abord montré qu’il était possible d’utiliser simultanément ces deux technologies, sans risque et avec des bonnes performances. Puis, nous avons proposé plusieurs cas d’usage, par exemple pour piloter à distance un robot mobile, ou encore pour contrôler des objets intelligents dans une maison connectée (collaboration avec Orange Labs) permettant notamment d’allumer une lampe ou d’augmenter le volume de la télévision sans bouger, en se concentrant simplement sur des menus clignotants affichés dans les lunettes de réalité augmentée.

    Utilisation conjointe de lunettes de réalité augmentée et d’une interface neuronale (casque électro-encéphalographique) pour piloter à distance et sans bouger un robot mobile

     binaire : en 10 ans, comment observes-tu l’évolution de l’équipe ?

    AL : au démarrage, nous avons beaucoup travaillé sur le plan scientifique pour jeter les bases de notre projet. Au fil des rencontres que nous avons eues la chance de réaliser dans nos différents projets, la question des impacts sociétaux est devenue de plus en plus centrale dans nos activités. Je pense notamment au domaine médical, d’abord grâce à OpenViBE qui était initialement conçu pour pouvoir assister des personnes en situation de handicap privées de capacité d’interagir.

    On peut ensuite évoquer le projet HEMISFER initié avec Christian Barillot pour contribuer à la rééducation de personnes dépressives chroniques ou dont le cerveau a subi des lésions post-AVC en développant des outils combinant EEG et IRM en temps réel. Bien que lancé en 2012, nous n’obtiendrons les résultats définitifs de ce travail que cette année en raison de la complexité des technologies mais aussi des essais cliniques. Mais les premiers résultats à notre disposition sont déjà très positifs. Dans cette dynamique, nous avons mené plusieurs sous-projets autour du NeuroFeedback, c’est-à-dire des techniques permettant à un utilisateur équipé d’un casque EEG d’apprendre progressivement à contrôler son activité cérébrale, grâce à des retours sensoriels explicites. Une des tâches les plus employées pour les tester consiste à demander à l’utilisateur de faire monter une jauge visuelle en essayant de modifier activement ses signaux EEG. On observe qu’il est parfois difficile, voire même impossible pour certaines personnes, de maîtriser leur activité cérébrale pour générer les signaux utiles pour interfacer un tel système informatique. Nous travaillons pour tenter de comprendre ces difficultés : sont-elles liées à des traits de personnalité ? Sont-elles amplifiées par un déficit d’accompagnement du système ? C’est un sujet passionnant. Et les perspectives d’applications thérapeutiques, notamment pour la réhabilitation, sont très riches.

    Il y a 3 ans, grâce à l’arrivée dans notre équipe de Mélanie Cogné qui est également médecin au CHU de Rennes, nous avons franchi un pas supplémentaire en pouvant dorénavant tester et évaluer nos systèmes au sein d’un hôpital avec des patients. Cette démarche que nous n’imaginions pas il y une quinzaine d’années s’est progressivement imposée et aujourd’hui, nous ressentons au moins autant de plaisir à voir nos travaux utilisés dans ce contexte qu’à obtenir un beau résultat scientifique et à le voir publié.

    Je pense par exemple au projet VERARE que nous avons lancé pendant la crise COVID avec le CHU Rennes. Nous étions isolés chacun de notre côté et il a fallu coordonner à distance le travail de plus d’une dizaine de personnes ; ce fut très complexe mais nous avons réussi à le faire. Le projet visait à faciliter la récupération des patients se réveillant d’un coma profond et qui incapables de se nourrir ou de se déplacer. Notre hypothèse était qu’une expérience immersive dans laquelle l’avatar associé au patient se déplacerait chaque jour pendant 9 minutes 10 jours de suite dans un environnement virtuel agréable (une allée boisée dans un parc par exemple) contribuerait à préserver, voire rétablir des circuits cérébraux afin de déclencher un processus de rééducation avant même de quitter leur lit. Nous avons donc équipé des patients avec un casque de RV dès leur réveil au sein du service de réanimation, ce qui n’avait encore jamais été réalisé. Pour évaluer de façon rigoureuse cette expérimentation, les médecins réalisent actuellement une étude clinique qui n’est pas encore terminée, mais d’ores et déjà, nous savons que les soignants et les patients qui utilisent notre dispositif en sont très satisfaits.

    binaire : comment souhaites-tu conclure ?

    AL : Eh bien, en évoquant l’avenir, et le chemin qu’il reste à parcourir. Car même si la communauté des chercheurs a fait avancer les connaissances de façon spectaculaire ces 20 dernières années, il reste encore des défis majeurs et très complexes à relever.  Tellement complexes, qu’il est indispensable de travailler de façon interdisciplinaire autour de plusieurs axes, pour espérer améliorer à l’avenir et entre autres : les dispositifs immersifs (optique, mécatronique), les logiciels (réseaux, architectures), les algorithmes  (modélisation, simulation d’environnements toujours plus complexes), les interactions humain-machine 3D (notamment pour les déplacements ou les sensations tactiles) ou encore la compréhension de la perception des mondes virtuels et ses mécanismes sous-jacents.

    Tous ces défis laissent espérer des perspectives d’application très intéressantes dans des domaines variés : la médecine, le sport, la formation, l’éducation, le patrimoine culturel, les processus industriels, etc… s

    Mais en parallèle à ces questionnements scientifiques riches et variés, apparaissent d’autres enjeux très importants liés à la diffusion à grande échelle de ces technologies, avec des réflexions à mener sur les aspects éthiques, juridiques, économiques, et bien-sûr environnementaux. Tous ces sujets sont passionnants, et toutes les bonnes volontés sont les bienvenues !

    Pascal Guitton

    Références

  • Elle simule des supercondensateurs avec un simple ordi

    Un nouvel entretien autour de l’informatique. Céline Merlet est une chimiste, chercheuse CNRS au Centre Inter-universitaire de Recherche et d’Ingénierie des Matériaux (CIRIMAT) de Toulouse. C’est une spécialiste des modèles multi-échelles pour décrire les matériaux de stockage d’énergie. Nous n’avons pas le choix, il va nous falloir faire sans les énergies fossiles qui s’épuisent. Le stockage d’énergie (solaire ou éolienne par exemple) devient un défi scientifique majeur.  Céline Merlet nous parle des supercondensateurs, une technologie pleine de promesses.

    Céline Merlet ©Françoise Viala (IPBS-Toulouse/CNRS-UT3)

    Binaire : Pourrais-tu nous raconter brièvement la carrière qui t’a conduite à être chercheuse en chimie et médaille de bronze du CNRS 2021

    Céline Merlet : Au départ je n’étais pas partie pour faire de la chimie mais de la biologie. J’ai fait une prépa et je voulais devenir vétérinaire, mais pendant la prépa, je me suis rendue compte que je m’intéressais de plus en plus à la chimie. J’ai aussi fait un projet de programmation et j’y ai trouvé beaucoup de plaisir. Je suis rentrée, dans une école d’ingénieur, Chimie ParisTech. En 2e année, j’ai fait un stage de trois semaines sur la modélisation de sels fondus, des sels qui deviennent liquides à très hautes températures. J’y ai découvert la simulation numérique de phénomènes du monde réel, j’ai compris que j’avais trouvé ma voie. Après l’école de chimie, je suis retournée faire un doctorat dans ce même labo où j’avais réalisé le stage. Un postdoctorat en Angleterre, et j’ai été recrutée au CNRS en 2017.

    B : Pourquoi n’es-tu pas restée en Angleterre ?

    CM : Avec la difficulté d’obtenir un poste en France et le fait que j’étais bien installée en Angleterre, j’ai aussi candidaté là-bas. Mais, il y a eu le Brexit et cela a confirmé ma volonté de rentrer en France.

    B : Tu es chimiste, spécialiste des systèmes de stockage électrochimique de l’énergie qui impliquent des matériaux complexes. Pourrais-tu expliquer aux lecteurs de binaire ce que cela veut dire ?

    CM : Le stockage électrochimique de l’énergie concerne l’utilisation de réactions électrochimiques pour stocker de l’énergie. Les systèmes qu’on connaît qui font ça sont les batteries dans les téléphones et les ordinateurs portables, et les voitures. Les batteries utilisent des matériaux complexes avec certains éléments comme le lithium, le cobalt, et le nickel. On charge et décharge le dispositif en le connectant à un circuit électrique. Les matériaux sont modifiés au cours des charges et décharges. C’est ça qui leur permet de stocker de l’énergie.

    Schéma d’un supercondensateur déchargé. Crédit Céline Merlet

    Schéma d’un supercondensateur chargé. Crédit Schéma Céline Merlet

    Ma recherche porte sur les supercondensateurs. Dans ces systèmes-là, on a deux matériaux poreux qui sont des électrodes qu’on connecte entre elles via un circuit extérieur. Quand on charge (ou décharge), des molécules chargées vont se placer dans des trous ou au contraire en sortent. Un stockage de charge au sein du matériau en résulte. Mais d’une manière très différente de celle des batteries. Il n’y a pas de réaction chimique. C’est une simple adsorption des molécules chargées.

    B : Tu travailles sur la modélisation moléculaire, en quoi est-ce que cela consiste ?

    CM : J’ai parlé des deux électrodes qui sont en contact avec cette solution d’ions chargés. Souvent pour les supercondensateurs, ce sont des carbones nanoporeux. Les pores font à peu près la taille du nanomètre (1 millionième de millimètre) : c’est quelque chose qu’on ne peut pas observer à l’œil nu. Pour comprendre comment les ions entrent et sortent de ces pores de carbone, au lieu de faire des expériences physiques, des mélanges dans un laboratoire, je fais des expériences numériques, des mélanges dans l’ordinateur. J’essaie de comprendre comment les ions bougent et ce qui se passe, à une échelle qu’on ne peut pas atteindre expérimentalement.

    B : Ça exige de bien comprendre les propriétés physiques ?

    CM : Oui pour modéliser la trajectoire des ions, la façon dont ils se déplacent, il faut bien comprendre ce qui se passe. Quand on lance une balle, si on donne les forces qu’on applique au départ, on peut en déduire la trajectoire. Pour les ions c’est pareil. On choisit le point de départ. On sait quelles forces s’appliquent, les forces d’attraction et de répulsion. On a des contraintes comme le fait qu’une molécule ne peut pas pénétrer à l’intérieur d’une autre. Cela nous permet de calculer l’évolution du système de molécules au cours du temps. Parfois, on n’a même pas besoin de représenter ça de manière très précise. Si une modélisation même grossière est validée par des expériences, on a le résultat qu’on recherchait. Dans mon labo, le CIRIMAT, il y a principalement des expérimentateurs. Nous sommes juste 4 ou 5 théoriciens sur postes permanents. Dans mon équipe, des chercheurs travaillent directement sur des systèmes chimiques réels et on apprend beaucoup des échanges théorie/expérience.

    B : Typiquement, combien d’atomes sont-ils impliqués par ces simulations ?

    CM : Dans ces simulations numériques, on considère de quelques centaines à quelques milliers d’atomes. Dans une expérience réelle, c’est au moins 1024 atomes. (Un millilitre d’eau contient déjà 1022 molécules.)

    B : Et malgré cela, vous arrivez à comprendre ce qui se passe pour de vrai…

    CM : On utilise des astuces de simulation pour retrouver ce qui se passe dans la réalité. Une partie de mon travail consiste à développer des modèles pour faire le lien entre l’échelle moléculaire et l’échelle expérimentale. Quand on change d’échelle, ça permet d’intégrer certains éléments mais on perd d’autres informations de l’échelle moléculaire.

    B : Dans ces simulations des électrodes de carbone au sein de supercondensateurs modèles en fonctionnement, quels sont les verrous que tu as dû affronter ?

    CM : Au niveau moléculaire, il y a encore des progrès à faire, et des ordinateurs plus puissants pourraient aider. Les matériaux conduisent l’électricité, les modèles considèrent que les carbones sont parfaitement conducteurs, mais en réalité ils ne le sont pas. Pour une meilleure représentation, il faudrait tenir compte du caractère semi-conducteur de ces matériaux et certains chercheurs travaillent sur cet aspect en ce moment.

    Pour obtenir des matériaux qui permettraient de stocker plus d’énergie il nous faudrait mieux comprendre les propriétés microscopiques qui ont de l’influence sur ce qui nous intéresse, analyser des résultats moléculaires pour essayer d’en extraire des tendances générales. Par exemple, si on a deux liquides qui ont des ions différents, on fait des mélanges ; on peut essayer brutalement plein de mélanges et réaliser des simulations pour chacun, ou on peut en faire quelques-unes seulement et essayer de comprendre d’un mélange à un autre pourquoi le coefficient de diffusion par exemple est différent et prédire ainsi ce qui se passera pour n’importe quel mélange. Mieux on comprend ce qui se passe, moins il est nécessaire de faire des modélisations moléculaires sur un nombre massif d’exemples.

    Configuration extraite de la simulation d’un supercondensateur modèle par dynamique moléculaire. Les électrodes de carbone sont en bleu, les anions en vert et les cations en violet. Crédit Céline Merlet

    B : Tu as reçu le prix « 2021 Prace Ada Lovelace » de calcul haute performance (HPC). Est-ce que tu te présentes plutôt comme chimiste, ou comme une spécialiste du HPC ?

    CM : Je ne me présente pas comme une spécialiste du calcul HPC mais mes activités nécessitent un accès à des ordinateurs puissants et des compétences importantes dans ce domaine. Une partie de mon travail a consisté en des améliorations de certains programmes pour pouvoir les utiliser sur les supercalculateurs. Rendre des calculs possibles sur les supercalculateurs, cela ouvre des perspectives de recherche, et c’est une contribution en calcul HPC.

    B : Quelles sont les grandes applications de ton domaine ?

    CM : Concernant les supercondensateurs, c’est déjà utilisé dans les systèmes start-and-stop des voitures. C’est aussi utilisé dans les bus hybrides : on met des supercondensateurs sur le toit du bus, et à chaque fois qu’il s’arrête, on charge ces supercondensateurs et on s’en sert pour faire redémarrer le bus. On peut ainsi économiser jusqu’à 30 % de carburant. Des questions qui se posent : Est-ce qu’on pourrait stocker plus d’énergie ? Est-ce qu’on pourrait utiliser d’autres matériaux ?

    Bus hybride utilisant des supercondensateurs, Muséum de Toulouse

    B : On sait que les batteries de nos téléphones faiblissent assez vite. Pourrait-on les remplacer par des supercondensateurs ?

    CM : Si les batteries stockent plus d’énergie que les supercondensateurs, elles se dégradent davantage avec le temps. Au bout d’un moment le téléphone portable n’a plus la même autonomie que quand on a acheté le téléphone. Un supercondensateur peut être chargé et déchargé très vite un très grand nombre de fois sans qu’il soit détérioré. Pourtant, comme les quantités d’énergie qu’ils peuvent stocker sont bien plus faibles, on n’imagine pas que les supercondensateurs standards puissent remplacer les batteries. On voit plutôt les deux technologies comme complémentaires. Et puis, la limite entre supercondensateur et batterie peut être un peu floue.

    B : Tu es active dans « Femmes et Sciences ». Est-ce que tu peux nous dire ce que tu y fais et pourquoi tu le fais ?

    CM : J’observe qu’on est encore loin de l’égalité femme-homme. En chimie, nous avons une assez bonne représentativité des femmes. Dans mon laboratoire, qui correspond bien aux observations nationales, il y a 40% de femmes. Mais en sciences en général, elles sont peu nombreuses.

    Un but de « Femmes et Sciences » est d’inciter les jeunes, et particulièrement les filles, à s’engager dans des carrières scientifiques. Je suis au conseil d’administration, en charge du site web, et je coordonne avec d’autres personnes les activités en région toulousaine. Je suis pas mal impliquée dans les interventions avec les scolaires, dans des classes de lycée ou de collège : on parle de nos parcours ou on fait des ateliers sur les stéréotypes, de petits ateliers pour sensibiliser les jeunes aux stéréotypes, pour comprendre ce que c’est et ce que ça peut impliquer dans les choix d’orientation.

    Nous avons développé en 2019 un jeu, Mendeleieva, pour la célébration des 150 ans de la classification périodique des éléments par Mendeleiev. Nous l’utilisons pour mettre en avant des femmes scientifiques historiques ou contemporaines : on a un tableau et on découvre à la fois l’utilité des éléments et les femmes scientifiques qui ont travaillé sur ces éléments. Nous sommes en train de numériser ce jeu.

    L’association mène encore beaucoup d’autres actions comme des expos, des livrets, etc…

    B : La programmation est un élément clé de ton travail ; est-ce que tu programmes toi-même ?

    CM : J’adore programmer. Mais comme je passe pas mal de temps à faire de l’encadrement, à voyage et à participer à des réunions, j’ai moins de temps pour le faire moi-même. Je suis les doctorants qui font ça. Suivant leur compétence et leur appétence, je programme plus où moins.

    B : D’où viennent les doctorants qui passent dans ton équipe ? Sont-ils des chimistes au départ ?

    CM : Ils viennent beaucoup du monde entier : Maroc, Grèce, Inde. Ils sont physiciens ou chimistes. J’ai même une étudiante en licence d’informatique en L3 qui fait un stage avec moi.

    B : Est-ce que certains thèmes de recherche en informatique sont particulièrement importants pour vous ?

    CM : En ce moment, on s’interroge sur ce que pourrait apporter l’apprentissage automatique à notre domaine de recherche.  Par exemple, pour modéliser, on a besoin de connaitre les interactions entre les particules. Des collègues essaient de voir si on pourrait faire de l’apprentissage automatique des champs de force. Nous ne sommes pas armés pour attaquer ces problèmes, alors nous collaborons avec des informaticiens.

    Serge Abiteboul, Inria et ENS, et Claire Mathieu, CNRS et Université Paris-Cité

     Pour aller plus loin

    Les supercondensateurs à la loupe ou comment l’écorce de noix de coco est utilisée pour stocker l’énergie, Céline Merlet, Muséum de Toulouse, 2019

    https://cirimat.cnrs.fr/?lang=fr

    https://www.femmesetsciences.fr/

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • De la littérature à la culture numérique

    Un nouvel Entretien autour de l’informatique avec Xavier de La Porte, journaliste et producteur de radio. Il s’est spécialisé (entre autres) dans les questions de société numérique avec des chroniques quotidiennes comme “Ce qui nous arrive sur la toile” ou des émissions comme “Place de la Toile” sur France Culture et aujourd’hui “Le code a changé”, podcast sur France Inter. Il a été rédacteur en chef de Rue89. Il présente pour binaire sa vision de l’informatique et du numérique, celle d’un littéraire humaniste.

    Peux-tu nous dire d’où tu viens et comment tu t’es retrouvé spécialiste du numérique ? 

    C’est accidentel et contraint. J’ai suivi une formation littéraire, Normale Sup et agrégation, parce que j’aime la littérature. Mais l’enseignement et la recherche, ce n’était pas trop pour moi. Je me suis retrouvé à France Culture à m’occuper de société, de littérature, d’art. Quand Bruno Patino est devenu directeur de la chaîne, il m’a demandé de prendre en charge “Place de la Toile”, une émission un peu pionnière sur les cultures numériques. Je lui ai dit que le numérique ne m’intéressait pas. Il m’a répondu : “tu n’as pas le choix”. Il voulait que l’émission soit moins technique, ne soit plus réservée aux spécialistes et du coup, je lui paraissais bien adapté.

    Cet été-là, j’ai beaucoup lu, en grande partie sur les conseils de Dominique Cardon. J’ai découvert que c’était hyper passionnant. Pas les aspects purement techniques que je ne maîtrisais pas, mais le prisme que le numérique procurait pour regarder tous les aspects de la société. J’ai été scotché et depuis cette passion ne m’a jamais quitté.

    La contrainte journalistique que j’avais sur France Culture, c’était de parler à des gens qui aiment réfléchir (ils écoutent France Culture) mais qui sont souvent d’un certain âge et réticents à l’innovation technologique. Et ça tombait bien. Je n’y comprends rien, et l’innovation ne m’intéresse pas pour elle-même. Ma paresse intellectuelle et les limites de mes curiosités m’ont sauvé. Je ne me suis jamais “geekisé”. Bien sûr, avec le temps, j’ai appris. Je n’ai pas de culture informatique et mathématique et je reste très naïf devant la technique. Il m’arrive souvent de ne pas comprendre, ce n’est pas juste une posture. C’est sans doute pour cela que cela marche auprès du public qui, du coup, ne se sent pas méprisé ou auprès des personnalités que j’interviewe à qui je pose des questions simples que, parfois, elles ne se posent plus.

    Quels sont tes rapports personnels avec l’informatique ?

    Mon père était informaticien. Il avait fait à Grenoble une des premières écoles d’ingénieurs informatiques, au début des années 1970. Je ne voulais pas faire comme lui. Pourtant, j’ai passé pas mal de temps sur l’ordinateur de la maison, et pas que pour des jeux, bien que ma sœur ait été beaucoup plus douée que moi. Et je fais partie de cette génération qui a eu la chance d’avoir des cours d’informatique au lycée.

    En fait, je me suis rendu compte de tout ça quand j’ai commencé à animer “Place de la toile”, je me suis rendu compte que sans le savoir j’avais accumulé une culture informatique acquise sur le tas, mais acquise tout de même. Je pense que cette culture est indispensable aujourd’hui. Il faudrait inclure du numérique dans toutes les disciplines. Et il faut également enseigner l’informatique comme enseignement spécifique. Il faudrait que tout cela imprègne plus toute notre culture, et de manière réfléchie, historicisée, problématisée.

    Es-tu un gros consommateur de numérique ?

    Non. Je reste raisonnable même si je regarde beaucoup les nouveautés, par curiosité. Mais, comme beaucoup de gens, je subis. Je mets du temps à régler des problèmes tout bêtes comme une imprimante qui ne marche pas. J’essaie de comprendre et je perds beaucoup de temps. J’ai mis longtemps à passer au smartphone. Je ne voulais pas être collé à mon écran comme les autres. Ensuite, c’est devenu une forme de dandysme de ne pas en avoir. Il faut quand même dire que je ne suis pas très à l’aise avec tous ces outils. Je constate que ma copine, qui est d’une autre génération, les manipule avec beaucoup plus d’aisance.  Je le vis comme quelque chose d’exogène. Mais je pense que si ça ne mène pas à une technophobie un peu débile, cette distance n’est pas une mauvaise chose pour essayer de comprendre ce qui se passe.

    Et les réseaux sociaux ?

    Je pense que chaque réseau social a des particularités qui font qu’on s’y sent plus ou moins bien, que ce qui s’y passe nous intéresse plus ou moins. Je n’ai jamais été trop intéressé par Facebook. C’est un gros mélange un peu archaïque. On a des gens qui se causent, et des gens qui causent au monde. Je déteste Instagram qui me met mal à l’aise. C’est bourré de gens qui ne parlent que d’eux-mêmes, qui se mettent en scène en racontant la vie qu’ils voudraient avoir. Je n’aime pas dire ça, mais j’ai l’impression qu’il y a quelque chose de néfaste dans Instagram. On a beau savoir que c’est une mise en scène, cela pousse à une constante comparaison entre notre vie et celle des autres. TikTok, c’est tout autre chose ; je trouve cela assez génial. Les gens ne racontent pas leur vie, ils performent. Mais de tous les réseaux, celui que je préfère, c’est Twitter. C’est celui qui me convient et qui continue de me fasciner malgré tous les défauts qu’on peut lui trouver par ailleurs. C’est informationnel, c’est de la pensée. On ne s’étale pas.

    Est-ce que l’informatique transforme nos vies, notre société ?

    Qu’est-ce qui change ou qui ne change pas ? C’est la question qui m’obsède, la question centrale à laquelle j’essaie depuis toujours de répondre.

    En quoi la littérature est-elle transformée ? Ce n’est pas facile de faire rentrer un objet comme un téléphone ou un ordinateur dans un roman. Pourtant certains ont ouvert le chemin. Et puis la littérature change aussi parce qu’il y a Amazon, les écrans, les livres numériques, et plein de nouveaux trucs. Mais la littérature reste la littérature.

    Est-ce que des domaines changent ? Est-ce que nous-même nous changeons ?

    J’en suis arrivé à une conclusion pas très radicale : ça change mais en même temps ça ne change pas vraiment. J’ai une fille de quinze ans. Sa sociabilité est radicalement nouvelle par beaucoup d’aspects. Mais elle fait un peu la même chose que ce que les adolescentes font depuis longtemps. Elle passe par les mêmes phases. Nous sommes très différents des Grecs de l’époque classique. Pourtant, quand tu lis le début de la république de Platon, ça parle du bonheur ou d’être vieux, bref, ça parle de nous. Et les  questionnements de Platon nous touchent toujours.

    Bien sûr, tout cela ne peut pas être un argument pour dire que les choses ne changent pas. Ce serait juste débile. On doit chercher à comprendre ce qui est comme toujours et ce qui a changé. Les questionnements fondamentaux restent les mêmes finalement, quelles que soient les mutations.

    Tu n’as pas dit si tu considérais ces changements comme positifs ou pas.

    Les technologies, comme disait Bernard Stiegler, sont à la fois des poisons et des remèdes. En même temps, et c’est souvent comme cela avec les techniques. C’est une platitude de dire que certains aspects d’une technique peuvent être bons et d’autres néfastes. Bien sûr, certains réseaux sociaux sont plus toxiques que d’autres. Mais les réseaux sociaux en général n’ont pas que des aspects toxiques. Dire qu’en général les réseaux sociaux sont asociaux parce qu’ils ont été créés par des geeks. Non ! On ne peut pas dire cela. C’est juste simpliste. Les réseaux sociaux influencent notre sociabilité en bien et en mal, ils la transforment. Il faut apprendre à vivre avec eux pour bénéficier de leurs effets positifs sans accepter les négatifs.

    Est-ce que ces technologies transforment l’espace public ? Est-ce que le numérique est devenu un sujet politique ?

    On observe une vraie reconfiguration de l’espace public. La possibilité donnée à chacun d’intervenir dans l’espace public transforme cet espace, interroge. Le fait qu’internet permette à des gens qui ont des opinions minoritaires, radicales, de s’exprimer a des conséquences sur le fonctionnement même de la démocratie. Cela repose la question de la place des interventions des citoyens dans l’espace public, la question de savoir quelle démocratie est possible. Ce sont des vieilles questions mais pour bien comprendre ce qui se joue, il faut observer ce qui a changé.

    En cela, le numérique est devenu un sujet politique au sens le plus noble de la politique, et à plein de niveaux. Il pose aussi des questions de politique publique, de diffusion du savoir, de prise de parole. Par exemple, un détail, un aspect qui change la donne de manière extraordinaire : le numérique inscrit les opinions. Avant on avait des discussions et s’il y avait bien des prises de notes c’était un peu à la marge. Le temps passait et on n’avait que le souvenir des discussions. Aujourd’hui, on discute par écrit et on laisse plein de traces. Même quand c’est à l’oral, la discussion peut être enregistrée. On a toutes les traces. On peut retrouver ce que tu as dit des années après.

    Et puis le numérique soulève de nouvelles questions politiques comme la prise de décision par des algorithmes ou la cohabitation un jour avec des machines intelligentes. Est-ce qu’on peut donner un coup de pied à un robot ? C’est une question politique et philosophique, pas uniquement juridique.

    Que penses-tu des communs numériques ?

    Je me suis intéressé aux communs via le numérique. Des gens comme Philippe Aigrain, Valérie Peugeot ou Hervé Le Crosnier, m’ont sensibilisé au sujet. J’ai lu un peu l’histoire des communs, des enclosures. La notion est hyper belle, intéressante. On voit bien théoriquement comme cela pourrait résoudre de nombreux problèmes, et permettre de penser des questions très contemporaines. Pourtant, ça n’a pas énormément pris. Je ne peux pas expliquer pourquoi. La théorie est peut-être trop compliquée. Peut-être des concepts alternatifs voisins ont-ils occupé l’espace en se développant, comme la tiers économie, l’économie du partage. Mais je crois quand même qu’on pourrait développer cette notion de commun, en tirer beaucoup plus.

    Est-ce qu’il y a une particularité française dans le numérique ?

    Je n’ai pas vraiment réfléchi au sujet. Je vois un côté très français dans le rapport entre le monde intellectuel et le monde numérique. Cela tient peut-être à une forte dissociation en France entre sciences et technique d’un côté et le littéraire et les humanités de l’autre. Nos intellectuels aiment se vanter de ne pas être scientifiques. A l’Assemblée nationale, on adore citer des philosophes mais on affiche rarement une culture scientifique. La conséquence est une vision décalée du sujet numérique. On va demander à Alain Finkielkraut ce qu’il pense d’une question autour du numérique alors qu’il n’y connaît rien. On a mis du temps à vraiment prendre en compte une culture informatique. Dans les milieux académiques des humanités, s’il y a eu assez tôt des chercheurs qui se sont emparés du numérique dans de nombreuses disciplines, j’ai l’impression que l’enthousiasme est moindre aujourd’hui.

    Quelles sont les technos informatiques que tu trouves prometteuses, qui t’intéressent ?

    Évidemment, l’intelligence artificielle est fascinante. C’est une mine de questions passionnantes. Comment ça marche ? Qu’est-ce qu’on en attend ? Qu’est-ce qu’on est en droit d’en attendre ?

    En revanche, j’ai du mal à m’intéresser au métavers. C’est un truc qui est totalement créé par les grandes marques. Je n’ai jamais rien vu, dans le numérique, d’investi aussi vite par les marques. Internet est né comme un commun. Le métavers est dès l’origine dans un délire capitaliste.

    Est-ce que, dans ta carrière, certaines interviews t’ont particulièrement marqué ?

    Je pourrais en citer plein mais je vais me contenter de trois.

    Pour Bruno Latour, je m’étais bien préparé mais pas lui. Il a débarqué au dernier moment, cinq minutes avant le direct, et il ne s’attendait pas à parler de numérique. Il m’a dit qu’il n’avait rien à raconter là-dessus. J’ai commencé par raconter un article du Guardian, et Latour n’a cessé pendant toute l’émission de relier les questions que je lui posais à cet article. C’était passionnant, une vision intelligente de quelqu’un de brillant, qui commentait les questions numériques sans être un expert, d’un peu loin.

    Stéphane Bortzmeyer était à l’autre bout du spectre, quelqu’un de très proche du sujet, de la technique. Je craignais un peu qu’on n’y comprenne rien. Je m’attendais au pire après le premier contact au téléphone où il était très très laconique. Et l’émission démarre, et le mec sait être hyper clair, je dirais même lumineux. Un passeur de science extraordinaire avec toute son histoire, notamment politique.

    Et enfin, je voudrais citer Clarisse Herrenschmidt, une spécialiste des premières écritures qui venait d’écrire un livre “les trois âges de l’écriture” : l’écriture monétaire arithmétique, l’écriture des langues, et enfin l’écriture informatique. J’ai trouvé sa démarche intellectuelle hyper intéressante. J’ai pris énormément de plaisir à l’interviewer. Elle me faisait découvrir un domaine extraordinaire. Elle m’a mis en relation avec de nombreux chercheurs qui ont conduit à plusieurs de mes émissions. Depuis quinze ans, je me suis beaucoup “servi” de mes invités : souvent ils m’ont eux-mêmes indiqué d’autres personnes passionnantes qui sont en dessous des radars journalistiques. Comme le milieu informatique n’est pas mon milieu naturel, ça m’est très utile. Clarisse a été une des ces “sources”.

    Serge Abiteboul, Marie-Agnès Enard

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Pour une gouvernance citoyenne des algorithmes

    Un nouvel entretien autour de l’informatique.
    Karine Gentelet est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et professeure invitée à l’Université Laval. Elle a été en 2020-21 titulaire de la Chaire Abeona – ENS-PSL, en partenariat avec l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Le titre de sa chaire était « La gouvernance citoyenne pour renverser l’invisibilité dans les algorithmes et la discrimination dans leurs usages ». Elle aborde ce sujet pour binaire.
    Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation.

    Karine Gentelet, Site de l’ENS

     Binaire : Peux-tu nous parler du parcours qui t’a conduite notamment à être titulaire de la chaire Abeona ?

    Karine Gentelet : Mon profil est multidisciplinaire, avec une formation en anthropologie et en sociologie. J’ai un doctorat en sociologie, mais je préfère me définir par mes thèmes de recherche plutôt que par des disciplines.

    Française d’origine, je suis arrivée au Québec il y a plus de trente ans. C’était à une période traumatique de l’histoire du Québec, une grave crise interne, la crise d’Oka[1]. Cela m’a marquée de me retrouver face à des personnes en position de minorité, en difficulté. Je me suis intéressée à la reconnaissance des droits des peuples autochtones, à la façon dont ils mobilisent la scène internationale pour faire reconnaître leurs droits, et à la façon dont ils ont accès à la justice d’une manière large.

    Un moment donné, j’ai rencontré quelqu’un qui travaillait pour une communauté extrêmement excentrée au Nord du Québec. Là-bas, quand ils sont arrêtés pour une infraction, les prévenus sont emmenés dans le sud à 6 ou 7 heures de vol d’avion. A cause de la distance, leur famille ne peut plus les voir alors qu’ils sont parfois très jeunes. Pour pallier ce problème, la solution a été d’utiliser la technologie numérique pour déplacer virtuellement le tribunal et l’installer dans le Nord. Cela a redéfini l’espace du procès de façon remarquable : les bancs du juge, des accusés, du procureur, tout change ; les salles d’audience deviennent rondes par exemple. Ces minorités qu’on voit comme vulnérables arrivaient à renverser des rapports de pouvoir, et à redessiner l’espace du procès.

    Cela m’a conduite à être impliquée dans des projets de recherche sur les conditions de mise en place d’une cyber-justice. Et c’est ainsi que je suis arrivée à technologie numérique et l’intelligence artificielle (IA pour faire court).

    En général, ce qui m’intéresse c’est toujours de regarder l’angle mort, non pas tant ce qui se passe que ce qui ne se passe pas, ce qui n’est pas dit. Prenez des questions de décisions automatisées. J’étudie comment les gens voient le déploiement de ces outils, comment ils aimeraient qu’ils soient déployés. C’est là que mon expérience d’anthropologue me sert, à étudier comment les gens vivent avec ces technologies.

    B : La sociologie est typiquement plus dans l’observation que dans l’action ? Est-ce que cela te satisfait ?

    KG : Il y a plusieurs types de sociologie et la discipline a évolué. La sociologie devient, selon moi, de plus en plus anthropologique et regarde la société non plus telle qu’elle est mais avec un point de vue d’altérité, ce qui change le regard. On est dans une perspective beaucoup plus critique qu’avant, beaucoup plus près de l’action. De toute façon, comme je l’ai dit, je ne me vois pas uniquement comme sociologue mais plutôt dans la pluridisciplinarité.

    Pour l’IA, il ne faut pas se cantonner à l’observation de ce qui s’y passe. Il faut comprendre comme on se l’approprie, apporter un regard critique.

    Jon Tyson, unsplash.com

    B : En quoi les sciences sociales peuvent-elles servir à mieux comprendre l’IA ?

    KG : Souvent l’IA est présentée en termes purement techniques. Mais en fait, dans la manière dont elle est déployée, elle a des impacts sociétaux essentiels qu’il faut comprendre et qui nécessitent une perspective de sciences sociales.

    Il y a en particulier des enjeux de classification des datasets qui vont nourrir les algorithmes d’IA. Distinguer entre un chat et un chien n’a pas d’impact sociétal critique. Par contre, le classement d’une personne comme femme, homme, non binaire ou transgenre, peut soulever des questions de prestations sociales, voire conduire à la discrimination de certaines communautés, à des drames humains.

    Pour un autre exemple, pendant la pandémie, dans certains hôpitaux, les systèmes d’aide au triage tenaient compte des dépenses qui avaient été faites en santé auparavant : plus on avait fait de dépenses en santé dans le passé, moins la santé était considérée comme bonne ; on devenait prioritaire. Cela peut paraitre logique. Mais ce raisonnement ne tenait pas compte d’une troisième dimension, le statut socio-économique, qui conduisait statistiquement à un mécanisme inverse : les personnes socialement défavorisées avaient souvent fait moins de dépenses de santé parce qu’elles ne disposaient pas d’une bonne couverture de santé, et étaient en plus mauvaises conditions.

    Une analyse en science sociale permet de mieux aborder ce genre de questions.

    B : La question se pose aussi pour les peuples autochtones ?

    KG : Historiquement marginalisés, les peuples autochtones du Canada ont pris conscience très rapidement de la pertinence des données qui les concernent. Ceci a alors une incidence sur l’importance de ces données dans le fonctionnement des algorithmes. Ce sont des peuples avec une tradition orale, nomade, ce qui a une incidence sur la manière dont ils conçoivent les relations à l’espace, au temps, et à autrui. Pour eux, leurs données deviennent une extension de ce qu’ils sont, et doivent donc rester proches d’eux et c’est pourquoi c’est particulièrement important pour ces peuples autochtones de garder la souveraineté de leurs données. Ils tiennent à ce que leur acquisition, leur classification, leur analyse en général, restent sous leur contrôle. Ils veulent avoir ce contrôle pour que ce que l’on tire de ces données ne soit pas déconnecté de leur compréhension du monde.

    B : Est-ce qu’il y aurait un lien épistémologique entre les constructions de données et la compréhension du monde ?

    KG : Bien sûr. Les classifications de données que nous réalisons dépendent de notre compréhension du monde.

    J’ai co-réalisé une étude sur Wikipédia. Le système de classification de la plateforme entre en conflit avec la perspective de ces groupes autochtones. Pour eux, un objet inanimé a une existence, une responsabilité dans la société. Et puis, la notion de passé est différente de la nôtre. Les ancêtres, même décédés, sont encore dans le présent. La classification de Wikipédia qui tient par construction de notre culture ne leur convient pas.

    Ils considèrent plus de fluidité des interactions entre choses matérielles et immatérielles. Pour eux les pierres par exemple ont une agentivité et cela amènerait à une autre représentation du monde. Cela conduirait les algorithmes d’IA a d’autres représentations du monde

    Photo de Ian Beckley provenant de Pexels

    B : Tu veux dire que, pour structurer les données, on a plaqué notre interprétation du monde, alors que celle des peuples autochtones pourrait apporter autre chose et que cela pourrait enrichir notre connaissance du monde ?

    KG : Oui. J’ai même un peu l’impression que l’interprétation du monde qu’apportent les peuples autochtones est presque plus adaptée à des techniques comme les réseaux neuronaux que la nôtre à cause de l’existence de liens tenus entre les différentes entités chez eux, dans la fluidité des interactions. Mais je ne comprends pas encore bien tout cela ; cela demanderait d’être véritablement approfondi.

    Pour ceux qui ne correspondent pas forcément aux classifications standards de notre société occidentale, cela serait déjà bien d’avoir déjà plus de transparence sur la formation des datasets : comment ils ont été collectés, comment les gens ont consenti, et puis comment les classifications ont été réalisées. C’est véritablement une question de gouvernance des données qui est cruciale pour ceux qui sont minoritaires, qui ne correspondent pas forcément au cadre habituel.

    B : Est-ce que selon toi l’IA pourrait être une menace pour notre humanité, ou est-ce qu’elle pourrait nous permettre d’améliorer notre société, et dans ce cas, comment ?

    Photo de Nataliya Vaitkevich provenant de Pexels

    KG : On essaie de nous pousser à choisir notre camp. L’IA devrait être le bien ou le mal. Les technophiles et l’industrie essaient de nous convaincre que c’est beau, bon, pas cher, et que ça va améliorer le monde. Pourtant, cela a clairement des impacts négatifs sur certains groupes au point que leurs droits fondamentaux peuvent être à risque. Pour moi, l’IA, c’est comme souvent dans la vie, ni blanc ni noir, c’est plutôt le gris. Mais, si je ne vois pas dans l’IA une menace de notre mode de vie, je crois qu’il y a besoin d’une vraie réflexion sociétale sur les impacts de cette technologie. En fait, je me retrouve à accompagner certains groupes sur leur compréhension des impacts, et souvent les impacts sont négatifs.

    Il faut cesser de se bloquer sur la question de choisir son camp, pour ou contre l’IA, et travailler à comprendre et éliminer les impacts négatifs.

    L’IA est censée être un progrès. Mais un utilisateur se retrouve parfois dans a situation d’être confronté à une IA imposée, de ne pas comprendre ses décisions automatisées, de ne pas pouvoir les remettre en cause. Le résultat c’est que cela peut amplifier une possible situation de précarité.

    Quand j’ai renouvelé mon assurance auto, on m’a proposé une réduction de 15% si j’acceptais que la compagnie d’assurance traque tout mon comportement au volant. J’ai refusé. Mais d’autres n’auront pas les moyens de refuser. Cela pose la question du consentement et d’une société à deux vitesses suivant ses moyens financiers.

    On pourrait multiplier les exemples. Il faut que les citoyens puissent décider ce qu’on fait avec les algorithmes, et en particulier ceux d’IA.

    B : La notion de gouvernance des algorithmes est centrale dans ton travail. Comment tu vois cela ?

    KG : Le discours institutionnel à la fois des acteurs privés et des acteurs publics parle de la gouvernance de l’IA comme s’il y avait une dichotomie entre gouvernance de la société et gouvernance de IA, comme s’il y avait une forme d’indépendance entre les deux. L’IA est un outil et pas une entité vivante, mystérieuse et incompréhensible, qui flotterait au-dessus de la société. Je ne comprends pas pourquoi on devrait réinventer la roue pour l’IA. Nous avons déjà des principes, des pratiques de gouvernance, des lois, des représentants élus dans la société, etc. Pourquoi l’IA aurait-elle besoin d’autre chose que de structures existantes ?

    On voit arriver des lois autour de l’IA, comme l’ « Artificial Intelligence Act[2] » de l’Union européenne, cela me pose problème. S’il y a des enjeux importants qui amèneront peut-être un jour des modifications en termes de régulation, il n’y a pas de raison d’autoriser à cause de l’IA des atteintes ou des risques sur les droits humains. A qualifier un droit spécifique pour l’IA, on risque de passer son temps à courir derrière les progrès de la techno.

    Le problème vient de la représentation anthropomorphique qu’on a de ces technologies, la place que l’on donne à l’IA, la sacralisation qu’on en fait. Les décideurs publics en parlent parfois comme si ça avait des pouvoirs magiques, peut-être un nouveau Dieu. Il faut sortir de là. C’est juste une technologie développée par des humains.

    Le point de départ du droit qui s’applique pour l’IA devrait être l’impact sur les êtres humains. Il n’y a aucune raison de sacraliser le fait qu’on parle de numérique. C’est avant tout un problème de droits humains. Alors, pourquoi faudrait-il inventer de nouveaux outils de régulation et de gouvernance plutôt que d’utiliser les outils qui sont déjà là.

    Serge Abiteboul, Inria et ENS, Paris, et Claire Mathieu, CNRS et Université de Paris

    [1] La crise d’Oka ou résistance de Kanehsatà:ke est un événement politique marquant qui opposa les Mohawks au gouvernement québécois puis canadien, durant l’été du 11 juillet au 26 septembre 1990. La crise demandera l’intervention de l’armée canadienne après l’échec d’une intervention de la Sûreté du Québec. (Wikipédia, 2022)

    [2] Note des auteurs : l’ « Artificial Intelligence Act » est une proposition pour le moins discutable de la Commission européenne pour construire un cadre réglementaire et juridique pour l’intelligence artificielle.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Les communs numériques

    Un nouvel « Entretien autour de l’informatique ». Judith Rochfeld est professeure de droit privé à l’École de droit de la Sorbonne, et directrice du Master 2 « Droit du commerce électronique et de l’économie numérique ». C’est une des meilleures spécialistes des communs. Elle est co-éditrice du Dictionnaire des biens communs aux PUF, 2021. Elle est autrice de « Justice pour le climat ! Les nouvelles formes de mobilisation citoyenne » chez Odile Jacob, 2021.
    Cet article est publié en collaboration avec theconversation.fr.

    Judith Rochfeld

    binaire : Judith, peux-tu nous dire qui tu es, d’où tu viens ?

    JR : Je suis au départ une juriste, professeure de droit privé à l’Université Paris 1 Panthéon-Sorbonne. Au début, je m’intéressais aux grandes notions juridiques classiques, dont la propriété privée. Puis, sous le coup de rencontres et d’opportunités, j’ai exploré deux directions : le droit du numérique d’un côté ; et, avec un groupe de travail composé d’économistes, d’historiens, de sociologues, les « communs » dans la suite des travaux d’Elinor Ostrom (*), d’un autre côté. Cela m’a amenée à retravailler, entre autres, la notion de propriété. Par la suite, pour concrétiser certains des résultats de ces réflexions, j’ai dirigé, avec Marie Cornu et Fabienne Orsi, la rédaction d’un dictionnaire des biens communs. Aujourd’hui, je m’intéresse particulièrement à toutes les formes de biens communs et de communs, principalement en matière numérique et de données ainsi qu’en environnement.

    binaire : Pourrais-tu préciser pour nos lecteurs les notions de « biens communs » et de « communs » ?

    JR : Le vocabulaire n’est pas complètement stabilisé et peut varier suivant les interlocuteurs. Mais si l’on tente de synthétiser, on parlerait de « biens communs » pour saisir des biens, ressources, milieux, etc., à qui est associé un intérêt commun socialement, collectivement et juridiquement reconnu. Ce peut être l’intérêt d’une communauté nationale, internationale ou l’intérêt de groupes plus locaux ou restreints. On peut prendre l’exemple des monuments historiques : en 1913, on a assisté à des combats législatifs épiques pour faire reconnaître qu’il fallait les identifier, les classer, et admettre qu’ils présentaient un intérêt pour la nation française dans son ensemble ; qu’en conséquence, leurs propriétaires, fussent-ils privés, ne pouvaient pas avoir sur eux de pleins pouvoirs (comme le voudrait l’application de la propriété classique), jusqu’à celui de les détruire ; qu’ils devaient tenir compte de l’intérêt pour d’autres (voire pour les générations à venir), avec des conséquences juridiques importantes (l’obligation de les conserver dans leur état, de demander une autorisation pour les modifier, etc.).

    Il existe d’ailleurs divers intérêts communs reconnus : l’intérêt historique et/ou artistique d’un monument ou d’autres biens culturels, l’intérêt environnemental ou d’usage commun d’un cours d’eau ou d’un terrain, l’intérêt sanitaire d’un vaccin, etc.

    Mais précisons la terminologie. D’abord, il faut différencier entre « biens communs » et le « bien commun » discuté, par exemple, dans « Économie du bien commun » de Jean Tirole. Le second renvoie davantage à l’opposition entre bien et mal qu’à l’idée d’un intérêt commun.

    Ensuite, il faut distinguer « biens communs » et « communs ». Avec la notion de « communs » (dans le sens que lui a donné Elinor Ostrom), on ajoute l’idée d’une organisation sociale, d’un gouvernement de la ressource par la communauté. C’est cette communauté qui gère les accès, les prélèvements, les différents droits…, et assure avec cela la pérennité de la ressource. C’est le cas par exemple pour un jardin partagé, un tiers-lieu, ou une encyclopédie en ligne telle que Wikipédia, administrés par leurs utilisateurs ou un groupe de personnes dédiées.

    Un commun se caractérise typiquement par une communauté, une ressource que se partage cette communauté, et une gouvernance. Dans un bien commun, on n’a pas forcément cette gouvernance.

    binaire : Cela conduit bien-sûr à des conflits avec la propriété privée ?

    JR : On a souvent tendance à opposer les notions de biens communs ou de communs au droit de propriété privée, très belle avancée de la révolution française en termes d’émancipation et de reconnaissance d’un espace d’autonomie sur ses biens au bénéfice de l’individu propriétaire. Reconnaître qu’un bien porterait un intérêt commun poserait des limites au pouvoir absolu que la propriété renferme, en imposant la considération de l’intérêt d’une communauté. Cela peut être vrai dans certains cas, comme celui des monuments historiques évoqué.

    Mais c’est oublié qu’il peut y avoir aussi une volonté du propriétaire d’aller en ce sens. La loi de protection de la biodiversité de 2016 permet ainsi, par exemple, de mettre un bien que l’on possède (un terrain, une forêt, etc.) au service d’une cause environnementale (la réintroduction d’une espèce animale ou végétale, la préservation d’une espèce d’arbre,…) en passant un accord pour formaliser cette direction : le propriétaire établit un contrat avec une association ou une collectivité, par exemple, et s’engage (et engage ses héritiers) à laisser ce dernier au service de la cause décrite. On assiste alors à une inversion de la logique de la propriété : elle sert à partager ou à faire du commun plutôt qu’à exclure autrui. C’est la même inversion qui sert de fondement à certaines licences de logiciel libre : celui qui pourrait bénéficier d’une « propriété » exclusive, à l’égard d’un logiciel qu’il a conçu, choisit plutôt de le mettre en partage et utilise pour cela une sorte de contrat (une licence de logiciel libre particulière) qui permet son usage, des modifications, mais impose à ceux qui l’utilise de le laisser en partage. Le droit de propriété sert ainsi à ouvrir l’usage de cette ressource plutôt qu’à le fermer.

    binaire : Pour arriver aux communs numériques, commençons par internet. Est-ce que c’est un bien commun ? Un commun ?

    JR : C’est une grande discussion ! On a pu soutenir qu’Internet était un commun mondial : on voit bien l’intérêt de cette ressource ou de cet ensemble de ressources (les différentes couches, matérielles, logicielles, etc.) pour une communauté très large ; ses fonctionnement et usages sont régis par des règles que se donnent des « parties prenantes » et qui sont censées exprimer une sorte de gouvernance par une partie de la communauté intéressée. En réalité, internet a même plusieurs gouvernances — technique, politique — et on est loin d’une représentation de l’ensemble des parties prenantes, sans domination de certains sur d’autres. La règle, cependant, qui exprime peut-être encore le mieux une partie de cette idée est celle de neutralité du net (dont on sait qu’elle a été bousculée aux États-Unis) : tout contenu devrait pouvoir y circuler sans discrimination.

    binaire : Est-ce qu’on peut relier cela au droit de chacun d’avoir accès à internet ?

    JR : Oui, ce lien est possible. Mais, en France, le droit à un accès à internet a plutôt été reconnu et fondé par le Conseil constitutionnel sur de vieilles libertés : comme condition des libertés d’information et d’expression.

    binaire : Le sujet qui nous intéresse ici est celui des communs numériques. Est-ce tu vois des particularités aux communs numériques par rapport aux communs tangibles ?

    JR : Oui tout à fait. Ostrom étudiait des communs tangibles comme des systèmes d’irrigation ou des forêts. La menace pour de telles ressources tient principalement dans leur surexploitation : s’il y a trop d’usagers, le cumul des usages de chacun peut conduire à la disparition matérielle de la ressource. D’ailleurs, l’économie classique postule que si j’ouvre l’usage d’un bien tangible (un champ par exemple, ouvert à tous les bergers désirant faire paître leurs moutons), ce dernier sera surexploité car personne ne ressentira individuellement la perte de façon suffisante et n’aura intérêt à préserver la ressource. C’est l’idée que synthétisera Garrett Hardin dans un article de 1968 resté célèbre, intitulé la « Tragédie des communs » (**). La seule manière de contrer cet effet serait d’octroyer la propriété (ou une réglementation publique). Ostrom s’inscrira précisément en faux en démontrant, à partir de l’analyse de cas concrets, que des systèmes de gouvernance peuvent se mettre en place, édicter des règles de prélèvements et d’accès (et autres) et assurer la pérennité de la ressource.

    Pour ce qui est des communs numériques, ils soulèvent des problèmes différents : non celui de l’éventuelle surexploitation et de la disparition, mais celui qu’ils ne soient pas produits. En effet, si j’ouvre l’accès à des contenus (des notices de l’encyclopédie numérique, des données, des œuvres, etc.) et si, de plus, je rends gratuit cet usage (ce qui est une question un peu différente), quelle est alors l’incitation à les créer ?

    Il faut bien préciser que la gratuité est une dimension qui a été placée au cœur du web à l’origine : la gratuité et la collaboration, dans une vision libertaire originaire, allaient quasi de soi. Les logiciels, les contenus distribués, etc. étaient créés par passion et diffusés dans un esprit de don par leurs concepteurs. Or, ce faisant, on fait un choix : celui de les placer en partie hors marché et de les faire reposer sur des engagements de passionnés ou d’amateurs désintéressés. La question se pose pourtant aujourd’hui d’aller vers le renforcement de modèles économiques qui ne soient plus basés que sur cette utopie du don, ou même sur des financements par fondations, comme ceux des Mozilla et Wikipedia Fundations.

    Pour l’heure, la situation actuelle permet aux grandes plateformes du web d’absorber les communs (les contenus de wikipédia, des données de tous ordres, etc.), et ce sans réciprocité, alors que l’économie de l’attention de Google dégage des revenus énormes. Par exemple, alors que les contenus de l’encyclopédie Wikipédia, un commun, alimentent grandement le moteur de recherche de Google (ce sont souvent les premiers résultats), Wikipédia n’est que très peu rétribuée pour toute la valeur qu’elle apporte. Cela pose la question du modèle économique ou du modèle de réciprocité à mettre en place, qui reconnaisse plus justement la contribution de Wikipédia aux revenus de Google ou qui protège les communs pour qu’ils demeurent communs.

    binaire : On pourrait également souhaiter que l’État soutienne le développement de communs. Quelle pourrait être une telle politique de soutien ?

    JR : D’un côté, l’État pourrait s’afficher aux côtés des communs : inciter, voire obliger, ses administrations à choisir plutôt des communs numériques (logiciels libres, données ouvertes, etc.). C’est déjà une orientation mais elle n’est pas véritablement aboutie en pratique.

    D’un autre côté, on pourrait penser et admettre des partenariats public-commun. En l’état des exigences des marchés publics, les acteurs des communs ont du mal à candidater à ces marchés et à être des acteurs reconnus de l’action publique.

    Et puis, le législateur pourrait aider à penser et imposer la réciprocité : les communs se réclament du partage. Eux partagent mais pas les autres. Comment penser une forme de réciprocité ? Comment faire, par exemple, pour qu’une entreprise privée qui utilise des ressources communes redistribue une partie de la valeur qu’elle en retire ? On a évoqué le cas de Google et Wikipédia. Beaucoup travaillent actuellement sur une notion de « licence de réciprocité » (même si ce n’est pas simple) : vous pouvez utiliser la ressource mais à condition de consacrer des moyens ou du temps à son élaboration. Cela vise à ce que les entreprises commerciales qui font du profit sur les communs participent.

    Dans l’autre direction, un projet d’article 8 de la Loi pour une République Numérique de 2016 (non adopté finalement) bloquait la réappropriation d’une ressource commune (bien commun ici) : il portait l’idée que les œuvres passées dans le domaine public (des contenus numériques par exemple) devenaient des « choses communes » et ne pouvaient pas être ré-appropriées par une entreprise, par exemple en les mettant dans un nouveau format ou en en limitant l’accès.

    D’aucuns évoquent enfin aujourd’hui un « droit à la contribution », sur le modèle du droit à la formation (v. L. Maurel par exemple) : une personne pourrait consacrer du temps à un commun (au fonctionnement d’un lieu partagé, à l’élaboration d’un logiciel, etc.), temps qui lui serait reconnu pour le dédier à ces activités. Mais cela demande d’aller vers une comptabilité des contributions, ce qui, à nouveau, n’est pas facile.

    En définitive toutes ces propositions nous conduisent à repenser les rapports entre les communs numériques, l’État et le marché.

    binaire : Nous avons l’impression qu’il existe beaucoup de diversité dans les communautés qui prônent les communs ? Partages-tu cet avis ?

    JR : C’est tout à fait le cas. Les communautés qu’étudiaient Ostrom et son École étaient petites, territorialisées, avec une centaine de membres au plus, identifiables. Avec l’idée des communs de la connaissance, on est passé à une autre échelle, parfois mondiale.

    Certains communs se coulent encore dans le moule. Avec Wikipédia, par exemple, on a des communautés avec des rôles identifiés qui restent dans l’esprit d’Ostrom. On a la communauté des « bénéficiaires » ; ses membres profitent de l’usage de la ressource, comme ceux qui utilisent Wikipédia. On a aussi la communauté « délibérative », ce sont les administrateurs de Wikipédia qui décident des règles de rédaction et de correction des notices par exemple, ou la communauté « de contrôle » qui vérifie que les règles ont bien été respectées.

    Mais pour d’autres communs numériques, les communautés regroupent souvent des membres bien plus mal identifiés, parfois non organisés, sans gouvernement. Je travaille d’ailleurs sur de telles communautés plus « diffuses », aux membres non identifiés a priori mais qui bénéficient de ressources et qui peuvent s’activer en justice pour les défendre quand celles-ci se trouvent attaquées. Dans l’exemple de l’article 8 dont je parlais, il était prévu de reconnaître que tout intéressé puissent remettre en cause, devant les tribunaux, le fait de ne plus pouvoir avoir accès à l’œuvre du domaine public du fait de la réappropriation par un acteur quelconque. Il s’agit bien d’une communauté diffuse de personnes, sur le modèle de ceux qui défendent des « ressources environnementales ». On peut y voir une forme de gouvernance, certes à la marge.

    binaire : On a peu parlé de l’open data public ? Est-ce que la définition de commun que tu as donné, une ressource, des règles, une gouvernance, s’applique aussi pour les données publiques en accès ouvert ?

    JR : Il y a des différences.  D’une part, les lois ont vu dans l’open data public  le moyen de rendre plus transparente l’action publique : les données générées par cette action devaient être ouvertes au public pour que les citoyens constatent l’action publique. Puis, en 2016, notamment avec la loi pour une République numérique évoquée, cette politique a été réorientée vers une valorisation du patrimoine public et vers une incitation à l’innovation : des startups ou d’autres entreprises doivent pouvoir innover à partir de ces données. Les deux motivations sont légitimes. Mais, mon impression est qu’aujourd’hui, en France, l’État voit moins dans l’open data un moyen de partage de données, qu’un espace de valorisation et de réappropriation. D’autre part, ce ne sont pas du tout des communs au sens où il n’y a pas de gouvernance par une communauté.

    binaire : Tu travailles beaucoup sur le climat. On peut citer ton dernier livre « Justice pour le climat ». Quelle est la place des communs numériques dans la défense de l’écologie ?

    JR : Je mets de côté la question de l’empreinte environnementale du numérique, qui est un sujet assez différent, mais néanmoins très préoccupant et au cœur des réflexions à mener.

    Sur le croisement évoqué, on peut tracer deux directions. D’une part, il est évident qu’un partage de données « environnementales » est fondamental : pour mesurer les impacts, pour maîtriser les externalités. Ces données pourraient et devraient être saisies comme des « biens communs ». On a également, en droit, la notion voisine de « données d’intérêt général ». Il y a déjà des initiatives en ce sens en Europe et plus largement, que ce soit à l’égard des données publiques ou de données générées par des entreprises, ce qui, encore une fois, est délicat car elles peuvent recouper des secrets d’affaires.

    D’autre part, la gravité de la crise environnementale, et climatique tout particulièrement, donne lieu à des formes de mobilisations qui, pour moi, témoignent de nouvelles approches et de la « conscientisation » des biens communs. Notamment, les procès citoyens que je décris dans le livre, qui se multiplient dans une bonne partie du monde, me semblent les expressions d’une volonté de réappropriation, par les citoyens et sous la pression de l’urgence, du gouvernement d’entités ressenties comme communes, même si le procès est une gouvernance qui reste marginale. Ils nous indiquent que nous aurions intérêt, pour leur donner une voie de gouvernement plus pacifique, à installer des instances de délibération, à destination de citoyens intéressés (territorialement, intellectuellement, par leur activité, leurs besoins, etc.) saisis comme des communautés diffuses. A cet égard, une initiative comme la Convention Citoyenne sur le climat était particulièrement intéressante, ouvrant à une version moins contentieuse que le procès.

    Il pourrait en aller de même dans le cadre du numérique : l’utilisation de l’ensemble de nos données personnelles, des résultats de recherche obtenus en science ouverte, etc. pourraient, comme des communs, être soumise à des instances de délibération de communautés. On prendrait conscience de l’importance des données et on délibérerait sur le partage. Sans cela, on assistera toujours à une absorption de ces communs par les modèles d’affaires dominants, sans aucune discussion.

    Serge Abiteboul, Inria & ENS Paris, François Bancilhon, serial entrepreneur

    (*) Elinor Ostrom (1933-2012) est une politologue et économiste américaine. En 2009, elle est la première femme à recevoir le prix dit Nobel d’économie, avec Oliver Williamson, « pour son analyse de la gouvernance économique, et en particulier, des biens communs ». (Wikipédia)

    (**) « La tragédie des biens communs » est un article décrivant un phénomène collectif de surexploitation d’une ressource commune que l’on retrouve en économie, en écologie, en sociologie, etc. La tragédie des biens communs se produirait dans une situation de compétition pour l’accès à une ressource limitée (créant un conflit entre l’intérêt individuel et le bien commun) face à laquelle la stratégie économique rationnelle aboutit à un résultat perdant-perdant.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Le numérique pour une agriculture durable

    Un nouvel « Entretien autour de l’informatique ». Véronique Bellon-Maurel nous parle d’agriculture, de numérique, et d’environnement, des domaines qui, depuis des années, se rencontrent de plus en plus. Véronique Bellon-Maurel est agronome, une des meilleures expertes du domaine, et elle dirige l’Institut Convergences Agriculture Numérique, #DigitAg, depuis 2016. Elle a reçu le Grand Prix IMT – Académie des Sciences en 2020. Elle nous parle, entre autres, des « analyses de cycle de vie ». Nous espérons que vous prendrez autant de plaisir à découvrir cet échange que nous à le réaliser.

    Véronique Bellon-Maurel

    Binaire : Pour débuter, pourrais-tu nous parler de ton parcours ?
    Véronique Bellon-Maurel : Tout d’abord, j’ai obtenu un diplôme d’ingénieur agronome à AgroParisTech (à l’époque INAP-G), et je me suis spécialisée dans les capteurs et la mesure des propriétés des produits complexes. Dans cette optique, j’ai préparé une thèse de doctorat sur l’évaluation du goût des fruits en utilisant une méthodologie de mesure non destructive pour les produits : la spectroscopie dans le proche infrarouge.

    J’ai passé la plus grande partie de ma carrière comme chercheuse dans un institut qui a beaucoup évolué, le Cemagref devenu Irstea puis INRAE en 2020, à l’exception d’une période de 7 ans comme professeur à l’Institut Agro-Montpellier SupAgro. J’ai beaucoup travaillé sur les capteurs optiques,  la spectrométrie et l’imagerie proche infrarouge, pour les produits agricoles, l’agriculture de précision mais aussi pour évaluer d’autres propriétés difficiles à mesurer comme la biodégradabilité des plastiques.

    Ceci m’a amenée à réfléchir plus largement à l’évaluation de l’empreinte environnementale des produits. C’est ainsi qu’à partir de 2009-2010, à l’occasion d’un séjour sabbatique en Australie, j’ai exploré les questions liées à l’évaluation des impacts environnementaux des productions agricoles, forestières et des écotechnologies, basée sur les Analyses de Cycle de Vie (ACV).

    Enfin, à partir de 2013, je suis devenue directrice du département Ecotechnologies à Irstea où j’ai pu contribuer à plusieurs rapports sur les technologies du futur en agriculture. En 2016, j’ai monté l’Institut Convergences #DigitAg sur l’agriculture numérique et j’en ai pris la direction.

    Illustration des grandes phases d’une analyse de cycle de vie,
    comme décrite par ISO 14040

    B : Est-ce que tu pourrais expliquer en plus de détail aux lecteurs de Binaire ce que sont ces fameuses Analyses de Cycle de Vie ?
    VBM : L’ACV est une méthode pour étudier « l’empreinte » environnementale d’un procédé ou d’un produit qui s’est surtout diffusée à partir du début des années 1990. Prenons l’exemple d’une technologie de transfert des données, comme la 5G. Si on veut analyser et comparer son empreinte à d’autres technologies, il faut d’abord définir le service rendu (par exemple « transférer 1Mb de données à telle vitesse »). Ensuite, on doit considérer le système complexe qui permet de fournir ce service et ce pour chaque technologie, afin de les comparer. On réalise donc la modélisation numérique de ces systèmes, des consommations de matière et d’énergie et de flux polluants. On intègre différents aspects : l’énergie consommée pour la fabrication, les ressources utilisées comme les terres rares, l’infrastructure télécom installée avec ses data centers, la consommation énergétique pendant l’usage, la durée de vie, la réparation ou le recyclage des téléphones, etc. Puis pour quantifier des impacts à partir de ces émissions, on utilise des « chemins d’impact » calculés par des spécialistes des sciences de l’environnement.

    On obtient donc des impacts quantifiés à partir des estimations de la consommation énergétique et de matières premières. La tâche la plus difficile est vraiment la construction et l’ajustement du modèle qui permet de faire l’inventaire, c’est-à-dire la collecte ou la simulation des données de consommations et émissions associées. Avec trop de facteurs, trop de paramètres à considérer, on pourrait presque penser que c’est impossible. Mais le travail de l’expert praticien est justement de construire un modèle pertinent qui sera assez « fin » sur les étapes les plus impactantes. Dans un premier temps, une analyse grossière permet de comprendre quels sont les postes importants, puis on affine pour ces postes, et on se permet de négliger d’autres postes qui auraient réclamé de trop gros efforts de collecte.

    B : Ça sert vraiment en pratique ?
    VBM : Bien sûr. Mes travaux portent sur l’agriculture. Une ACV peut chercher à répondre avec des valeurs concrètes, précises, par exemple, à une question simple comme « quelle est l’empreinte environnementale pour produire un kilo de blé ».

    Mais si la question est simple, la réponse peut être complexe. Cela va dépendre de la géographie, produire un litre d’eau en Guyane et dans le Sahel, on comprend que ce n’est pas la même chose ; ou de la nature du blé visé, la quantité, de nombreux paramètres. Les consommateurs demandent de plus en plus du bio. Mais, est-ce mieux sur tous les aspects d’un point de vue environnemental ? La réponse n’est pas aussi simple qu’on veut bien le dire. On a besoin de mieux maitriser le sujet pour progresser. L’étude de l’empreinte environnementale de l’agriculture est un sujet passionnant.

    B  :  On sort des incantations. Vous apportez des faits, des vérités.
    VBM : C’est ce que nous sommes tenus de faire. Il ne s’agit pas juste de publier des résultats. Il faut aussi que ces résultats puissent être vérifiés, répliqués si quelqu’un le demande. Pour cela, les choix du modèle doivent être clairs et explicités, on doit avoir accès au détail des formules, des logiciels, des données utilisées.

    B  :  Les données sont importantes ?
    VBM : On n’insiste jamais assez sur la valeur des données pour les ACV. Le plus dur c’est souvent d’obtenir ces données. Les informaticiens disent « Garbage in, garbage out ». Si vous utilisez des données médiocres pour une ACV, ses résultats n’auront aucune valeur.

    Les ACV ont besoin de données et on pourrait d’ailleurs faire beaucoup mieux. On pourrait faire des analyses bien plus fines, par exemple, avec les « carnets de cultures ». Ce sont des carnets que les agriculteurs utilisent et dans lesquels ils décrivent les traitements réalisés, les conditions climatiques, hygrométriques, etc. Toutes ces informations représentent exactement les données nécessaires aux modèles numériques utilisés pour calculer des ACV. D’autres informations sont intéressantes comme la description des agroéquipements utilisés mais on peut facilement les trouver ailleurs. Pourquoi ces cahiers de culture ne sont-ils pas plus utilisés, surtout s’ils sont numériques ? Tous les acteurs, du producteur au consommateur, en tireraient des bénéfices.

    « Un exemple de technologies frugales et « d’agro-sourcing » : l’évaluation du stress hydrique de la vigne à l’aide d’un smartphone (Crédit Chaire AgroTIC-L’Institut Agro) ».

    B : Vos résultats sont souvent complexes. N’y-a-t-il pas un vrai défi par exemple à faire comprendre aux consommateurs les résultats d’une ACV de produits alimentaires ?
    VBM : C’est une vraie question, un frein à l’emploi des ACV. Aujourd’hui, nous utilisons principalement des étiquetages (origine, bio, etc.) et des échelles de valeur (dans des nutri-scores (*) par exemple). Ces informations présentent l’avantage d’être simples à comprendre mais sont limitées dans leur précision et aussi dans leur caractère parfois uniquement déclaratif. A contrario, une ACV est beaucoup plus précise en apportant une vingtaine de valeurs de variables. Du coup, elle est nettement plus difficile à appréhender dans sa globalité pour un non-expert. C’est pour cette raison que j’aimerais voir se développer des projets de recherche mixant des compétences en agronomie (pour maîtriser et expliquer ce que sont les ACV), en sciences cognitives (pour comprendre comment nous percevons l’information) et en informatique (pour concevoir et proposer des métaphores de visualisation et d’interaction).

    Il y a aussi une vraie difficulté à influencer les politiques publiques. Les politiques ont comme les consommateurs du mal à saisir la complexité des résultats des ACV. Et puis, leur focale est souvent nationale. Certains ont du mal à tenir compte des dégâts environnementaux causés, par exemple, en Tunisie, par la fabrication d’engrais utilisés en France. La Tunisie, c’est loin. Et pourtant, nous vivons tous sur la même planète…

    B : Parlons maintenant de l’institut #DigitAg que tu diriges ?
    VBM : Début 2016, fut publié le rapport sur « Agriculture et Innovation 2025 », qui émettait des recommandations auprès des ministres pour construire une agriculture compétitive et durable. Parmi les quatre grands piliers technologiques identifiés, entre autres leviers, figurait le numérique et le besoin de structurer la recherche française sur le sujet. C’est ainsi qu’un consortium (avec entre autres, l’Inria et l’INRAE) a porté le projet de l’Institut #DigitAg à l’AAP « Instituts Convergence » de 2016. Nous avons été l’un des 5 lauréats et #DigitAg a été créé début 2017. Il réunit près de 600 experts publics issus des sciences agronomiques, des sciences du numérique et jusqu’aux sciences sociales et de gestion et 8 entreprises privées. Recherche, innovation et formation figurent au menu de nos activités avec comme objectif de contribuer à mettre en place une agriculture numérique vertueuse. La pluridisciplinarité, voire l’interdisciplinarité, est dans notre ADN. Nous proposons des thèses et des postdocs au croisement de plusieurs de ces disciplines, le plus original et le difficile étant la rencontre des disciplines comme la création de jeux sérieux pour les agriculteurs.

    « La carte des sites du Living Lab Occitanum qui ambitionne d’évaluer les coûts et bénéfices économiques, environnementaux et sociaux des technologies numériques dans plusieurs filières agricoles en Occitanie » (Crédit : INRAE)

    B : Comment fais-tu le lien entre les ACV et l’agriculture numérique ?
    VBM : Le lien est double. D’une part, comme je l’ai déjà dit, les outils numériques sont indispensables pour collecter les données nécessaires pour la première étape de l’ACV, l’inventaire, très consommatrice de ces données. D’autre part, dans l’autre direction, l’ACV sert à mesurer l’impact environnemental de l’introduction d’un outil numérique dans une culture. Cette évaluation est très importante pour créer des références sur les outils numériques en agriculture : quels sont leurs bénéfices et leurs coûts, non seulement économiques mais aussi environnementaux. C’est d’autant plus important que des interrogations sont de plus en plus vives sur l’impact environnemental du numérique en général. Pour y répondre, #DigitAg a construit le Living Lab Occitanum (Occitanie Agroécologie Numérique, www.occitanum.fr), dans lequel nous évaluerons sur le terrain les bénéfices et coûts des technologies numériques et des changements de pratiques agricoles qu’elles ont permis.

    B : Binaire est particulièrement sensible à la place des femmes dans la science en général et dans le numérique en particulier ; as-tu envie de nous en parler ?
    VBM : Oui, absolument. C’est un de mes chevaux de bataille et depuis de nombreuses années. Je pense que la société dans laquelle nous vivons entraîne chez beaucoup de jeunes filles une forme d’autocensure quant aux métiers qu’elles pourraient exercer. Il est important de lutter contre ces préjugés. En relation forte avec l’université de Montpellier, nous allons bientôt annoncer une campagne de stages d’observation de 3ème à destination de collégiennes, pour qu’elles découvrent le numérique. L’informatique et l’agriculture vont bien ensemble et les filles y ont autant leur place que les garçons.

    Serge Abiteboul, Inria et ENS, Paris, Pascal Guitton, Université de Bordeaux et Inria

    Teaser : un livre blanc sur « agriculture et numérique » rédigé par des scientifiques de l’INRAE et d’Inria va bientôt sortir. Binaire l’attend avec impatience et vous en reparlera dès que possible.
  • Magie numérique et défis juridiques

    Un nouvel « Entretien autour de l’informatique ». Christophe Lazaro est Professeur au Centre de Philosophie du Droit, à l’Université de Louvain, et membre du Comité National Pilote d’Éthique du Numérique (France). Nous poursuivons avec lui le voyage commencé avec Célia Zolynski sur le droit du numérique. Christophe nous amène aux frontières du droit, de la philosophie et de l’anthropologie.

    Cet article est publié en collaboration avec theconversation.fr.

    Christophe Lazaro, UCLouvain

    B : Tu es juriste. Mais en préparant l’entretien, nous avons découvert que tu étais aussi spécialiste d’autres domaines. Peut-être pourrais-tu commencer par nous dire d’où tu viens.

    TL : Je suis au départ juriste, en effet. Au début de ma carrière, j’ai été avocat pendant une courte période. J’’ai également étudié en parallèle la philosophie et l’anthropologie. Puis j’ai fait une thèse de droit assez tardivement, à 33 ans, à l’Institut Universitaire Européen de Florence sur les enjeux juridiques et philosophiques des rapports entre corps et prothèses. Je suis passionné par la question de la technique et du corps. Je pratique d’ailleurs le Tai Chi depuis des années. Ce qui me passionne, c’est surtout la rencontre entre l’être humain et les nouvelles technologies, d’un point de vue juridique bien sûr mais aussi anthropologique et philosophique.

    B : Un de tes premiers travaux a porté sur les communautés de logiciel libre, plus particulièrement Debian.  

    TL : Oui. Ce travail reflète d’ailleurs bien la rencontre de mes intérêts croisés pour le droit et l’anthropologie. J’ai fait une étude anthropologique de la communauté dite virtuelle Debian. C’est une communauté très démocratique qui développe des systèmes d’exploitation basés exclusivement sur des logiciels libres.  Elle est virtuelle parce que ses membres se rencontrent principalement sur Internet. C’était la première fois que j’avais vraiment l’occasion d’échanger avec des informaticiens. Dans mon labo d’alors, on travaillait sur le droit du numérique mais on ne parlait pas trop avec eux.

    B : Tu as des compétences en informatique ?

    TL : Je me vois un peu comme un « handicapé des machines » avec une grande soif de savoir parce que je n’y comprends pas grand-chose. Cela me pousse à poser des questions aux spécialistes. J’ai été bluffé par l’hyper-structure sociale et politique de la communauté Debian. J’ai d’ailleurs pu participer à cette communauté. C’était passionnant ! J’ai voulu comprendre comment ils fonctionnaient.

    Ça a donné un livre. Ce genre d’études d’une communauté virtuelle était original pour l’époque. Avec le regain d’intérêt actuel pour les communs, cela vaut la peine d’aller regarder des communautés fondées sur cette notion de commun. Par exemple, à côté des communautés de logiciels libres, il y a des collectifs d’habitat groupé, des coopératives d’agriculture alternative ou des communautés d’éditeurs de Wikipédia. D’un point de vue anthropologique, ces initiatives interrogent l’essence même du concept de communauté. Comment peut fonctionner une communauté avec le don comme seule modalité d’échange et de coopération entre ses membres ?

    B : Tu as aussi beaucoup réfléchi à l’ « augmentation » de l’humain avec la technique, et aux questions que cela pose en terme de justice ?

    TL : D’abord, pour moi, une technologie n’augmente pas, elle transforme. Une simple note adhésive que nous utilisons au bureau n’ « augmente » pas la mémoire à proprement parler. Il permet d’organiser les tâches différemment, en transformant les actions à accomplir. Un sujet, par exemple, me passionne depuis ma thèse sur les prothèses : une fois la personne « transformée » par la technologie, que devient l’égalité ? Comment doit-on la traiter ? La technologie bouleverse les notions d’égalité et de mérite qui sont au cœur de nombreuses activités humaines. On peut parler d’Oscar Pistorius ou plus récemment de Blake Leeper, deux athlètes amputés équipés de prothèses souhaitant concourir au plus haut niveau aux côtés des  « valides ». Mon ouvrage La prothèse et le droit (vous excuserez l’autopromotion) qui a remporté en France le prix du livre juridique en 2016, aborde ce type de questions. Maintenant, avec l’IA, on va de plus en plus loin et cela questionne radicalement la nature de certaines activités qui étaient autrefois l’apanage exclusif des humains.

    Surveillance numérique @serab

    B : Pour prendre un exemple concret de question que cela pose, des outils informatiques notamment basés sur l’IA aident les employés des entreprises. Mais ils posent aussi des problèmes en termes de surveillance excessive des employés. Comment gérer cela ?

    TL : Dans l’entreprise, on propose des outils pour organiser et faciliter le travail, pour optimiser la coordination et l’effectuation des tâches. Mais ces outils peuvent aussi servir à de la surveillance. Est-ce que les avantages apportés par cette transformation du travail et du rôle de l’employé compensent les risques de surveillance qu’ils introduisent ? La loi devrait être là pour dissuader de certaines formes disproportionnées de contrôle des employés, mais le  juriste d’aujourd’hui doit aussi être conscient des limites du droit face à l’ambivalence intrinsèque des technologies,. Je n’ai pas de solution pour empêcher les abus de ces technologies parce que celles-ci sont si géniales qu’on ne les voit pas, qu’elles opèrent en toute discrétion, et qu’on ne sait pas comment elles fonctionnent. J’ajouterais même que plus grand est leur confort d’utilisation, plus elles « disparaissent ». Cette invisibilité rend les modes de résistances juridiques ou autres difficiles à mettre en œuvre.

    B : Cette invisibilité est quand même relative. Avec le numérique, on peut garder des traces de tous les traitements. On pourrait argumenter que le numérique est au contraire beaucoup plus transparent.

    CL : C’est là que ça devient intéressant. Il faudrait distinguer des régimes suivant la visibilité d’un processus. Du point de vue de l’employé, s’il ne peut pas voir la surveillance, le processus de surveillance est transparent. C’est en cela que je parle d’invisibilité car les effets de la technologie ne s’éprouvent plus, à travers le corps et les sens. Et avec l’IA, on ira vers encore plus d’invisibilité en ce qu’on ne sait souvent même pas expliquer les choix des logiciels. Je pense que c’est un sujet à étudier.

    B : Qu’est ce qui pourrait débloquer la situation ?

    TL : L’anthropologie. (rire) Une alliance entre des informaticiens, des philosophes, des juristes… On est par essence en pleine interdisciplinarité. Les questions ne sont pas philosophiquement nouvelles. Mais, plutôt que d’en parler abstraitement, il faut s’attaquer à des questions précises sur des pratiques, dans des situations d’usage. Pour moi, la recherche a aujourd’hui atteint un seuil. D’un point de vue juridique ou éthique, elle tourne en rond en ressassant les mêmes questions et principes. Plutôt que de disserter sur l’éthique de l’IA d’une manière désincarnée, plutôt que de proposer un énième réflexion sur le dilemme du tramway et les véhicules autonomes… il faut envisager les choses de manière empirique et poser des questions en situation.

    Par ailleurs, pour développer une éthique de l’IA, il faudrait se mettre d’accord d’abord sur une véritable méthodologie et l’appliquer ensuite en faisant collaborer des points de vue interdisciplinaires. Comme toute discipline, l’éthique ça ne s’improvise pas et, dans l’histoire récente, nous ne sommes qu’aux premiers balbutiements d’une coopération entre sciences humaines et sciences dures.

    B : Qu’est-ce que le juriste peut nous dire sur le contentement éclairé et libre ?

    TL : C’est un des points les plus problématiques à la fois d’un point de vue juridique et philosophique pour les technologies du 21e siècle. Le problème

    Contentement totem @serab

    c’est l’idée même que l’être humain pourrait exprimer un choix éclairé et libre dans ces nouveaux contextes ; les deux adjectifs étant essentiels.

     

    Comment le consentement peut-il être « éclairé » ? L’utilisateur ne s’intéresse pas vraiment au fonctionnement des technologies qu’il utilise quotidiennement et on ne l’encourage pas à comprendre ce qu’elles font ou ce qu’elles lui font faire. On lui propose des services user-friendly et cette amitié « machinique » implique des routines incorporées, un aspect prothétique fort, une forme d’hybridation. Dans ce contexte, il est difficilement envisageable d’interrompre le cours de l’action pour demander à chaque fois un consentement, en espérant en plus que ce consentement ait un sens.

    Il faudrait aussi parler du caractère « libre » du consentement. Avec les GAFAM, quelle est la liberté de choix face à un tel déséquilibre de pouvoir et d’information ? Avec Facebook, par exemple, vous devez accepter des CGU qui peuvent changer par simple notification. Et quel adolescent a vraiment le choix d’aller ou non sur Facebook ? Le choix n’existe plus d’un point de vue sociologique car se passer de Facebook pour un jeune c’est synonyme de mort sociale.

    Si le RGPD a fait un peu avancer les choses, l’accent qui continue d’être mis sur la notion de consentement éclairé et libre est problématique. Avec la complexité de l’informatique, c’est la fiction du sujet rationnel, autonome, capable de consentir qui s’effondre. Depuis toujours, le droit est friand de fictions ; elles lui permettent d’appréhender la complexité du réel et de gérer les litiges qui en résultent. Aujourd’hui, il faudrait sans doute en inventer d’autres, car la magie du consentement dans l’univers numérique n’opère plus.

    « Vous avez consenti, alors c’est bon ». Vous acceptez de vous livrer gracieusement à la bienveillance des plateformes qui prennent les décisions à votre place. C’est peu satisfaisant. Vous pouvez aussi attendre de l’informatique qu’elle vous aide. Oui, mais ça n’existe pas encore.

    Antoinette Rouvroy parle de « fétichisation des données personnelles ». On devrait aussi parler de fétichisation du consentement. On ne peut continuer à mettre autant de poids dans le consentement. Il faut imposer des contraintes beaucoup plus fortes aux plateformes.

    B : Tu as parlé d’aide apportée par l’informatique.  Peut-on imaginer des systèmes informatiques, des assistants personnels, des systèmes d’information personnelle, qui nous aident à exprimer nos choix ?

    TL : Bien sûr, on peut imaginer une collaboration entre les machines et l’utilisateur. Mais il faudrait déjà que l’utilisateur ait les capacités de spécifier ce qu’il veut. Ce n’est pas évident. Qu’est-ce que cela représenterait pour un jeune, par exemple, de spécifier sa politique d’autorisation de cookies ?

    B : Est-ce qu’on peut parler de personnalité juridique du robot ?

    TL : C’est compliqué. La question fondamentale c’est de savoir si la notion de personnalité en droit procède de la simple pragmatique juridique, ou si c’est plus, si cela inclut une véritable valeur philosophique. Pour prendre un exemple, un chien d’aveugle est blessé par une voiture. Le juge a considéré ce chien comme une « prothèse vivante », une extension de la personnalité de l’aveugle. Cette construction lui a permis de donner une meilleure compensation car les régimes d’indemnisation diffèrent selon qu’il s’agisse d’une atteinte à l’intégrité physique d’un individu ou d’un dommage aux biens qu’il possède. Le droit ne dit pas ontologiquement si ce chien d’aveugle est une personne ou pas. C’est le contexte et la visée de justice qui ont conduit le juge à créer cette chimère. Pour ce qui est des robots, je pense, avec les pragmatistes, que l’on pourrait accorder une forme de personnalité aux robots. Il ne s’agit pas de dire qu’un robot est comme une « personne physique » et qu’il peut jouir de droits fondamentaux, par exemple. Non, c’est une autre forme de personne, un peu comme on l’a fait avec les « personnes morales ». Cela permettrait de résoudre des problèmes en matière de responsabilité.

    B : Quelle est le sujet de recherche qui te passionne en ce moment ?

    CL : Je travaille sur la notion de prédiction algorithmique ; ce qui va me donner beaucoup d’occasions de travailler avec des informaticiens. Il y a aujourd’hui une véritable obsession  autour des vertus prédictives de l’intelligence artificielle. Je trouve dingue l’expression « prédiction en temps réel » (nowcasting en anglais) ; une prédiction, c’est pour le futur. Comme anthropologue, je suis passionné par l’idée de comparer la prédiction algorithmique avec les pratiques divinatoires, qui restent encore très répandues. Dans son ouvrage « De divinatione », Cicéron s’attaquait à la question de l’irrationalité de la divination. C’est fascinant de voir qu’on rejoue au 21e siècle cette même question de la rationalité scientifique avec l’intelligence artificielle. C’est ça que j’essaie de comprendre. Comment est-ce qu’on part de résultats d’IA pour établir des savoirs prédictifs quasiment indiscutables ? Bien sûr, on peut comprendre la prédiction algorithmique quand elle s’appuie sur des validations expérimentales, qu’elle établit des taux de confiance dans les résultats. Mais on voit aussi se développer des prédictions  algorithmiques qui par certains aspects rejoignent plus les pratiques magiques que scientifiques.

  • Comment les expériences numériques s’invitent dans le climat et l’hydrologie ?

    Un nouvel « Entretien autour de l’informatique ».  L’informatique joue un rôle essentiel en climatologie comme l’ont déjà expliqué à binaire Valérie Masson-Delmotte (Les yeux dans les nuages) et Olivier Marti (Le climat dans un programme informatique). Mais l’étude du climat est si essentielle qu’il mérite qu’on s’attarde sur le sujet. Dans un entretien réalisé par Serge Abiteboul et Claire Mathieu, Agnès Ducharne, Directrice de recherche au CNRS nous parle d’une autre facette de la climatologie. Elle est spécialiste de la modélisation de l’hydrologie des surfaces continentales et des interactions climat-végétation-sol. Elle nous raconte les liens intenses entre climat et hydrologie qu’elle étudie avec le numérique.

    Agnès Ducharne, CNRS

    B – Pouvez-vous nous raconter brièvement votre carrière ?

    AD – J’étais une enfant curieuse, dans une famille pas du tout tournée vers les études. J’ai pu profiter de l’enseignement de la République, à l’école et au lycée. J’étais intéressée par les sciences, en particulier la biologie, et j’ai eu la chance de pouvoir entrer à l’École Normale Supérieure en biologie. J’y ai découvert l’écologie scientifique, ce qui a été une révélation pour moi. J’ai été emballée par la vision systémique des choses et une forme de syncrétisme entre des disciplines variées qu’apportent l’écologie.

    Au moment de choisir un sujet de thèse, je m’intéressais aux liens entre déforestation et climat. J’ai rencontré Katia Laval, professeur de climatologie. Elle est devenue ma directrice de thèse et m’a orientée vers le climat et l’hydrologie continentale. Je m’y suis lancée à l’aveugle. J’ai appris en lisant et en parlant avec des gens. Ce qui caractérise mon parcours, c’est la curiosité et l’envie de comprendre les liens de la nature avec les sociétés humaines, le climat n’en étant qu’une composante. Je suis hydrologue, mais également climatologue. Tout le monde voit bien ce qu’est la climatologie, l’étude du climat. L’hydrologie, quant à elle, s’intéresse à l’eau, et plus précisément à l’eau continentale, à sa répartition spatiale et à sa dynamique temporelle. L’hydrologie dépend bien sûr du climat, par exemple les quantités de pluie. Mais, dans l’autre direction, la disponibilité en eau influence la végétation et le climat. La présence humaine est impactée par ce système hydro-climatique, mais elle le perturbe également, et c’est l’étude de ces interactions qui me motive depuis plus de 20 ans.

    L’hydrologue, Saint Oma

    B – Vous vous intéressez à l’évolution de l’hydrologie, sa situation dans le passé et les projections sur l’avenir ?

    AD – C’est au cœur de ce que je fais. J’utilise des modèles numériques qui décrivent les propriétés physiques et biophysiques des bassins versants, dans le but de comprendre l’évolution de l’hydrologie. Pour certains usages, on peut se contenter de modèles du transfert de l’eau. Par exemple, pour dimensionner des ponts, des ouvrages, dans le cadre de plan de prévention des inondations, on s’intéresse à des événements extrêmes issus du passé. On utilise des observations du climat, de la topographie, de l’occupation des sols, pour reconstituer l’hydrologie correspondante et vérifier qu’une installation ne sera pas inondée trop souvent. On peut aussi tester avec ce genre de modélisation l’intérêt de mesures de prévention, par exemple de digues, en modifiant la topographie exploitée par le modèle, ou la position de l’installation.

    Ce qui est essentiel dans la modélisation numérique de l’environnement, c’est qu’elle nous permet d’interpoler des observations incomplètes dans l’espace et le temps, sur la base de règles physiques et rationnelles. On essaie ainsi de reconstruire les évolutions du passé, mais aussi de quantifier l’importance relative des facteurs qui contrôlent les changements hydrologiques. Un de ces facteurs est le climat, qui change en ce moment, et parmi les questions que l’on se pose, il y a celle de savoir si d’autres facteurs peuvent amplifier les changements induits par le climat, ou au contraire les atténuer.

    Si l’on prend l’occupation des sols par exemple : une forêt renvoie davantage d’eau de pluie sous forme d’évapotranspiration qu’une culture et encore plus qu’un parking, qui génère en contrepartie plus de ruissellement qu’une forêt. Si donc on combine imperméabilisation et intensification des pluies extrêmes, qui constitue une des signatures du réchauffement climatique, on augmente « doublement » les risques d’inondations. L’irrigation peut aussi modifier substantiellement l’hydrologie régionale. L’eau nécessaire pour irriguer les cultures est habituellement prise dans des cours d’eau à proximité ou dans des nappes souterraines. Il faut souligner que l’eau des nappes n’est pas statique, elle coule, en général vers les cours d’eau, donc quand on prend de l’eau, on détourne cette eau de sa destinée naturelle, les cours d’eau. Du coup, l’irrigation modifie considérablement le régime des cours d’eau. Dans le monde, les 3/4 des prélèvements d’eau dans les rivières et les nappes sont effectués pour l’irrigation. S’y ajoutent les prélèvements pour l’eau potable, ainsi que pour les activités industrielles, par exemple pour le refroidissement des centrales électriques ou des usines métallurgiques. On peut observer tous ces prélèvements d’eau quand on regarde l’évolution long-terme des débits des cours d’eau, qui diminuent dans de nombreux endroits de la planète. Dans les zones très irriguées comme l’Inde ou la Californie, la baisse des ressources en eau souterraine est même détectable depuis l’espace, par gravimétrie satellitaire.

    Lit d’un cours d’eau intermittent, Ile de Naxos (Grèce), Avril 2019. Agnès Ducharne.

    On peut aussi observer l’effet des barrages artificiels, qui réduisent la variabilité saisonnière des débits entre saison des pluies et saison sèche. Mais de nombreux barrages servent aussi pour l’irrigation, ce qui rajoute comme impact de diminuer le débit aval du cours d’eau. Un exemple archétypique est celui d’Assouan sur le Nil, qui a entrainé une baisse de débit d’un facteur 5 environ entre le début et la fin des années 1960, c’est-à-dire la période de construction du barrage. Croisée avec la croissance démographique dans la basse vallée du Nil, cette baisse pose désormais des problèmes d’accès à l’eau. Mais il faut garder en tête que cette croissance démographique a été permise par l’intensification de l’agriculture, elle-même permise par la possibilité d’irriguer en dehors des périodes de crue du Nil grâce au barrage. Cet exemple montre la multi-factorialité des problèmes liés à l’eau, pour lesquels il est rarement possible de trouver une solution optimale.

    Dans ce cadre, les simulations numériques sont donc très utiles pour explorer toute une gamme de solutions. Le principe est d’informer et calibrer un modèle hydrologique avec l’ensemble des observations disponibles sur une période donnée, puis de s’en servir pour projeter des situations différentes, y compris dans le futur : Que se passerait-il si on accélérait la déforestation ? Voire si on supprimait toutes les forêts de la Terre entière ? Quelle différence de débits entre le climat actuel et le climat de 2100 ? Pour répondre à cette dernière question, les modèles hydrologiques doivent s’articuler avec des estimations du climat futur, fournies par des modèles climatiques.

    B – Nous sommes de plus en plus conscients, collectivement, des problèmes soulevés par le dérèglement climatique. Avons-nous des raisons de nous inquiéter aussi pour l’eau ?

    AD – Bien sûr. Climat et hydrologie sont très intimement liés. Regardons l’évolution du cycle de l’eau. La Terre se réchauffe, à cause de l’augmentation des gaz à effet de serre dans l’atmosphère, qui augmente le rayonnement infra-rouge renvoyé à la surface de la terre. Cette énergie supplémentaire favorise l’évaporation par les surfaces terrestres, tout comme le fait qu’une atmosphère plus chaude peut contenir plus de vapeur d’eau. Au contraire, l’augmentation CO2 a tendance à réduire l’évapotranspiration, car les plantes peuvent assimiler la même quantité de carbone par photosynthèse en ouvrant moins leurs stomates. Ces changements modifient la teneur en eau de l’atmosphère, ainsi que la répartition des précipitations et leur régime. Mais les processus impliqués sont complexes, variables dans le temps et l’espace, et il serait impossible d’estimer comment ils vont se manifester sans l’apport des modèles climatiques.

    Grâce à ces outils, les climatologues ont trouvé que le cycle de l’eau s’intensifie à l’heure actuelle, si bien que dans les zones et périodes où il pleut beaucoup, il pleuvra encore plus avec le réchauffement. Par exemple, les crues cévenoles, ou les cyclones, sont appelés à devenir plus intenses ou plus fréquents. En parallèle, les zones et périodes sèches vont s’accroître en intensité et durée de sécheresse. En articulant modèles climatiques et hydrologiques, on retrouve ces tendances dans les cours d’eau et nappes souterraines, avec quelques modulations liées notamment aux temps de résidence plus importants dans les bassins versants que dans l’atmosphère.

    B – A quelle échelle de temps ces changements vont-ils se réaliser ?

    AD – Les échelles de temps sont les mêmes que celles qui sont explorées par les climatologues, avec des changements importants d’ici la fin du XXIe siècle, typiquement, mais qui sont déjà en cours.

    B – Et pour ce qui est de la situation particulière de la France ?

    AD – Tous les exercices prospectifs auxquels j’ai participé montrent malheureusement que pour le pourtour méditerranéen, qui fait notoirement partie des zones sèches de la planète, les choses vont empirer, c’est une quasi-certitude. De plus, ces zones sont en été largement alimentées par la fonte de la neige qui stocke l’eau temporairement à l’échelle d’une saison. À l’heure actuelle, cette fonte est plus forte qu’elle n’a été il y a 50 ans, ce qui compense les baisses de précipitation en cours qui sont encore assez faibles. Mais le réchauffement va se poursuivre, la quantité de neige va diminuer, et viendra un temps où cet effet de stockage saisonnier de précipitations hivernales pour être rendu en été aura disparu. Quand les glaciers auront fondu, l’absence de leur apport se rajoutera à l’effet direct sur les précipitations et augmentera la sécheresse hydrologique de ces zones méditerranéennes.

    Ça c’est pour le sud. Quand j’ai commencé à travailler sur les impacts hydrologiques du changement climatique, au début des années 2000, on pensait par contre qu’en France, les zones plus au nord allaient être préservées. Ce sont des zones plutôt humides et les modèles climatiques indiquent qu’il y aura un accroissement des précipitations dans les zones les plus humides, mais malheureusement pas à l’échelle de la France. Ainsi, même au nord de la France, il faut s’attendre à une baisse sensible des précipitations, en tout cas l’été, et cela pose des questions d’adaptation pour l’agriculture et les écosystèmes, ainsi que les activités qui exploitent les cours d’eau et les nappes.

    B – Est-ce que cela suggère des politiques publiques ? Peut-être des constructions de nouveaux barrages ?

    AD – Oui. Mais les constructions de barrages sont contestées car quand on construit un barrage, on ne crée pas d’eau. En fait, un barrage joue un peu le même rôle que la neige : retenir de l’eau quand il y en a beaucoup, pour la redistribuer à d’autres moments. Remplacer les neiges qui disparaissent par des barrages ? Pourquoi pas, mais les barrages posent aussi des problèmes d’autre nature que purement hydriques, en altérant le transport sédimentaire dans les cours d’eau, et les conditions de vie des espèces aquatiques.

    Surtout, pour quels usages est-ce qu’on réserverait ainsi cette eau ? C’est un problème qui n’est pas résolu. Quand une ressource est limitée, quelle qu’elle soit, c’est compliqué de l’attribuer de manière équitable à tous les gens qui en ont besoin, et qui prétendent tous en avoir besoin plus que leur voisin, sans compter les usagers muets comme les poissons. Il y a des gens qui travaillent sur ces questions, avec de la théorie des jeux par exemple. Mais actuellement, dans la pratique, c’est l’agriculture qui gagne. Et c’est vrai qu’on a besoin de manger. Néanmoins, quand les agriculteurs captent cette ressource, ils en privent tous les usagers aval. On le voit très nettement en France dans le sud-ouest, où il y a énormément de petites retenues, y compris des retenues sauvages. Quand on met une retenue à un endroit, on peut s’en servir à proximité, mais les usagers aval sont pénalisés. Cela peut être des écosystèmes naturels, mais aussi d’autres agriculteurs, ou les urbains, car les villes sont souvent en aval des bassins versants. On ne peut pas imaginer de généraliser ça sans mieux gérer la pénurie. Car comme les barrages ne créent pas d’eau, ils resteront désespérément vides en cas de sécheresses prolongées, comme on peut déjà le constater en Californie.

    B – Cela milite pour une réflexion publique et le choix de critères pour gérer l’eau ?

    AD – Oui. Il faut bien sûr garantir à l’agriculture un certain accès à l’eau mais en réfléchissant à la bonne façon d’utiliser cette eau. Il y a actuellement des aides pour l’agriculture irriguée. Ce n’est pas toujours une bonne idée. Par exemple, le maïs a besoin d’eau pendant la saison sèche en France : est-il raisonnable de continuer à le cultiver de manière intensive en France ?

    Nos simulations mettent en évidence le problème des ressources en eau au cours du prochain siècle. Nous travaillons sur plusieurs scénarios de réchauffement, qui sont eux-mêmes contraints par plusieurs scénarios d’émission de gaz à effet de serre. Nos résultats montrent ainsi que pour éviter des conséquences désastreuses, il est indispensable de limiter les émissions de gaz à effet de serre dans l’atmosphère. Si on ne tient pas les engagements de l’accord de Paris, on aura un réchauffement supérieur à deux degrés. Il faut en tirer les conséquences. Cela risque de générer des conflits d’usage de l’eau. On parle souvent de tels conflits en Afrique ou au Moyen-Orient. Mais en France, aussi ! Et ce type de conflits ne se résout pas de manière pacifique, même en France. Le barrage de Sivens (*) n’en est qu’un avant-goût.

    B – Quelle est la place de l’informatique dans votre travail ?

    AD – L’informatique est au cœur de tout ce que je fais. Pour ce qui est du climat, les entretiens pour binaire de Valérie Masson-Delmotte et Olivier Marti insistent déjà sur l’utilisation de l’informatique. Je ne peux que confirmer cela dans le cadre de l’hydrologie. Nos modèles combinent la connaissance théorique que nous avons de l’environnement avec les observations variées qui sont collectées in situ et par satellite. Les équations se traduisent en un système complexe de lignes de code informatique qui, alimentés par des données, permet d’approcher le fonctionnement qu’on peut observer. Pour moi, la principale vertu d’un modèle numérique est de réaliser une synthèse intelligente des connaissances théoriques et des observations. Cela permet de comprendre ce qui se passe et mais aussi de réaliser des projections robustes d’évolutions futures sous différents scénarios. On peut ainsi contraster les conséquences hydrologiques de deux scénarios d’émission de gaz à effet de serre de manière quantitative.

    B – Quelle confiance peut-on avoir dans les résultats ?

    AD – La modélisation numérique présente évidemment des incertitudes mais on peut les quantifier. Comment s’y prend-t-on ? On travaille sur ce qui a été observé dans le passé. On vérifie si les modèles reproduisent correctement, par exemple, les débits observés. Typiquement, on calibre le modèle (on choisit ses paramètres) sur une partie des données et on valide avec les autres la robustesse du modèle et de ses paramètres. Cette étape de validation permet d’estimer une incertitude, une marge d’erreur, laquelle sert à proposer une marge d’erreur dans nos projections du futur. Si on est pointilleux, il faut ajouter que cette marge d’erreur est elle-même incertaine, car elle suppose que les erreurs du modèle seront les mêmes dans le climat futur que dans le climat passé, ce que rien ne garantit. Mais c’est une malédiction universelle quand on essaie d’imaginer ce qu’on ne peut pas observer. Et la confiance est renforcée par l’assise théorique des modèles.

    Et puis, nous nous plaçons vraiment dans l’esprit des travaux du GIEC (**). Nous ne faisons pas des prévisions car nous ne savons pas quelles seront les émissions de gaz à effet de serre dans le futur. Nous réalisons des projections selon certains scénarios, qui correspondent à des hypothèses sur les facteurs d’évolution du climat ou de l’hydrologie. Ce qui est intéressant dans ce cadre, c’est de comparer deux scénarios, car on peut souvent conclure avec une bonne confiance que « celui-ci va être pire que l’autre » même en présence d’incertitude.

    B – Est-ce que vous travaillez avec des informaticiens ?

    AD – L’Institut Pierre-Simon Laplace où je travaille a développé son propre modèle du climat, qui intègre un modèle « des surfaces continentales », au sein duquel je travaille sur la composante hydrologique. Au total, une centaine de personnes travaillent sur le modèle de climat, dont des informaticiens. D’une part, ils nous aident avec les techniques numériques que nous utilisons. D’autre part, ils gèrent les logiciels ; ils définissent les environnements de développement logiciel et organisent les différentes composantes pour que le modèle soit plus performant, bien adapté aux calculateurs à notre disposition. Olivier Boucher pilote le développement scientifique et technique.

    B – Qu’attendez-vous de vos doctorants, en termes de formation ? Et de formation en informatique ?

    AD – On peut dire que, souvent, je forme d’autres moi-même. Comme moi, ce sont des spécialistes en environnement, des spécialistes en géologie, génie civil, ou agronomie. Quand ils arrivent, ils ne sont pas du tout aguerris en techniques numériques et n’ont pas de compétence particulière en programmation. Les étudiants d’aujourd’hui n’en connaissent pas plus en informatique que mes premiers étudiants. Je leur fais suivre des formations. Les outils que nous utilisons sont codés en Fortran, donc ils suivent des cours de programmation en Fortran. Il faut aussi qu’ils s’habituent à l’environnement logiciel mis en place par l’équipe technique. C’est indispensable pour la reproductibilité et la fiabilité des simulations. Et puis, quand ils arrivent, ils connaissent Windows. On les forme à l’operating system Unix. Ils apprennent à programmer en shell. C’est très formateur, cela leur permet de mieux comprendre ce qu’ils font. En général, ils aiment beaucoup ça. Ce qui a beaucoup changé pour la formation en informatique, ce sont les ressources en ligne. Ils se forment beaucoup tout seuls.

    Mais il ne suffit de savoir réaliser ces simulations. Un grand pan de notre travail, c’est d’analyser leurs résultats, des fichiers avec des masses de données. Il y a des librairies spécialisées pour travailler ces données, en Python, Matlab, R, pour faire des statistiques, visualiser les données. Car une carte pour représenter des évolutions dans le temps sur des régions particulières, c’est plus parlant que des tableaux de chiffres !

    B – Fortran, Unix, des environnements logiciels, Python, Matlab, analyse de données, visualisation. Pour des étudiants qui ne connaissaient pas a priori grand-chose en informatique… Et vous personnellement, est-ce que vous ne finissez pas par passer beaucoup de temps sur de l’informatique ?

    AD – Comme je ne fais pas de terrain, oui, je passe beaucoup de temps devant un écran. Mes outils de travail favoris, ce sont ces modèles numériques de l’hydrologie. Au fond, je fais des expériences numériques.

    Mais je participe aussi à des projets collaboratifs. J’ai des échanges par exemple avec des gestionnaires de l’eau. Ce sont des démarches itératives. Nous proposons des simulations et nous confrontons nos résultats avec leurs observations sur le terrain. Leurs opinions nous permettent de modifier nos modèles pour mieux décrire la réalité des choses. Par exemple, mon modèle actuel ne décrit pas l’irrigation comme on le souhaiterait et on a démarré actuellement une thèse sur ce sujet. Nos outils sont toujours des simplifications de la réalité. Par exemple, au début, on ignore des phénomènes du second ordre. Et puis, quand on est satisfait de notre capture du premier ordre, on essaie de modéliser le second ordre. Les observations de terrain, les spécialistes de terrain, nous aident à choisir nos pistes de recherche.

    B – Y a-t-il une question que vous auriez aimé qu’on vous pose et qu’on n’a pas posée ?

    AD – J’aurais aimé vous parler de modélisation spatiale du réseau hydrographique. Il s’agit d’utiliser des données et des méthodes numériques pour reconstituer les lignes bleues des cartes, y compris dans des zones où elles sont mal connues. Or c’est le cas un peu partout quand on remonte un fleuve vers ses sources. La source officielle de la Seine est sur le plateau de Langres, mais il y en a en fait une multitude d’autres : où sont-elles ?

    Avec mon équipe, nous sommes partis de données topographiques de très haute résolution qui permettent de reconstituer numériquement les directions d’écoulement, donc les lignes bleues potentielles depuis toutes les crêtes. Puis nous avons proposé un modèle empirique pour raccourcir ces lignes potentielles, en fonction d’informations sur la géologie, la pente, et le climat. Nous avons calibré ce modèle dans des pays où les données hydrographiques sont précises comme la France ou l’Australie, avant de l’appliquer au monde entier. Et nous avons obtenu une densité de cours d’eau 10 fois supérieure à ce qui était connu. Grâce à ce travail, on connait beaucoup mieux les petits cours d’eau, qui sont souvent les plus sensibles au réchauffement climatique.

    Serge Abiteboul, Inria & ENS Paris, Claire Mathieu, CNRS & Université de Paris

    (*) Le barrage de Sivens est un projet abandonné de barrage sur le cours du Tescou, un affluent du Tarn dans le bassin de la Garonne (France). Après des affrontements violents en 2014, qui ont vu la mort de Rémi Fraisse, le projet initial a été abandonné en 2015 par arrêté préfectoral.

    (**) GIEC : Le Groupe d’experts intergouvernemental sur l’évolution du climat, organisme intergouvernemental ouvert à tous les pays membres de l’Organisation des Nations unies (ONU).

     

  • Numérique est mon droit

    Un nouvel « Entretien autour de l’informatique ». Célia Zolynski est Professeure de droit privé à l’Université Paris Panthéon-Sorbonne, co-directrice du Département de recherche en droit de l’immatériel de la Sorbonne, et membre du Comité national pilote d’éthique du numérique. Ses activités de recherche et d’enseignement portent sur le droit du numérique, le droit de la propriété intellectuelle, le droit du marché et les libertés fondamentales. Elle explique comment les utilisateurs du numérique doivent reprendre le contrôle de leurs données, et ce que la loi peut faire pour cela.
    Cet article est publié en collaboration avec theconversation.fr.

     

    Célia Zolynski, photographie Didier Goupil

    B : Peux-tu nous expliquer ton parcours de recherche en droit du numérique ? 

    CZ : Ce qui m’a intéressée dès le début de ma carrière de chercheure a été de comprendre comment le droit pouvait se saisir de ce nouvel objet qu’était internet et comment cela conduisait à adapter un certain nombre de normes juridiques ainsi que la façon même de les concevoir.  J’ai alors cherché à déterminer comment utiliser la logique de l’informatique pour poser un autre regard sur des questions juridiques. Cela m’a conduite à me rapprocher par curiosité, par intérêt et pour solidifier mes compétences, de chercheurs en informatique, et à participer à des recherches à cheval sur les deux domaines.

    Mon premier poste en qualité de professeur Agrégée en droit était aux Antilles. J’ai alors beaucoup travaillé sur les notions de patrimoine immatériel chères à la culture caribéenne. Cela m’a ramené sur les questions de droit d’auteur et j’ai d’ailleurs été associée à un certain nombre de débats sur la loi Hadopi.

    Rentrée en métropole, j’ai été en poste à Rennes où j’ai enseigné le droit des affaires, le droit commercial. C’est alors plutôt sous l’angle du commerce électronique que je me suis intéressée au déploiement des réseaux. J’ai également animé un groupe de chercheurs en droit dans le cadre du réseau Trans Europe Experts, qui répond aux consultations des institutions de l’Union Européenne notamment sur les révisions des directives relatives au droit d’auteur dans l’environnement numérique. C’est à ce titre-là que j’ai commencé à m’intéresser au droit des données à caractère personnel, à l’époque où l’Union européenne lançait la réforme qui a abouti à l’adoption du RGPD.

    J’ai ensuite été nommée au Conseil National du Numérique (sa troisième vague) dont la doctrine me semblait fondatrice pour le développement de la stratégie numérique française et européenne. Les personnes que j’y ai côtoyées m’ont permis de mieux comprendre certains aspects du numérique, la logique sous-jacente. C’est alors que j’ai pris conscience de la place essentielle que devrait avoir l’utilisateur dans la régulation du numérique. C’est devenu un axe important de mes travaux. L’objectif est de transformer cet utilisateur en un agent actif. Cela passe par des solutions techniques mais cela demande aussi de penser différemment un cadre juridique qui lui donne les moyens d’agir sans pour autant déresponsabiliser les entreprises.

    Depuis, j’ai passé 4 ans comme Professeure à l’Université de Versailles Saint-Quentin à Paris-Saclay. C’est à Saclay que j’ai pu initier des collaborations avec des informaticiens, notamment Nicolas Anciaux d’Inria.  Aujourd’hui, je suis Professeure à Paris-Sorbonne 1, Université au sein de laquelle je prolonge mes travaux aux côtés de chercheurs issus des Humanités numériques philosophes, historiens et économistes.

    B : Tu as insisté sur la place de l’utilisateur dans la régulation du numérique ? Tu peux nous en dire plus. 

    CZ : Quand on analyse, par exemple, les conséquences du RGPD ou de la loi pour une république numérique, on réalise assez vite la difficulté pour les utilisateurs de pleinement profiter des protections de leurs données personnelles et de leur vie privée. On leur propose une approche purement défensive. Au-delà, on aimerait les placer en capacité de préserver activement leur autonomie informationnelle de ne pas se contenter des murs de protection que les systèmes informatiques et la loi mettent autour de leurs données.

    On peut faire une analogie avec la figure traditionnelle du consommateur. Dans le cadre d’un discours paternaliste, on cantonnait le consommateur au rôle d’un enfant à protéger. Dans une approche plus moderne, on dépasse cette vision pour en faire un véritable acteur du marché.

    De la même façon, on voudrait juridiquement donner à l’utilisateur des services numériques les moyens de garantir sa pleine autonomie informationnelle. Cela peut commencer par exemple par le droit à la portabilité des données, c’est-à-dire le droit de récupérer toutes ses données personnelles d’une application numérique. Mais on voit bien déjà, à travers cet exemple, la difficulté de mettre véritablement l’utilisateur en position de maîtriser son monde numérique. Quelles données ? Sous quel format ? Pour en faire quoi ?

    Très rapidement, on se rend compte que ces pouvoirs d’agir donnés aux consommateurs peuvent n’être que des faux-nez, des faux-semblants, instrumentalisant le consentement de l’utilisateur pour faciliter la récupération de ses données. Vous acceptez les cookies d’une application parce que sans, le service se détériore, parce qu’on vous redemande sans cesse de les accepter. Quelle est alors la valeur de votre consentement ?

    Un autre exemple de faux-semblant va nous être proposé par une approche qui se réclame pourtant de la défense des utilisateurs. Gaspard Koening, notamment, propose de reconnaître un droit de propriété sur ses données qui s’accompagnerait du droit de vendre ses données personnelles pour en tirer bénéfice. D’abord, on peut s’interroger sur le champ d’une telle mesure car peu de données sont réellement personnelles, les données étant le plus souvent sociales. Ai-je le droit de vendre des données qui me mettent en scène avec un grand ami ? Peut-il également les vendre ? On peut également se demander si cette consécration du droit de propriété serait conforme au RGPD. Mais, surtout, on peut craindre que, à partir du moment où l’on a vendu des données personnelles, on en perde la maîtrise. En essayant de réaffirmer le droit de l’utilisateur sur ses données, on arriverait alors à lui faire perdre tout contrôle sur ce qui en serait fait ! La propriété des données personnelles serait alors une sorte de miroir aux alouettes…

    A mon avis, il faut tout au contraire redonner à l’utilisateur le contrôle sur ce qui est fait de ses données personnelles. C’est sur ça que porte ma recherche, sur comment conférer un véritable pouvoir à l’utilisateur, comment lui donner vraiment les moyens d’exercer son contrôle sur ses données personnelles. Pour ce faire, on va le placer en capacité, en faire un véritable agent du système en évitant des faux-semblants de liberté que sont l’instrumentalisation du consentement de l’utilisateur ou la monétisation des données.

    B : Comment peut-on réaliser cela ?

    CZ : On ajoute une brique supplémentaire que nous appelons, avec Nicolas Anciaux, l’ « agentivité ». Au-delà de la possibilité de récupérer ses données avec la portabilité, l’agentivité implique de véritablement savoir ce qui est fait de ses données, et de pouvoir en décider les usages.

    Nous allons un peu dans le même sens que Tim Berners-Lee dans son projet Solid (Social Linked Data, en anglais). Ses idées sont de dépasser la réalité actuelle du web et des risques qui résultent des monopoles de situation qui se sont installés en associant l’utilisateur à la régulation de ses données personnelles. Dans notre projet, nous sommes plus ambitieux encore en offrant à l’agent le contrôle de l’usage de ses données, voire la possibilité de générer lui-même de nouveaux usages, en lui permettant d’orchestrer sous son contrôle des traitements de données. Il déciderait des traitements réalisés et on lui garantirait la conformité de ces traitements aux décisions qu’il a prises. Ça c’est la partie technique. La partie juridique serait de faire une sorte de manifeste qui assure la conformité des traitements, et la possibilité de les contrôler tout du long.

    B : Pourrais-tu illustrer avec un exemple comment cela peut marcher en pratique. 

    CZ : Prenons le cas du cloud personnel. L’utilisateur peut choisir d’auto-héberger ses données. Il en contrôle ainsi l’usage. Il choisit les algorithmes qui tournent sur ses données et protège lui-même la confidentialité de ses données. Il a une parfaite autonomie informationnelle.

    Mais vous allez me dire que l’utilisateur n’a pas les compétences de faire tout cela, que même s’ils les avaient, il n’a pas forcément envie de passer son temps à gérer des données. Certes, mais il peut payer une entreprise pour le faire. Ça reste de l’auto-hébergement parce qu’il paie l’entreprise, il a un contrat avec elle qui indique que c’est à lui de décider. On est très loin du modèle classique des plateformes du web qui pour héberger vos données se rétribuent en monétisant ces données ou votre attention. Ici, vous payez pour choisir ce qui est fait de vos données.

    B : Mais en devenant le gérant de ses données, un utilisateur ne risque-t-il pas de devenir également responsable, de perdre la protection de lois comme le RGPD ? 

    CZ : C’est un vrai sujet. Qui dit liberté et choix, dit responsabilité. Mais si la responsabilité de l’utilisateur est une chose, sa responsabilité juridique aux titres de ses actes en est une autre. Toute la difficulté est là. Reprenons le cas du cloud personnel. Si vous décidiez d’auto-héberger vos données, seriez-vous alors le responsable de ces traitements parce que vous les avez choisis ? Perdriez-vous alors la protection du RGPD ? Ce serait terrible que le prix de votre souveraineté numérique soit la perte des protections du droit des données à caractère personnel.

    Nous travaillons pour essayer de dégager un équilibre. L’utilisateur doit être mis en capacité cognitive de comprendre comment le système fonctionne, de faire des choix éclairés. Mais la responsabilité juridique de la sécurité du système revient à l’opérateur du cloud. Nous réfléchissons à des régimes juridiques de répartition « raisonnable » de la responsabilité.  L’utilisateur ne serait responsable que de la partie qu’il maîtrise et le fournisseur du cloud personnel du reste et en particulier de la sûreté.

    Tout l’intérêt du sujet de ces systèmes d’auto-hébergement, sa difficulté, réside dans le besoin d’articulation entre les aspects techniques et juridiques. Nous étudions avec Nicolas Anciaux les promesses autour de l’empowerment de l’utilisateur dans les solutions proposées et identifions éventuellement les vraies perspectives et les fausses promesses, en particulier les risques de responsabilisation déraisonnable des utilisateurs.

    De : A Manifest-Based Framework for Organizing the Management of Personal Data at the Edge of the Network », R. Ladjel, N. Anciaux, P. Pucheral, G. Scerri, proceedings of International Conference on Information Systems Development (ISD), 2019.

    B : Tu fais partie du Comité national pilote d’éthique du numérique. Pourquoi est-ce important ?

    CZ : Le CNPEN a été mis en place en décembre 2019 sous l’égide du Comité consultatif national d’éthique à la demande du Premier ministre. Il est constitué de 27 personnes issues du monde académique, des entreprises ou de la société civile. En abordant de manière globale les enjeux d’éthique du numérique, son rôle est à la fois d’élaborer des avis sur les saisines qui lui sont adressées et d’effectuer un travail de veille pour éclairer les prises de décision individuelles et collectives.

    Je suis ravie d’en faire partie. Dans le cadre de ce comité, nous pouvons explorer différents thèmes autour d’enjeux éthiques et d’éducation. Nous avons ouvert plusieurs sujets au CNPEN sur les chatbots, les véhicules autonomes, les décisions médicales mais aussi la désinformation, la télémédecine et les algorithmes de traçage pendant la pandémie. Chacun de ces sujets interpelle, pose des questions critiques à la société. Au sein du CNPEN, nous pouvons en débattre sereinement ; nous avons souvent des spécialistes du domaine parmi les membres du comité.

    Par exemple, les phénomènes de désinformation et de mésinformation ont été exacerbés à l’occasion de la crise engendrée par l’épidémie de COVID. Cela a conduit les plateformes numériques telles que les réseaux sociaux, moteurs de recherche, ou systèmes de partage de vidéos à développer encore plus leurs pratiques et leurs outils numériques pour lutter contre leurs effets délétères tant sur le plan individuel que collectif. Si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations soulèvent d’autres questionnements éthiques relatifs au rôle joué par différentes autorités dans ce processus.

    Cela interroge tout d’abord l’autorité ainsi acquise par les plateformes et le contrôle qui devrait en résulter. Ensuite, il apparaît que ces opérations ne peuvent se passer d’instances qui identifient les informations acceptables et celles qui ne le sont pas. Différentes questions émergent alors s’agissant de la légitimité dont jouissent ces instances dès lors qu’elles sont considérées par les plateformes comme contribuant à établir la vérité, à définir notre société.

    Il nous faut ensuite repenser, ici encore, le rôle joué par l’utilisateur. Sa liberté de s’exprimer doit être pleinement garantie comme vient de l’affirmer le Conseil constitutionnel dans sa décision du 18 juin dernier qui a jugé la Loi « Avia » en grande partie inconstitutionnelle. Mais, dans le même temps, l’utilisateur doit être mieux informé du rôle qu’il peut jouer en tant qu’ « agent de la viralité » des contenus illicites et pouvoir contribuer à la régulation des contenus circulant sur le réseau. C’est un point essentiel auquel il convient de réfléchir tant sur le plan technique que juridique.

    B : Une conclusion peut-être ?

    CZ : Dans les sujets que nous discutons au CNPEN, cela devient de plus en plus évident : l’heure est venue de nous interroger collectivement sur la société que nous voulons construire demain avec le numérique. Les questions sociétales que cette technologie pose sont de plus en plus essentielles. On ne peut pas les appréhender si on ne considère qu’une facette du problème, par exemple que l’aspect technique, ou que juridique, ou qu’économique, etc. Il faut mener véritablement des recherches pluridisciplinaires.

    On a déjà beaucoup avancé sur la protection de données mais la question est devenue, au-delà de la protection, de contrôler les usages des données dans la société. La même donnée peut servir pour la recherche médicale, pour des intérêts commerciaux, pour la surveillance, etc. La question n’est pas uniquement de choisir qui y a accès, mais de contrôler à quoi elle va servir. Et puis, cette donnée, ma donnée, peut aussi m’être utile personnellement, je veux également pouvoir développer mes propres usages des données.

    Pour arriver à cela, il va falloir imaginer de nouvelles solutions techniques, de nouveaux cadres juridiques. Pour que cela fonctionne, la confiance est fondamentale. Je dois avoir confiance dans la robustesse de la technologie mais aussi dans la solidité du cadre juridique qui protège mes données.

    Serge Abiteboul, Inria et ENS, Paris, et Laurence Devillers, Professeure, Université Paris-Sorbonne

  • Des problèmes aux propriétés aux algorithmes

    Un nouvel « Entretien autour de l’informatique ». Gabrielle Demange est une économiste française, directrice d’études à l’EHESS et professeure à l’École d’économie de Paris. Elle est lauréate de la médaille d’argent du CNRS en 2015. C’est une spécialiste en théorie des jeux, économie des réseaux, théorie du choix social et risque. Elle répond aux questions de binaire notamment sur les liens entre ses travaux et l’informatique. Un coup d’œil passionnant sur un domaine aux frontières des maths, de l’économie et de l’informatique.

    Gabrielle Demange, cnrs.fr

    binaire : Comment devient-on professeure d’économie à l’École Normale Supérieure ?

    GD : Mon parcours a été très franco-français. J’avais fait l’École normale, en maths, puis au lieu d’enchaîner directement sur une thèse, je suis allée à l’ENSAE, l’École nationale de la statistique et de l’administration économique Paris. À l’époque la théorie des jeux était classée en maths, mais plus ça allait plus je me sentais en décalage avec mes collègues mathématiciens. Je suis ensuite entrée à l’EHESS, École des hautes études en sciences sociales, dont la pluridisciplinarité convenait mieux à mon travail. Il n’était pas nécessaire de préciser dans quel domaine on candidatait. Cette ouverture m’a séduite. Cela me permettait de me rapprocher des statistiques, mais aussi de l’économie et des sciences sociales.

    binaire : Vous vous êtes rapprochée aussi de l’informatique ?

    GD : Oui. Prenons un sujet que j’ai étudié, la représentation proportionnelle, qui sous-tend une  réforme électorale  en Suisse. Le but est d’obtenir une représentation la plus proportionnelle possible : suivant les cantons et suivant les partis. Deux contraintes fortes se posent : des tout petits cantons doivent néamoins avoir un représentant et on ne peut pas couper un député en morceau, donc la proportionnalité toute bête est exclue. Mais comment trouver une solution satisfaisante pour un vote donné ? J’ai travaillé avec Michel Balinski, un spécialiste en recherche opérationnelle. Nous sommes partis des propriétés que l’on cherchait à vérifier, nous avons défini des solutions et des algorithmes pour les calculer.

    Vous m’avez interrogé sur mon rapprochement avec l’informatique. Pour moi, l’algorithme apportait une solution théorique au problème. Mais un jour, cette solution a été implémentée, est devenue un logiciel, une solution. Avec l’informatique, notre solution devenait pratique. Elle s’est répandue partout en Suisse.

    « Votation à Yverdon » by Olivier Anh, CC BY-NC-SA 2.0

    binaire : Dans des sciences humaines et sociales, un sujet est souvent celui de l’acceptabilité des algorithmes. Est-ce que la méthode de vote en Suisse a été acceptée facilement ?

    GD : Je ne pensais pas que ce serait une méthode acceptée par les hommes politiques. Mais ils ont aimé qu’on puisse expliquer la méthode, que chacun puisse vérifier qu’on n’avait pas triché. L’utilisation d’un algorithme et de l’informatique contribuait à la transparence du système. Les hommes et femmes politiques n’avaient même pas besoin de connaître ou de comprendre l’algorithme. Ils l’acceptaient parce qu’on pouvait décrire les propriétés de la solution d’une façon assez simple. On ne pouvait pas garantir la proportionnalité exacte, donc on ajustait suivant certains critères qu’on pouvait comprendre, qui étaient acceptables. C’est une histoire qui se raconte très bien.

    binaire : Est-ce que vous atteignez une forme d’optimalité ?

    GD : On n’a pas d’« optimalité » mais une caractérisation, en théorie du choix social, en termes d’axiomes, de propriétés. L’approche mathématique est de de définir des propriétés, et de démontrer qu’il y a presque toujours une solution qui satisfait les propriétés. Presque toujours, mais pas toujours. C’est un problème compliqué. Par exemple, avec la méthode utilisée en Allemagne, on ajuste le nombre de représentants en fonction des résultats et ça peut générer des effets pervers. Il est même arrivé qu’un parti, après avoir reçu davantage de votes, se retrouve au final avec moins de représentants.

    binaire : Quel est votre background en informatique pour arriver à concevoir des algorithmes ? Est-ce que vous programmez vous-mêmes les algorithmes que vous inventez ?

    GD : Mon background consistait au départ principalement en des études en maths à l’ENS, en statistiques et en théorie des jeux à l’ENSAE. Mais vous savez, on pose des problèmes et on essaie de les résoudre. On prend les outils qu’on trouve pour les résoudre. Je ne suis pas informaticienne, mais les algorithmes étaient des outils pour résoudre des problèmes sur lesquels je travaillais. Les algorithmes sur lesquels j’ai travaillé n’étaient pas si compliqués que ça.

    Cela m’est parfois arrivé de programmer moi-même des algorithmes. Par exemple, je l’ai fait pour une méthode de classement, mais ce n’était pas bien compliqué non plus. En général, je laisse la programmation aux spécialistes. Il y a par exemple des gens qui savent travailler sur d’énormes bases de données, pas moi.

    « Auctioneers Hard at Work » by USFWS Mountain Prairie, CC BY 2.0

    binaire : Vous avez aussi travaillé sur les enchères multi-objets ?

    GD : Oui, dans les années 80-90. J’ai travaillé sur des enchères dites non manipulables, des enchères pour lesquelles c’est plus difficile de tricher. Vous avez plusieurs types d’objets, chaque acheteur veut un seul objet. On trouve ce type de questions dans les télécoms. Vous avez une ressource limitée, les longueurs d’ondes et des entreprises qui souhaitent les acquérir. C’est un problème d’affectation de ressources avec aussi des contraintes, par exemple si le territoire est divisé en plusieurs zones, les entreprises veulent des zones contigües. Un marché ne fonctionne pas, vu le nombre limité d’entreprises intéressées, aussi on a recours à des enchères,

    C’était avant internet. Avec internet, on est tombé sur des problèmes très proches de ceux que j’avais étudiés, pour la plupart avec le mathématicien David Gale. Un objet à vendre, cela peut être la place sur le côté d’une page internet pour de la publicité. Ces places sont mises aux enchères. Comment les acheteurs vont-ils enchérir ? Comment va-t-on allouer les places ensuite ?

    binaire : En fait pour ces problèmes d’allocation de ressources, on cherche souvent d’abord à établir des propriétés mathématiques désirables, et puis ensuite à trouver des algorithmes qui apportent des solutions qui satisfassent ces propriétés ?

    GD : C’est une approche classique dans la théorie du choix social et celle du mechanism design. Il y a un travail fondateur de Kenneth Arrow, un théorème d’impossibilité sur les problèmes de vote, lié à des travaux très anciens de Condorcet. Si vous appliquez la règle de la majorité, cela marche bien si vous avez deux candidats, mais dès que vous en avez 3 il peut y avoir des cycles appelés cycles de Condorcet. Kennet Arrow a étudié ce problème de façon générale.

    Les citoyens expriment leurs préférences pour des personnes à élire et je veux trouver un ordre qui agrège ces préférences « le mieux possible ». Kenneth Arrow a mis en évidence des propriétés souhaitables. Chacune séparément est naturelle, mais il a montré que dans certains cas, il n’existe pas de solution qui respectent toutes ces propriétés.  Il va nécessairement falloir relâcher certaines propriétés.

    Pour les problèmes d’allocation de ressources, la même approche s’applique. Prenez la méthode « d’enchère au second prix ». Chacun enchérit jusqu’à ce qu’il n’y ait plus qu’une seule personne qui veuille l’objet. Cette personne paie alors le plus haut prix qu’une autre personne ait proposé. Cette technique à de très bonne propriétés. Personne n’a de raison de mentir sur le prix qu’il est prêt à payer. Mais dès qu’on sort de ce cadre simple, ça se complique.

    J’ai travaillé à une généralisation de cette méthode au cas où il y a plusieurs objets. C’est un problème qui se formalise bien et s’énonce bien. Des informaticiens  travaillent sur ce problème lorsqu’il se complique, quand on ne peut plus garantir en même temps certaines propriétés pour la solution, quelle peut être la complexité de trouver cette solution, etc. Ces approches soulèvent tout un paquet de problèmes passionnants, notamment celui de la collusion possible entre les participants qui remet tout en cause.

    binaire :  Vous avez travaillé sur un sujet qui fait couler beaucoup d’encre aujourd’hui, la taxation des grandes plateformes d’internet.

    GD : Oui, même si ce n’est pas mon cœur de métier. La vraie question c’est, comment on taxe ?

    Un des principes phares en économie pour la taxation des entreprises, c’est de taxer leurs bénéfices, pas leurs chiffres d’affaire. Maintenant comment taxer des entreprises multinationales dont il n’est pas simple de localiser les bénéfices dans les différents pays où elles opèrent. Actuellement, avec Francis Bloch, nous sommes en train d’examiner des propositions mises en avant par l’OCDE et qui pourraient s’appliquer. De son côté, une multinationale, disons Google, doit fournir par pays des données sur son chiffre d’affaires, ses profits, les impôts payés (country-by-country report). De telles déclarations par les entreprises peuvent être à terme une base pour une taxation même si ce n’est pas satisfaisant car leurs déclarations peuvent être biaisées. Comment sont-elles calculées ?

    Ces plateformes tirent de la valeur des données qu’elles capturent de leurs utilisateurs. On peut voir leurs services comme la monétisation de ces données. On a construit un « modèle » partant d’utilisateurs qui n’aiment pas qu’on prenne leurs données mais qui n’aiment pas non plus payer pour les services. En tant qu’utilisateur vous avez deux options : soit on prend vos données et vous avez accès gratuitement aux services, soit vous payez et dans ce cas la plateforme ne prend pas vos données. Cela pourrait permettre de connaitre la valeur des données, au moins du point de vie des utilisateurs. Cela pourrait ainsi servir de bases à la taxation.

    binaire : Quels sont selon vous les principes qui devraient sous-tendre une telle taxe ?

    GD : La taxe numérique française est une taxe sur un chiffre d’affaires. Deux entreprises peuvent avoir le même chiffre d’affaire et des bénéfices très différents. Surtout, cette taxe ne prend pas en compte les investissements ce qui ne donne aucune incitation à faire des investissements. Pour cela, ce n’est pas, selon moi, une bonne taxe. À l’OCDE ils sont en train d’étudier la répartition des bénéfices. A partir de là, on pourra imaginer des taxations locales.

    Un principe sacro-saint de la taxation internationale, c’est d’éviter la double taxation. Une idée serait de dire : on se met d’accord sur un niveau de taxe minimum. En choisissant un paradis fiscal comme les Bahamas pour son siège social, l’entreprise se retrouve en dessous du minimum. Les autres pays pourront alors la taxer localement pour arriver au minimum. Ce serait une façon de lutter contre l’évasion fiscale qui résulte de la concurrence fiscale à laquelle se livrent des pays.

    binaire : Sur quoi portent vos travaux récents ?

    J’étudie les nouvelles règlementations internationales mises en œuvre après la crise sur les produits financiers dérivés. Un volet important est d’obliger de passer par des CCP (pour central counterparty). Pour échanger un produit dérivé, deux banques, par exemple la BNP et Goldman Sachs, sont obligées de passer par une de ces institutions financières qui va jouer le rôle de tampon entre les deux en supportant le risque d’un défaut de paiement d’une des deux banques.  C’est un peu comme si le contrat initial était partagé en deux contrats.

    Pensez à la faillite de Lehman Brothers. Toutes les banques qui échangeaient des produits des produits dérivées avec Lehman Brothers étaient atteintes par la faillite. Dans ce mode d’alors, il y avait le risque qu’une faillite ne se propage. Dans le nouveau mode, seul le risque de défaut des CCP met en danger les banques. On remplace le risque de défaut des différents membres par le risque de défaut des institutions financières elles-mêmes.

    binaire : Est-ce que c’est un concept nouveau ? Est-ce que nous sommes maintenant parfaitement protégés ?

    GD : Cela existait déjà depuis pas mal de temps dans certains marchés spécifiques, par exemple celui des produits agricoles. Je me suis entendu pour acheter une certaine quantité de blé à un certain prix mais les transactions se feront dans quatre mois lors de la récolte. Que va-t-il se passer s’il y a un défaut de l’entreprise avec laquelle je le suis entendu à ce moment-là ? Ce principe de prise en charge existait déjà. L‘idée a été de l’étendre aux produits dérivés après la faillite de Lehman Brothers.

    Il reste des risques quand les conditions deviennent exceptionnelles. Le Brexit pose par exemple un sérieux problème : la plupart  des CCP opérant en Europe  sont à Londres.

    binaire : Votre rôle est de participer à la définition de bonnes propriétés pour les CCP ?

    GD : Une CCP par certains côtés se définit par ses règles.  Mes travaux actuels portent sur les CCP et  traitent plus généralement de la gestion des défauts sans passer par un organisme central telle qu’une CCP. Que se passe-t-il quand une entreprise, une banque, fait défaut qui peut avoir des effets en cascade ?  Comment gérer ces crises ? Il faut des procédures de résolution bien coordonnées pour éviter la panique, pour éviter que tout le système s’effondre parce que chacun essaie de récupérer ses billes avant les autres. Comment décider des montants des remboursements quand il peut y avoir des liens contractuels dans tous les sens ? La théorie du choix social procure des outils.

    binaire : La théorie du choix social ? Ce n’est pas sûr que tous nos lecteurs soient familiers avec cette théorie. Pouvez-vous nous dire en deux mots de quoi il s’agit.

    GD : La combinaison de choix individuels conduit à des décisions collectives. Comment y arrive-t-on ? Comment peut-on faire que ces décisions soient les plus éclairées possibles, les plus justes. On touche ici à des questions économiques comme les enchères ou des sujets politiques comme le vote. La théorie du choix social s’attache à définir des « bonnes » solutions et, de plus en plus à les calculer, par des algorithmes par exemple.

    On pourrait parler aussi d’un autre domaine, le mechanism design, qui est assez proche par certains côtés du choix social. La différence première si on voulait les séparer c’est que le mechanism design s’intéresse plus précisément au comportement des gens, alors que la théorie du choix social est plus théorique, mais il y a quand même un lien très fort. Le mechanism design prend le problème du point de vue de l’utilisateur et considère ses incitations à « manipuler » la règle, par exemple, à voter ou non de façon sincère.

    On arrive là aussi très vite à problèmes informatiques très étudiés dans des universités comme Berkeley ou par des entreprises de la Silicon Valley. On regarde par exemple des problèmes d’affectation de ressources dynamiques (online en anglais). Cela veut dire qu’on a sans cesse de nouveaux clients qui arrivent avec de nouvelles demandes, des VTC, des restaurants, etc.  Le problème s’imbrique bien de plus en plus avec l’informatique.

    binaire : Est-ce que l’informatique a changé des choses dans votre domaine ?

    GD : Les problèmes que j’étudie sont à la frontière de plusieurs domaines. Les chercheurs qui sont le plus actifs sont souvent aujourd’hui des informaticiens. J’ai contribué récemment à un volume sur « The future of economic design ». Plus de la moitié des contributions  viennent de départements d’informatique. Des informaticiens sont de plus en plus souvent invités à des conférences en mechanism design ou théorie du choix social.

    Ce qui m’a aussi frappé c’est que l’informatique a fait ressortir certains travaux que j’avais réalisés il y a longtemps et qui restaient jusque-là purement théoriques. Je n’avais jamais pensé que les systèmes de représentation proportionnelle  que j’avais proposés pouvaient être utilisés en pratique. Je m’intéressais surtout aux propriétés souhaitables et l’algorithme n’était qu’une preuve de la possibilité de les calculer. Avec l’informatique, cela devenait réel.

    Serge Abiteboul, Inria & ENS, Paris, Claire Mathieu, CNRS & Université de Paris

  • Prenez bien soin de vous ce mois d’août…

    En août, binaire prend ses quartiers d’été
    et vous retrouve à la rentrée.

     

    Après une année chargée pour tout le monde, binaire se met en pause estivale mais vous accompagne en vous proposant quelques relectures. Nous avons pour cela sélectionné les articles les plus consultés et il est amusant de constater que leurs sujets « collent » très fidèlement aux thématiques centrales traitées par binaire : cybersécurité, environnement, mécanismes d’apprentissage, Internet…

    Profitez des vacances pour les redécouvrir et les partager avec votre entourage !

    • Des codes malveillants jusque dans la poche : une question majeure. De quoi s’agit-il ? Comment fonctionnent-ils ? Comment les détecter et s’en protéger ? Partons à leur découverte.
    • Les modèles mathématiques : miracle ou supercherie ? :  nous sommes souvent confrontés à une avalanche de chiffres, basés sur des modèles mathématiques, voici les bénéfices mais aussi les limites de telles approches.
    • Impacts environnementaux du numérique : de quoi parle-t-on ? L’émergence du numérique est aussi un choc environnemental pour la planète, certes, mais de combien ? Et surtout, quelles sont nos alternatives ?
    • Les algorithmes de recommandation   comment marchent-ils, eux qui nous disent ce qu’ont acheté les autres acteurs ou nous enferment dans une bulle informationnelle ? Décryptage en nous expliquant le « comment ça marche ».
    • Apprendre sans le savoir ? Les algorithmes d’intelligence artificielle sont basés sur des apprentissages et des connaissances issus de plusieurs domaines dont les sciences cognitives, comparons ici avec l’apprentissage humain.

    Et puis, profitez des vacances pour lire ou relire les Entretiens autour de l’informatique comme celui ci :

    • Le numérique, l’individu, et le défi du vivre-ensemble.   Ancien banquier entré chez les Dominicains , Éric Salobir, prêtre, est un expert officiel de l’Église catholique en nouvelles technologies et favorise le dialogue entre les tenants de l’intelligence artificielle et l’Église, alors lisons le.

    Bonnes vacances et surtout prenez bien soin de vous et des autres en cette période compliquée.

    Rendez vous à la rentrée !

  • Le soleil chante pour Hélène

    Un nouvel « Entretien autour de l’informatique ». Hélène Barucq, Directrice de recherche Inria, spécialiste de la simulation numérique de la propagation des ondes sismiques. Hélène Barucq est responsable de l’équipe Magique-3D sur le calcul scientifique en géophysique, commune à  Inria et au département de Mathématiques Appliquées de l’Université de Pau. Elle nous parle des profondeurs de la Terre, de celles du soleil, et d’acoustique musicale. Un coup d’œil passionnant sur un domaine aux frontières des maths, de la physique et de l’informatique.

    binaire Comment es-tu devenue chercheuse en mathématiques appliquées ?

    HB – Je suis un produit pur jus de l’université. J’ai fait la fac de maths à Bordeaux. J’ai été tentée par l’informatique, mais mes premiers cours m’en ont un peu dégoutée. Et puis, j’ai « rencontré les ondes » dans un projet avec le CEA et Bernard Hanouzet, et comme le sujet m’a conquise,  j’ai choisi ce domaine pour ma thèse sous sa responsabilité. Je découvrais des dialogues fantastiques entre physique et mathématiques, et dans le même temps le plaisir du travail en équipe.  J’ai changé alors d’avis sur l’informatique. C’est passionnant d’expliquer des phénomènes physiques avec des équations mathématiques. Mais c’est encore plus génial, cela prend vraiment son sens pour moi, quand on transforme les équations, les modèles mathématiques, en programmes informatiques. En réalisant des simulations numériques assistées de méthodes de visualisation avancées, on peut alors voir un phénomène physique pour finalement en comprendre les moindres détails.

    J’ai obtenu un poste de Maitre de conférence à l’Université de Pau, un peu par chance. C’est là que j’ai commencé à travailler sur des sujets concrets, dans une collaboration avec Total. Et puis j’ai découvert Inria, et obtenu un poste de chercheuse dans l’institut. Cela m’a permis de monter une équipe à Pau. Je me dis parfois que j’aurais aussi bien pu devenir informaticienne parce que les logiciels me fascinent. Aujourd’hui, j’adore mon travail.

    binaire – Nous avons entendu dire qu’une de tes caractéristiques, c’est la fidélité ?

    HB – Oui ! Je suis toujours à Pau, toujours à Inria. Certaines de mes collaborations durent depuis des années ! Par exemple, je travaille depuis bientôt vingt ans avec Total et Henri Calandra. Nos objectifs ont bien évidemment évolué au cours de ces années, nous conduisant à travailler sur des sujets très variés. Aujourd’hui, nous travaillons ensemble sur des questions liées à la transition énergétique. Surtout, je suis restée fidèle au domaine, les équations des ondes. Bien sûr, j’enrichis sans cesse le groupe de gens avec qui je collabore ; ils deviennent souvent des amis. Et pour les ondes, je considère de nouvelles applications, de nouveaux défis.

    binaire – Justement. Il est peut être temps que tu expliques au lectorat de binaire, pour qui cela reste peut être mystérieux, ce que sont les ondes, en quoi consiste ton travail de chercheuse dans ce domaine.

    HB – Quand une perturbation physique se produit, elle génère une onde qui se propage en modifiant les milieux qu’elle traverse. Quand on jette un caillou dans l’eau, ça crée une onde à la surface. Quand on pince la corde d’une guitare, cela génère une onde acoustique que les êtres humains à proximité ressentent avec des capteurs situés dans l’oreille. Il existe différents types d’ondes comme les ondes mécaniques qui se propagent à travers une matière physique qui se déforme, ou les ondes électromagnétiques et gravitationnelles qui elles n’ont pas besoin d’un tel milieu physique.

    Les études du sol

    Figure 1 : simulation de la propagation d’une onde acoustique harmonique dans un milieu terrestre sur un domaine de taille 20 x 20 x 10 kilomètres cubes.

    binaire – Ça paraît un peu magique. Pourrais-tu nous expliquer un peu plus en détail comment cela se passe pour l’étude du sous sol. Surtout, nous aimerions comprendre la place des mathématiques et de l’informatique là dedans ?

    HB – Supposons que nous voulions cartographier un sous sol pour découvrir des réservoirs d’eau pour de la géothermie. On pourrait faire des forages sans modélisation préalable ; c’est coûteux et ça peut être dangereux : on a vu des forages causer des éboulements très loin de l’endroit où ils étaient réalisés. Plutôt que faire ça, on va utiliser, par exemple, un camion qui vibre en cadence et génère des ondes. Les ondes se propagent dans le sol en gardant des traces de ce qu’elles rencontrent. Pour cartographier le sous-sol, on aimerait découvrir les discontinuités dans la composition de ce sous-sol, et ce qui se trouve entre elles. Pour ça, on va mesurer avec des capteurs les ondes réfléchies et analyser ces données.

    Cela demande de développer des modèles mathématiques et des méthodes numériques avancées. Cela demande aussi des calculs considérables souvent réalisés de manière parallèle pour obtenir des simulations précises. En particulier, la détermination des paramètres physiques est un problème d’optimisation qui n’est pas simple car il admet des optimums locaux qui peuvent ralentir voire empêcher la méthode de converger.

    Mais on peut faire des trucs sympas. Par exemple, quand un train roule, les frottements sur les rails génèrent des ondes sonores, « tougoudoum, tougoudoum… ». En analysant ces sons, on imagine bien qu’on peut détecter des malformations des rails, des traverses ou du ballast. En Chine, une équipe travaille même à faire des reconstitutions des propriétés du sous sol à partir des ondes générées par un train. Juste en analysant le son du train !

    Il existe des tas d’autres applications de ce type d’analyse. Par exemple, en médecine, l’analyse de la propagation d’une onde sonore peut donner des indications sur la présence d’une tumeur, et le même principe peut être appliqué pour réaliser une échographie.

    Figure 2 : imagerie sismique par inversion des formes d’ondes : en partant d’un milieu initial représentant le sous-sol (en haut), l’algorithme de minimisation itérative reconstruit un milieu (en bas à gauche) qui permet de reproduire les mesures. Dans cet exemple synthétique, le modèle sous-terrain est connu et représenté en bas à droite.

    binaire – Quels sont les freins de tels travaux ?

    HB – Le principal frein est que souvent les données sont très bruitées. Pour reprendre l’analogie du cambrioleur, c’est comme si la pluie avait presque effacé les empreintes.

    Un autre frein tient dans les besoins de calcul considérables exigés par la simulation. Si vous voulez cartographier un sous-sol dans un cube de 5km d’arête, c’est véritablement des calculs massifs. On peut chercher de manière brutale à faire de plus en plus de calculs mais on atteint vite des limites. On peut aussi essayer d’être astucieux avec les mathématiques ou la simulation. Dans un travail récent, par exemple, nous séparons un grand volume en petits blocs que nous analysons séparément ; ensuite nous « recollons » les morceaux. On pourrait utiliser des bases de données de petits blocs comme ça, et des techniques de machine learning. Il faut essayer d’éviter la force brute, penser autrement.

    binaire – Mais beaucoup de ces recherches viennent d’entreprises qui ne voudront pas mettre leurs données, des données qui coûtent cher à produire, à la disposition de tous. Par exemple, est-ce que l’industrie pétrolière accepterait ?

    HB – Bien sûr, la recherche de pétrole a été longtemps un moteur du domaine. Mais les temps changent, ce n’est plus le cas. Et même dans des entreprises comme Total qui est très active sur les sujets d’environnement, le partage de données n’est pas exclu.

    Les études du soleil

    Figure 3 : spectre de puissance solaire correspondant à la propagation d’ondes acoustiques dans le soleil en fonction de la fréquence et du mode.

    binaire – Sur quoi portent principalement tes travaux aujourd’hui ?

    HB – Je travaille sur l’héliosismologie, l’étude du soleil. Le soleil chante en permanence. Il produit des ondes acoustiques, des ondes à basse fréquence, avec une longue période, que l’on peut détecter par effet Doppler. Leur étude pourrait nous permettre de remonter à l’intérieur du soleil. En comprenant comment il est construit, on espère apprendre à prévoir les irruptions solaires qui peuvent être dangereuses notamment pour nos satellites.

    On dispose déjà de cartographies du soleil, on peut même en trouver sur internet. Mais on les aimerait beaucoup plus détaillées. Il faut bien voir la difficulté : le soleil n’a pas de surface comme la terre. La vitesse du son augmente avec la profondeur, tout est en permanence en mouvement.

    Ce qui est intéressant pour nous c’est que les méthodes mathématiques à développer reposent sur les mêmes concepts que celles que nous utilisons dans le cadre de la propagation d’ondes dans le sol. Par contre, la physique est différente, plus complexe, par exemple, elle doit tenir compte du champ magnétique.

    L’acoustique musicale

    Figure 4 : le module du champ acoustique au sein d’une trompette en fonction de la fréquence.

    binaire – Ton équipe travaille aussi sur l’acoustique musicale.

    HB – Nous avons recruté il y a quelques années Juliette Chabassier qui, dans sa thèse, avait synthétisé le son du piano grâce aux mathématiques. Elle aurait pu travailler avec nous uniquement en Géosciences mais elle aurait été malheureuse car elle est véritablement passionnée par l’acoustique musicale. Nous l’avons plutôt laissée nous transmettre sa passion.

    Dans l’équipe, avec Juliette, nous travaillons maintenant avec un luthier. Nous cherchons à reconstituer le son d’instruments à vent anciens, de vieux hautbois. Encore une histoire d’ondes. Ce qui est drôle, c’est que nous pouvons partager les équations, les méthodes, les algorithmes. Ce n’est bien sûr pas du tout la même chose. Les problèmes que nous étudions en acoustique musicale sont en une seule dimension, quand nous travaillons en dimension 3 avec la terre ou le soleil. Donc cela demande a priori moins de puissance de calcul. Mais la prise en compte du musicien introduit de la difficulté. Et, d’un autre coté, les problèmes rencontrés en acoustique sont « non-linéaires » et nous donnent l’occasion de tester de nouvelles méthodes, plus complexes.

    binaire – Un mot de conclusion, peut-être ?

    HB – Les jeunes que nous voyons arriver dans l’équipe viennent le plus souvent d’écoles d’ingénieur. Ce sont souvent des matheux brillants. Mais ils sont également fans de programmation et de calcul parallèle, un peu « geeks ». Historiquement, on sépare l’informatique et les maths applis, par exemple, dans les sections 26 et 27 du CNU (*) ; eux, on a du mal à les situer. Je dirais, en plaisantant, qu’ils sont, un peu comme nos sujets de recherche, dans la section 26.5.

    Nous vivons dans un monde numérique où l’informatique et les maths applis prennent un rôle considérable pour expliquer le monde, la société, pour les transformer. J’aimerais que tous les jeunes prennent vraiment conscience de ça, quelle que soit la profession à laquelle ils se destinent.

    Il faudrait aussi que les scientifiques soient plus écoutés. Et pour cela, il faut qu’ils fassent l’effort de se faire mieux comprendre. Ce n’est pas simple d’expliquer sur le papier des équations au grand public. N’essayez pas ! On perd tout de suite son auditoire. Par contre, on peut faire des simulations et capturer les phénomènes avec des images, des courbes, des vidéos. Ça, tout le monde peut comprendre !

    Serge Abiteboul, Inria et ENS, Paris, Pascal Guitton, Inria et Université de Bordeaux

    (*) Le CNU, Conseil national des universités, est chargée en particulier de la gestion de la carrière des enseignants-chercheurs.

    Remerciements à Florian Faucher (Post-doc, Université de Vienne) qui a réalisé les trois premières illustrations.

  • La création 3D à la portée de tou·te·s

    Un nouvel « Entretien autour de l’informatique ». Parmi les récentes nominations à l’Académie des sciences, nous avons eu le plaisir de voir figurer le nom de Marie-Paule Cani, professeure d’informatique à l’École polytechnique et spécialiste en informatique graphique. Marie-Paule partage avec binaire ses sujets de recherche. Passionnant !

    Marie-Paule Cani, ©Valérie Godard

    binaire – Pour commencer, pourrais-tu nous dire comment tu es devenue professeure d’informatique ?

    MPC – Quand j’étais petite, j’adorais dessiner, faire des maquettes et j’étais bonne en math. Je me suis alors dirigée vers des études scientifiques et j’ai intégré l’École Normale Supérieure où j’ai découvert l’informatique que je ne connaissais absolument pas. A mon arrivée dans le DEA d’informatique d’Orsay, on m’a parlé d’un prof – Claude Puech – qui « faisait des arbres » et j’ai découvert l’informatique graphique qui m’a tout de suite attirée parce qu’elle me permettait, en utilisant les maths et l’algorithmique, de modéliser puis de visualiser des personnages, des objets en 3D, ou des paysages, comme lorsque je dessinais ou je faisais des maquettes. C’était une sorte de lien entre mes centres d’intérêt entre mes loisirs et mes études, et plus tard mon métier.

    binaire – Cette informatique graphique est maintenant au cœur de nombreuses d’applications, tu pourrais nous parler de quelques-unes ?

    MPC – Le grand public la retrouve dans les jeux vidéo, dans les films ou les dessins animés, de façon explicite dans Toy Story ou Avatar. Il la retrouve également de façon moins perceptible dans Titanic ou Le jour d’après où certaines scènes sont construites à partir d’images de synthèse tant de personnages que de décors. Dans le monde professionnel aussi, on retrouve l’informatique graphique, par exemple dans des simulateurs que ce soit pour apprendre à piloter un véhicule (avion, voiture, navire…), pour étudier des processus complexes comme la déforestation ou encore les conditions de vie de nos ancêtres préhistoriques. Dans le monde industriel, notamment pour la conception de bâtiments, voitures, avions…), des prototypes numériques ont remplacé les maquettes physiques dans des revues de projet, en réalité virtuelle.

    binaire – Et on voit apparaitre de fausses images ou de fausses vidéos (deep fake) que le grand public ne peut pas détecter.

    MPC – C’est vrai mais principalement en 2D : si l’on utilise de gigantesque bases de données de visages, on est capable, en utilisant des réseaux de neurones adverses, d’en produire de nouveaux qui seront crédibles mais ne correspondront pas à un individu spécifique. Par ailleurs, comme nous sommes en 2D, il ne sera pas possible de l’animer. Personnellement, je suis plutôt opposée à ces approches qui consomment énormément d’énergie pour construire et stocker ces images alors qu’on peut bâtir des méthodes alternatives pour arriver au même type de résultats. De plus, il est intellectuellement beaucoup plus intéressant d’accompagner le créateur humain en lui fournissant des systèmes d’aide à la création plutôt que de le laisser passif et laisser faire des intelligences artificielles.

    binaire – Qu’est-ce qui est difficile dans la conception et la mise au point dans ces outils d’aide à la création, ce qui a fait l’objet de ta recherche ?

    MPC – Un humain ajoute immédiatement de la sémantique à une forme dans un dessin. Si je commence à dessiner un visage, je sais tout de suite ce qui est devant/derrière, ce qui se passe si le visage tourne, etc. En fait, ma connaissance de l’environnement me permet d’obtenir une interprétation immédiate. Et bien entendu, ce n’est absolument pas le cas d’un logiciel. Si je considère la façade d’un bâtiment, je vais commencer par tracer une porte, des fenêtres, et puis je peux faire un geste de « dilatation » pour agrandir ce que je viens de dessiner. Il faut que la machine « comprenne » et choisisse entre dupliquer l’existant ou bien augmenter les dimensions des ouvertures que j’ai créées. Pour trancher, l’ordinateur doit disposer de connaissances soit définies à l’aide de règles, soit apprises à l’aide d’exemples. Personnellement, je travaille sur des mode d’apprentissage dits légers, basés sur des distributions statistiques qui permettent d’obtenir rapidement des connaissances à partir de petits exemples fournis par l’utilisateur.

    binaire – Les outils dont tu nous parles sont-ils réservés aux professionnels ?

    MPC – Non ! Ils comment à pouvoir être utilisés par le grand public comme ceux que vous pouvez trouver sur le site web de mon équipe GéoVic : Matisse, un système de création 3D à base de dessin ou bien NEM qui permet d’esquisser, puis de naviguer dans des environnements 3D. C’est le fruit d’un long travail qui a démarré avec des systèmes de sculpture virtuelle que l’on a développé dans des salles de réalité virtuelle au début des années 2000. Ces équipements étant beaucoup trop coûteux pour une utilisation massive, nous nous sommes alors intéressés à la création à partir de dessins 2D pour ensuite passer au 3D. Récemment nous avons travaillé avec des géomorphologues pour développer un système de création d’images de paysages montagneux qui soit crédibles d’un point de vue géologique. Le créateur utilise une tablette tactile sur laquelle il va d’abord délimiter les différentes plaques tectoniques qu’il va ensuite déplacer ; le système interprète enfin ces gestes pour créer des massifs résultants de ces déplacements.

    Edition d’un paysage montagneux – Image extraite de [1]

    binaire – Mais en quoi consiste le travail du scientifique pour concevoir de tels systèmes ?

    MPC – En fait, il n’existait pas de méthode générique pour interpréter un dessin 2D pour en faire un modèle 3D. Nous avons donc commencé par réfléchir aux aspects perceptuels pour interpréter puis traiter les gestes des utilisateurs. Nous avons découvert que notre cerveau favorise les symétries que l’on peut construire à partie d’une forme 2D. Un peu comme si on centrait une armature en fil de fer dans contour 2D, et qu’on l’enrobait de pâte à modeler, pour créer un volume correspondant au contour. Nous avons développé un outil exploitant ce constat en utilisant un modèle mathématique assez peu utilisé en informatique graphique : les surfaces implicites à squelettes. Nous avons créé un nouveau modèle géométrique dans lequel deux surfaces ne vont se raccorder que là où elles s’intersectent pour demeurer fidèle à l’intuition du créateur. Dans d’autres cas, nous basons au contraire l’interprétation d’un dessin 2D sur des hypothèses fortes sur la forme dessinée (un arbre, un vêtement, etc).

    On parle alors de modélisation géométrique expressive et notre but est de la rendre transparente à l’utilisateur. Cela signifie par exemple que c’est à notre système de s’adapter aux gestes de l’utilisateur en les interprétant plutôt que de lui faire apprendre une grammaire de gestes imposée par l’outil.

    binaire – Mais en plus de s’adapter aux contraintes du processus de créativité humaine, le numérique peut lui ouvrir des horizons imaginaires sans équivalent dans le monde réel ?

    MPC – Oui, absolument. Quand nous avons travaillé sur la sculpture virtuelle nous avons imaginé comment étendre les propriétés physiques de la pâte à modeler pour qu’elle ne sèche pas, ne subisse pas la gravité, etc. Dans un système numérique, il est facile de zoomer sur une partie qui nécessite des détails fins ou de décomposer un objet complexe en parties indépendantes pour y accéder plus facilement. Nous avons poussé cet élargissement encore plus loin en construisant un système de sculpture d’objets 3D à partir de connaissances préalables, par exemple pour un château le repliement d’un rempart crée automatiquement une tour, l’étirement d’un mur va rajouter des créneaux, etc.

    Edition d’un château fort par extensions incrémentales – Image extraite de [2]

    binaire – Mais ces connaissances sont spécifiques à un contexte particulier ; comment les généraliser ?

    MPC – Certes, cet ensemble de règles de transformation explicites forme ce que l’on appelle un système expert, qui est adapté à un problème précis, une expertise particulière. Aujourd’hui, nous travaillons sur des systèmes d’apprentissage léger à partir d’exemples pour que ce soit le système qui construise les connaissances qu’il va ensuite utiliser. Dans un article de 2015 [3] nous avons ainsi décrit WorldBrush, un outil qui permet d’analyser de mini-exemples créées à la main par l’utilisateur, et d’en déduire des modèles permettant de créer des forêts, des prairies, des éboulis tous différents mais toutes répondant à la structuration apprise.

    WorldBrush : création d’arbres le long du déplacement de l’outil virtuel tout en respectant les règles d’implantation sur le relief rencontré – Image extraite de [1]

    binaire – Est-ce qu’il est possible de se rapprocher plus de la réalité ? D’utiliser des algorithmes de simulation pour créer ces environnements virtuels ?

    MPC – Oui, bien sûr. Si je reprends l’exemple des forêts, on peut, si l’on connait les règles de croissance de plantes, bâtir un simulateur de développement de la végétation pour obtenir facilement des résultats crédibles. Comme ces modèles sont complexes, ils prennent des temps de calcul prohibitifs. Pour éviter cela, nous avons sélectionné toutes les zones avec des conditions similaires de croissance (sol, altitude, exposition, etc.) Nous avons ensuite réalisé des calculs pour chaque type de zone. Nous avons enfin utilisé les résultats de ces simulations comme une base d’exemples auxquels nous avons appliqué la technique d’apprentissage que j’aie décrit précédemment (EcoBrush, [4]). On arrive à de très beaux résultats, très crédibles, avec des calculs raisonnables.

    EcoBrush : édition d’un motif de paysage d’un canyon méditerranéen à partir d’une implémentation basique enrichie par l’utilisateur – Image extraite de [2]

    binaire – As-tu visité l’exposition Faire Corps (*) ? Elle est basée sur plusieurs dispositifs affichant des environnements virtuels avec lesquels le visiteur peut interagir par le déplacement. Les visualisations ne répondent pas à des critères de réalisme mais évoquent des mondes imaginaires. Les approches que vous avez conçues pourraient-elles être utiles dans un tel contexte poétique ?

    MPC – Oui, il existe des équipes qui s’intéressent à ce type de création par exemple en utilisant des équipements de réalité virtuelle dont la baisse des coûts a favorisé une plus large adoption. Leur principal intérêt est de plonger le créateur dans l’environnement qu’il est en train d’imaginer et de lui permettre d’y naviguer pour bien le percevoir. Par ailleurs, nous essayons de rendre dynamique ces mondes en les peuplant de créatures vivantes (réalistes ou imaginaires comme un dragon), en animant la végétation, etc.

    binaire – Quels sont les grands défis que tu veux relever dans les années qui viennent ?

    MPC – Le premier porte justement sur cette animation de mondes virtuels que je viens juste d’évoquer. Une des plus grandes complexités à maîtriser est de rendre « facile » le contrôle de ces peuplements. Si je reprends l’exemple de nos collègues préhistoriens qui souhaitent tester dans le modèle virtuel leurs hypothèses sur les lieux de vie, les déplacements de nos ancêtres ou des troupeaux d’animaux qu’ils chassent, il faut leur offrir des outils qui autorisent une saisie simple de leurs connaissances.

    binaire – Ce type de méthodes se rapproche de ce que fait le cinéma ?

    MPC – Oui, sauf que dans la plupart des cas, ils utilisent des démarches manuelles où un opérateur humain va dessiner tous les éléments un par un. Il existe des approches plus automatiques où nous allons essayer d’accélérer ce temps de saisie par exemple en utilisant la ligne d’action des personnages utilisées par les animateurs pour, en un seul geste, commencer à passer au 3D. Nous travaillons aussi avec des systèmes d’animation de foules comme ceux mis au point par nos collègues rennais et grâce auxquelles on va par exemple « sculpter » une rue peuplée de piétons qui se déplacent pour obtenir facilement un milieu urbain.

    De façon plus générale, ce qui me passionne n’est pas de reproduire à l’identique le monde réel mais, en partant de données réelles, d’imaginer comment les détourner, les étendre à des contextes oubliés (préhistoire), à découvrir (sciences) ou tout simplement imaginaires (fiction).

    binaire – Comment souhaites-tu conclure ?

    MPC – J’aimerais exprimer ma très grande joie d’avoir été élue dans la section « Intersection des applications des sciences » de l’Académie des sciences. En effet, toute ma vie de chercheuse en informatique graphique s’est déroulée en osmose avec des domaines très variés de la médecine, l’art, la géologie, la biologie, à actuellement la préhistoire.

    Serge Abiteboul (Inria & ENS-Paris) & Pascal Guitton (Université de Bordeaux & Inria)

    (*) L’entretien a été réalisé avant la période de confinement du printemps 2020.

    Références bibliographiques

    [1] G. Cordonnier, M.P. Cani, B. Benes, J. Braun, E. Galin, IEEE Transactions on Visualization and Computer Graphics, 2018

    [2] A. Milliez, M. Wand, M.P. Cani, H.P. Seidel. Mutable elastic modelsfor sculpting structured shapes. Computer Graphics Forum, Wiley, 2013, 32 (2pt1), pp.21-30.

    [3] A. Emilien, U. Vimont, M.P. Cani, P. Poulin, B. Benes. WorldBrush: Inter-active Example-based Synthesis of Procedural Virtual Worlds. ACM Transactions on Graphics, 2015, Proceedings of SIGGRAPH, 34 (4), pp.11

    [4] J. Gain, Harry Long, G. Cordonnier, M.P. Cani. EcoBrush: Interactive Control of Visually Consistent Large-Scale Ecosystems. Computer Graphics Forum, Wiley, 2017, 36 (2), pp.63-7