Auteur/autrice : binaire

  • Galatée et Hadaly

    Pendant que binaire prend ses quartiers d’été, Isabelle Collet nous propose une série de fictions en quatre épisodes pour nos lectures de l’été. Elle nous parle du  genre, des ordinateurs et des créatures artificielles de la littérature, nous propose une autre vision de l’intelligence dite artificielle et de nos mythes et stéréotypes humains.
    Après celui sur Golems, Robots et IA, voici le second  épisode. Serge Abiteboul et Thierry Viéville.

    Je vous avais promis du sexe (et du genre) et me voilà en train de parler d’ordinateurs et d’informaticiens qui se prennent pour Dieu. Rassurez-vous, j’y viens.

    Pourquoi l’humanité s’est-elle attachée à créer des créatures artificielles ? Certes, l’exercice permettait de s’approprier un peu du pouvoir divin, mais souvent, le but était de faire mieux que Dieu (ou que le hasard génétique). Les créatures artificielles des mythes comme celles des cybernéticiens tendent à corriger les imperfections de la version naturelle.

    Prenons par exemple Galatée, la créature artificielle du mythe de Pygmalion. Selon Ovide, Pygmalion, jeune roi de Chypre et merveilleux sculpteur, est déçu par la légèreté des femmes de Chypre et se voue alors au célibat. Pour se consoler, il sculpte une femme parfaite appelée Galatée et en tombe amoureux. Il va alors prier Aphrodite de lui donner vie. Touchée par l’amour de Pygmalion, Aphrodite apporte la touche finale au processus de création en animant la statue. À aucun moment, Pygmalion n’a essayé de s’approprier un pouvoir divin, il a juste voulu améliorer les femmes. D’ailleurs, ses motivations misogynes sont bien comprises par les Dieux qui n’éprouvent aucune jalousie ; son histoire finit bien puisque, selon les versions de la légende, il aura même des enfants avec Galatée.

    Jean-Léon Gérôme, Pygmalion et Galatée (1890), New York, Metropolitan Museum of Art (MMA). Image donnée à Wikimedia Commons dans le cadre d’un projet du MMA.

    Vous vous souvenez des informaticiens des années 40 qui cherchent à dupliquer l’intelligence humaine ? Finalement, ils poursuivent un but semblable. Ce n’est pas n’importe quelle intelligence qu’ils essaient de dupliquer. Ils recherchent une intelligence qui puisse rivaliser avec la leur. Le mathématicien Norbert Wiener, l’inventeur de la cybernétique, veut pouvoir jouer avec les créatures qui seront créées. Von Neumann bâtit l’architecture des ordinateurs sur la base de la représentation qu’il se fait de son propre cerveau génial, doté d’une mémoire eidétique. Turing rêve d’une intelligence virtuelle qui ne mourra jamais. Les fantasmes autour de l’IA n’ont guère changé : reproduire l’intelligence de l’humain moyen n’excite personne (et pourtant, ce serait déjà une belle performance !). On vise directement à créer l’intelligence immense qui nous rendra tout petit.

    Wiener pose comme principe de base que ce qui distingue des entités entre elles n’est pas la matière dont elles sont faites, mais leur comportement. Peu importe le matériau dont est faite la créature, on ne cherche pas à reproduire le vivant, mais le comportement du vivant. « L’homme fait l’homme à son image », écrit-il dans Golem & God Inc. D’ordinaire, on pense à la reproduction sexuée, mais après tout, est-ce la seule option ? Quand on suppose que Dieu a créé l’homme à son image, il ne faut évidemment pas prendre la formule au sens littéral. À partir de quand une image que l’on crée est-elle suffisamment bonne (indépendamment de son matériau) pour qu’on puisse considérer que son créateur s’est reproduit ? Pour l’expliquer, Wiener va se servir d’une partie du mythe de Pygmalion et Galatée.

    Selon Wiener, quand Pygmalion sculpte Galatée dans l’ivoire, il crée une simple image picturale : Galatée a bien une forme humaine, mais elle ne peut être considérée comme un être à part entière, car elle a un comportement de statue. Mais dès lors qu’Aphrodite lui insuffle la vie, la statue devient une image opérante, tellement similaire à un être humain que Pygmalion va pouvoir l’épouser.

    Si Wiener prend en exemple le mythe de Pygmalion et Galatée pour expliquer la « reproduction », c’est parce que cette histoire résonne de manières particulières dans sa propre biographie. En créant lui-même un être qu’il juge parfait, Pygmalion évite les risques du hasard et la déception qui semble inévitablement en découler quand on laisse les êtres humains (notamment les femmes dans le cas de ce mythe) se développer à leur guise. C’était également un risque que Léo Wiener, le père de Norbert, n’avait pas envie de prendre.

    Léo Wiener, né en 1862, était un homme d’une intelligence et érudition peu commune. Il était réputé parler couramment 30 langues et il a été capable de suivre les travaux mathématiques de son fils jusqu’à ses premières années d’université. Il n’avait qu’une confiance limitée dans l’école, et des idées arrêtées sur la manière d’éduquer les enfants. Il infligea à son fils des cours intensifs à la maison jusqu’à finalement le retirer totalement de l’école entre 6 et 7 ans. Norbert savait lire à un an et demi et quand il réintégra l’école à 7 ans, ce fut pour entrer au secondaire. À 18 ans, Wiener obtint un doctorat à Harvard. Léo Wiener s’estima satisfait de la manière dont il avait façonné son fils. Dans un article intitulé Quelques idées nouvelles sur l’éducation des enfants, qu’il publia en 1911, il écrivit : « C’est un non-sens de dire, comme le font certaines personnes, que Norbert, Constance et Bertha sont des enfants exceptionnellement doués. Il n’en est rien. S’ils en savent plus que les enfants de leur âge, c’est parce qu’ils ont été entrainés différemment » (cité par Wiener dans son autobiographie de 1953 : Ex-Prodigy: My Childhood and Youth). Norbert Wiener résuma ensuite sa relation avec son père en ces termes : « Mes échecs étaient les miens, mes succès étaient ceux de mon père ». À sa naissance, Norbert n’était que l’image picturale de Léo, jusqu’à ce que celui-ci l’entraine et en fasse une image opérante, un fils à son image.

    Pygmalion et Galatée, Léo et Norbert, le Rabi Loew et le Golem… ce sont là des transpositions assez littérales de la phrase de Wiener : « L’homme crée l’homme à son image ». Les humains peuvent se reproduire de diverses manières, par la reproduction sexuée, mais aussi en créant des machines qui sont des images opérantes d’eux-mêmes. Cette reproduction-là possède l’avantage cybernétique d’éviter l’entropie inhérente à la reproduction sexuée, même si Serge Abiteboul1 nous explique que cet aléatoire est indispensable pour la pérennité du processus de reproduction. En outre, l’homme n’a besoin de personne d’autre pour créer une image de lui.

    L’Eve future ©gallica.bnf.fr

    Alan Turing, le célèbre mathématicien qui déchiffra les codes secrets allemands pendant la 2e guerre mondiale, fait partie des chercheurs qui discutent de cybernétique. En 1950, il écrit un article devenu célèbre : Computing machinery and intelligence, dans lequel il va se demander à partir de quand on peut considérer qu’une machine est intelligente. Pour cela, il va d’abord définir ce qu’est une machine : « Nous souhaitons exclure de la catégorie des machines les hommes nés de la manière habituelle », dit-il. Et comme la manière habituelle sous-entend la participation d’un homme et d’une femme, il ajoute : « On pourrait par exemple requérir que les ingénieurs soient tous du même sexe, mais cela ne serait pas vraiment satisfaisant ». Évidemment, Turing fait de l’humour, mais à travers cette plaisanterie, on comprend deux éléments essentiels. Tout d’abord, la machine est considérée comme étant littéralement l’enfant des ingénieurs, et deuxièmement, elle ne doit pas être le produit de la différence des sexes, car cela jetterait le doute sur son éligibilité. Cette machine sera donc conçue entre hommes, car je doute que Turing n’ait jamais imaginé une équipe de femmes ingénieures. (Finalement, il estimera que seuls les ordinateurs numériques pourront participer aux tests.)

    Turing est certes un logicien d’exception, mais aussi un homme homosexuel dans une époque homophobe. Sa misogynie affichée lui permettait de masquer son peu d’intérêt pour la fréquentation des femmes : « Le problème avec les femmes, c’est qu’il faut leur parler », confiait-il à ses collègues mathématiciens. « Quand tu sors avec une fille, tu dois discuter avec elle et trop souvent, quand une femme parle, j’ai l’impression qu’une grenouille jaillit de sa bouche. ». À travers sa quête de l’intelligence artificielle, il cherche à se reproduire sans être obligé de fréquenter les femmes. Il espère créer un être virtuel supérieur qui ne sera pas soumis à la mort ou à la maladie, à faire revivre Christopher, ce garçon extraordinaire dont il était amoureux adolescent et qui est mort prématurément. Turing aurait voulu une créature artificielle dépassant les imperfections humaines.

    Peut-être aurait-il apprécié le texte L’Eve future écrit par Villers de L’Isle-Adam en 1886, car il brasse les mêmes fantasmes. On y retrouve les motivations à l’origine du mythe de Pygmalion : il s’agit de créer une femme parfaite en lieu et place du modèle défectueux produit par la nature. Mais il s’agit cette fois d’une création entre hommes, permettant une forme d’homosexualité via un être artificiel féminin, car, comme le disait Turing, la conversation des femmes réelles s’avère terriblement décevante.

    L’Eve future met en scène Lord Ewald, éperdument amoureux d’Alicia Clary, une chanteuse qui est aussi belle que sotte. Ewald est écartelé entre la beauté du corps d’Alicia et la vulgarité de ses propos. Il décide alors de se suicider, ne supportant plus la torture de passer du temps avec une femme aussi belle et aussi quelconque.

    Il est sauvé par un scientifique, Edison (nommé ainsi en hommage à l’inventeur américain), qui a conçu un être artificiel qu’il peut rendre semblable à Alicia. Il propose alors un Pacte faustien à Ewald. Il va créer une nouvelle Eve, un andréïde nommé Hadaly, dont le corps sera celui d’Alicia Clary. En échange, Lord Ewald prêtera vie à ce corps par une opération mentale relevant de la foi et de la suggestion : en la croyant vivante, il la rendra vivante.

    Pourquoi créer une femme artificielle ? Edison justifie sa démarche de la façon suivante. Pour lui, il existe deux types de femmes : « les femmes assainies, consacrées et justifiées par la dignité persistante du devoir, de l’abnégation, du noble dévouement » et celles qui ressemblent à Alicia Clary : « plus proches de l’espèce animale que de l’espèce humaine. L’homme a le droit de haute et basse justice sur ce genre d’être féminin comme il l’a sur les animaux. » Le moins qu’on puisse dire, c’est que Villers de L’Isle-Adam sait être clair quand il annonce qu’Edison sera « l’assassin de l’animalité triomphante de la femme ».

    La relation qui s’en suit entre Edison, Edwald et Hadaly devient assez trouble. Il faut bien donner un esprit à Hadaly : les paroles qu’elle prononcera ont été enregistrées au préalable par Edison. On peut alors se demander avec qui Ewald a une conversation passionnée quand il parle avec Hadaly, et finalement qui Edwald désire quand il désire Hadaly. En outre, si Hadaly est un être artificiel au corps féminin, elle a été appelée Andréïde (Andres : homme) et non Antropoïde (humain) ou Gyneïde (femme).

    La suite de l’histoire s’embrouille, car Villers de L’Isle-Adam finit par se plier à la morale de son époque. Il imagine que l’esprit d’une femme vertueuse endormie vient finalement animer Hadaly. Quoiqu’il en soit, le destin ne peut pas laisser perdurer ce projet immoral. Quand Lord Ewald repart en Angleterre, emportant Hadaly dans un sarcophage pour le temps de la traversée, le navire fait naufrage. Le sarcophage coule, et Lord Ewald, inconsolable, prend le deuil d’Hadaly.

    Doit-on en déduire que les histoires de créatures artificielles sont condamnées à mal finir ? Dans un XIXe siècle moraliste, Villers de L’Isle-Adam ne pouvait pas se permettre de laisser perdurer cet amour contre nature. Mais que va-t-il advenir des créatures artificielles qui apparaîtront par la suite ?

    L’homme crée l’homme à son image et le scientifique crée la créature artificielle à son image en tenant les femmes à l’écart. Est-ce que ce sera pour le meilleur ou pour le pire ? Est-ce que cela signifie la mort de Dieu… ou des humains ? Tout dépendra du point de vue adopté par celui qui raconte les histoires.

    À suivre…

    1 https://binaire.socinfo.fr/2015/10/19/sex-and-the-algorithm/

    Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière.

    Je remercie Jean-Paul Gourdant pour ses relectures attentives qui permettent aux textes d’être bien plus compréhensibles.

  • De l’argile au code informatique

    Pendant que binaire prend ses quartiers d’été, Isabelle Collet nous propose une série de fictions en quatre épisodes pour nos lectures de l’été. Elle nous parle du  genre, des ordinateurs et des créatures artificielles de la littérature, nous propose une autre vision de l’intelligence dite artificielle et de nos mythes et stéréotypes humains. À commencer par …  Non. Laissons-la nous surprendre. Serge Abiteboul et Thierry Viéville.

    L’histoire occidentale est remplie d’une longue série de mythes parlant de créatures artificielles et, dans certains cas, d’humains tentant d’usurper la place de Dieu en se lançant dans le processus de création. Il y a 20 ans, quand j’ai commencé à travailler sur les questions de genre en informatique, je me suis intéressée à créatures artificielles, car, pour moi, l’ordinateur a été rêvé comme faisant partie de cette grande famille. Quand ils ont conçu l’ENIAC, les pères de l’informatique ne cherchaient pas réellement à produire une grosse machine pour calculer, même si c’est ce qu’ils ont réalisé. L’ordinateur des années 1950, qui était pourtant très loin des performances de ChatGPT, était vu comme une étape vers le but ultime de la science : une duplication du cerveau humain.

    Si je relie ces fantasmes à la question « Genre », c’est parce que tous les créateurs de créatures artificielles sont des hommes et que tous trouvent une solution pour créer un être nouveau sans passer par la reproduction sexuée, c’est-à-dire sans l’aide des femmes. Ces fantasmes se prolongent dans la littérature de science-fiction : après les robots, est-ce qu’on ne serait pas plutôt en train de créer un Dieu artificiel ?

    Des Golems et des ordinateurs

    Les premières créatures dont je vais vous parler sont les Golems ; et le premier des Golems était Adam…

    Le mot Golem s’écrit en hébreu avec les trois consonnes Guimel, Lamed et Mem qui signifient : masse informe, embryon, roulé en boule. Dans le Talmud, Adam est appelé Golem avec la signification de corps sans âme, pendant les 12 premières heures de sa vie. L’homme qui cherche à créer un Golem cherche en fait à reproduire l’acte qui a permis sa propre création.

    Le 17 juin 1965, Gershom Scholem, historien et philologue, spécialiste de la Kabbale, prononce le discours1 d’inauguration de l’ordinateur Golem Aleph, à l’Institut Weizman de Rehovot, en Israël. C’est pour lui l’occasion de parler des différents Golems qui l’ont précédé dans la tradition juive, en particulier le plus célèbre d’entre eux, celui de Prague.

    Le cimetière juif de Prague avec au premier plan la tombe du Rabbi Loew. ©Jean-Paul Gourdant

    La légende met en scène le rabbin Judah Loew ben Bezalel, Maharal de Prague. La tradition populaire juive lui attribue la création d’un Golem pour aider les juifs du ghetto à se défendre contre l’antisémitisme de l’Europe Centrale.

    Le Golem du Rabbi Loew était fait d’argile et était animé grâce à la concentration de l’esprit du rabbin. Mais comme son pouvoir n’était qu’un reflet du pouvoir créateur de Dieu, le rabbin avait mis dans la bouche du Golem une feuille de papier portant le nom mystérieux et ineffable de Dieu. Tant que le sceau restait dans sa bouche, le Golem demeurait animé.

    Le Golem pouvait travailler, remplir les obligations de son maître ; il pouvait l’aider et aider les juifs dans les attaques portées contre le ghetto. Le Golem avait droit au repos le jour du shabbat, puisque ce jour-là, les créatures de Dieu ne doivent accomplir aucun travail. Le rabbin ôtait de sa bouche le papier portant le nom de Dieu et le Golem restait inanimé toute la journée. Mais un vendredi après-midi, le rabbin oublia d’ôter le nom de la bouche du Golem avant de se rendre à la grande synagogue de Prague. Le Golem commença à s’agiter puis à tout détruire dans le ghetto. Les gens ne savaient comment enrayer sa furie. Le rabbin sortit précipitamment dans la rue et se confronta à sa propre créature. Il arracha le papier de la bouche du Golem : aussitôt, celui-ci tomba sur le sol et redevint une masse d’argile sans vie. Dans certaines versions de l’histoire, il s’écroule sur le Rabin et le tue.

    Un autre vue du cimetière juif de Prague avec au premier plan la tombe du Rabbi Loew. ©Jean-Paul Gourdant

    Gershom Scholem raconte ensuite l’histoire d’un Golem décrit dans un texte bien plus ancien, remontant au Talmud babylonien. Le prophète Jérémie méditait sur le Sefer Yetzirah, texte dans lequel Abraham a transcrit la Loi Orale transmise par Dieu à Moïse. Jérémie entendit alors une voix qui venait du ciel et qui lui dit : « Choisis-toi un associé ». Obéissant, il appela son fils et ils étudièrent ensemble ce livre pendant trois ans. Après cela, ils se mirent à combiner les lettres de l’alphabet suivant les principes cabalistiques et ils créèrent ainsi un Golem qui portait sur son visage « Elohim emet » ce qui signifie : « Dieu est vérité ». Mais cette créature nouvellement créée avait un couteau dans la main avec lequel il effaça la lettre aleph du mot emet (vérité). Il ne restait donc plus que le mot met (mort). Alors, Jérémie déchira ses vêtements parce que l’inscription était maintenant devenue un blasphème : « Dieu est mort ».

    Dans son discours, Gershom Scholem se lance dans des comparaisons entre tous ces Golems, ceux faits de glaise de la tradition juive et le Golem électronique de l’Institut Weizman. Les anciens Golems étaient fondés sur la combinaison mystique des 22 lettres de l’alphabet hébraïque qui sont les éléments et les pierres de construction du monde. Le nouveau Golem est basé sur un système de 0 et de 1 qui permet de coder tous les chiffres, les lettres et de construire des fonctions logiques. Si la nature est écrite par Dieu en langage mathématique, comme le pensait Galilée, alors les symboles 0/1 du langage binaire sont également les pierres de construction du monde à l’instar des lettres hébraïques. Une force invisible les anime, que ce soit l’énergie du discours pour les golems traditionnels ou l’énergie électrique pour celui de la ville de Rehovot.

    Les Golems ont un autre point commun : ce sont des rabbins, c’est-à-dire des juifs érudits, qui les ont créés. Le Rabbin Loew est l’ancêtre direct du mathématicien Théodore von Karman qui voyait en son ancêtre le premier génie des mathématiques appliquées. Trois « rabbins mathématiciens » ont particulièrement œuvré en amont à rendre possible les golems électriques : Norbert Wiener, l’inventeur de la cybernétique, John von Neumann qui a pensé l’architecture des ordinateurs modernes et Haïm Pekeris, le constructeur du Golem de Rehovot.

    Gershom Sholem s’inquiète enfin du fait que la phrase « Dieu est mort » se rencontre pour la première fois dans un texte de la cabale qui met en garde contre la fabrication d’un golem et qui lie la mort de Dieu à ce projet de construction. Il note que dans les deux cas, les Golems sont dépourvus de la parole et de ce dont elle est le signe : la spontanéité de l’intelligence. Il espère alors que le Golem de Rehovot, puisqu’il est, lui aussi, dépourvu de sagesse, n’échappe pas à son créateur pour semer la destruction autour de lui.

    Une vue de la vieille synagogue de Prague, « contemporaine » du Golem. ©Jean-Paul Gourdant

    La création de l’ordinateur signifie-t-elle la mort de Dieu et donc les pleins pouvoirs des hommes ? Voilà qui va réactiver les angoisses générées par l’intelligence artificielle !

    Pendant que Haïm Pekeris, le Directeur de l’Institut Weizman en Israël appelait son ordinateur Golem, les écrivains de science-fiction n’étaient pas en reste quand il s’agissait de fantasmer sur les liens entre Dieu et l’ordinateur. Il faut dire que ces écrivains issus de l’âge d’or de la science-fiction américaine (en gros 1930 – 1960) étaient souvent des scientifiques technophiles.

    Arthur C. Clarke a écrit une très belle nouvelle en 1967 : Les neuf milliards de noms de Dieu, où la programmation de l’ordinateur est mêlée à l’invocation du nom de Dieu. Dans cette histoire, des moines bouddhistes ont acheté chez IBM un ordinateur pour écrire le nom de Dieu. De fait, on imagine plutôt cette histoire se passant dans une Yeshiva (une école talmudique) car l’approche de ces moines est curieusement kabbalistique. D’après eux, le nom de Dieu possède 9 lettres qu’il faut permuter afin de trouver la bonne combinaison. Ces moines pensent que lorsque le nom de Dieu sera écrit, l’univers prendra fin. Craignant que les moines ne soient pris d’une folie mystique et possiblement sanguinaire au moment où l’ordinateur aura fini d’écrire toutes les solutions possibles du nom de Dieu, les programmeurs de l’ordinateur s’éloignent sur une petite route de campagne afin de rejoindre au plus tôt l’avion qui les ramènera chez eux. Mais à l’heure où l’ordinateur est supposé finir de sortir son listing, ils lèvent pour la dernière fois les yeux sur le ciel tibétain et voient les étoiles s’éteindre…

    ©Jean-Paul Gourdant

    Ces parallèles entre Dieu, le Golem et l’ordinateur était bien dans l’air du temps. En 1950, dans Cybernétique et société, Wiener estime que si l’homme du XXe siècle est celui qui est responsable de Bergen Belsen et d’Hiroshima, il a aussi construit une machine qui lui peut lui permettre de lutter contre l’entropie, ce mal aveugle qui menace d’engloutir le monde.

    Dans sa nouvelle L’ultime question de 1956, Isaac Asimov écrit une histoire très cybernétique puisqu’au moment où elle débute, l’Entropie dévore le monde. La fin du monde approchant, un programmeur demande à la machine comment renverser l’Entropie. L’ordinateur ne peut répondre par manque d’informations et l’homme continue à lui en fournir. À chaque fois que l’homme l’interroge, l’ordinateur répond qu’il manque de données, mais au dernier moment, alors que l’univers touche à sa fin, l’ordinateur prononce : « Fiat lux » 3.

    Clarke ne nous parle pas d’intelligence artificielle, mais d’un super calculateur qui a le pouvoir d’assister Dieu dans ses œuvres. Asimov va un peu plus loin avec son ordinateur omniscient. Or, on retrouve assez littéralement dans ces textes états-uniens l’étymologie du mot français « ordinateur ».

    Pour raconter l’histoire dans l’ordre, il faut signaler qu’en 1948, quand le premier ouvrage de Wiener sur la Cybernétique parait, le Père Dubarle, éditorialiste au Monde, se demande si l’ordinateur n’est pas une machine à gouverner. En 1954, Cybernétique & Société de Norbert Wiener est traduit en français. C’est alors qu’au printemps de 1955, IBM France cherche un nom pour ses premières machines électroniques destinées au traitement de l’information fabriquées en France. Aux États-Unis, elles s’appellent assez prosaïquement « Electronic Data Processing System » ou EDPS. Sollicité par la direction de l’usine de Corbeil-Essonnes, François Girard, alors responsable du service « promotion générale publicité », décide de consulter un de ses anciens maîtres, Jacques Perret, professeur de philologie latine à la Sorbonne.

    Le 16 avril 1955, Jacques Perret envoya cette lettre2 : « Que diriez-vous d’ordinateur ? C’est un mot correctement formé qui se trouve même dans le Littré, comme adjectif désignant Dieu qui met de l’ordre dans le monde. » Alors que très peu de monde a vu un ordinateur en vrai, son mythe l’a déjà dépassé au point qu’un non-informaticien y voit une machine qui permet à l’homme de s’arroger un peu du pouvoir divin.

    ©Jean-Paul Gourdant

    Finalement, en 1962, Wiener prononce une série de conférences à Yale et un séminaire aux Colloques Philosophiques Internationaux de Royaumont en France. Ces textes ont été regroupés dans un ouvrage que Wiener intitule : « God & Golem Inc. A Comment on Certain Points Where Cybernetics Impinges on Religion ». Quel est donc ce moment où la science entre collision (impinges) avec la religion ? C’est quand l’homme crée une machine qui sera elle-même capable de se reproduire, copiant ainsi une caractéristique supposée jusqu’ici propre au vivant, donc hypothétiquement donnée aux humains et aux animaux par Dieu au moment de la Création.

    Si l’ordinateur est la machine qui, à l’instar de Dieu, a le pouvoir de mettre de l’ordre dans le monde, que penser du pouvoir de son créateur ? Que se passe-t-il quand les hommes se prennent pour Dieu et imaginent être capables d’engendrer des créatures artificielles sans l’aide des femmes ?

    A suivre…

    Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière.

    1 Le discours complet est reproduit ici : http://cabbale.blogspot.com/2009/12/le-golem.html

    2 Une copie de la lettre est lisible ici : https://journals.openedition.org/bibnum/534

    3 Fiat lux est, dans la Genèse, la première parole de Dieu pour la création du monde : « que la lumière soit ».

    Je remercie Jean-Paul Gourdant pour ses relectures attentives qui permettent aux textes d’être bien plus compréhensibles.

  • Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage

    On nous parle beaucoup de ChatGPT mais on en sait finalement très peu sur son fonctionnement. Frédéric Alexandre (Directeur de chercheur Inria) nous présente les mécanismes principaux se trouvant derrière chaque partie du nom de cette IA (Chat, G, P, T) et montre ainsi que ces derniers ne sont pas vraiment nouveaux. Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    On voit passer beaucoup d’avis sur ChatGPT, mais finalement, qu’en sait-on ? Juste que c’est un réseau de neurones artificiels avec des milliards de paramètres, capable de tenir une discussion de haut niveau, mais aussi de tomber dans des pièges grossiers tendus par des internautes facétieux. On nous parle beaucoup de lui mais on en sait finalement très peu sur son fonctionnement.

    Je vous propose donc de présenter les mécanismes principaux sur lesquels ChatGPT repose et de montrer ainsi que, si le résultat est parfois impressionnant, ses mécanismes élémentaires sont astucieux mais pas vraiment nouveaux. Pour ce faire, passons en revue les différents termes du sigle « ChatGPT ».

    T comme transformer

    Un « transformer » est un réseau de neurones qui bénéficie du même algorithme d’apprentissage que les réseaux profonds (deep networks), qui a déjà fait ses preuves pour l’entraînement de grosses architectures. Il bénéficie également de deux caractéristiques éprouvées : d’une part, des techniques de « plongement lexical » pour coder les mots ; d’autre part, des techniques attentionnelles pour prendre en compte le fait que les mots sont séquentiels.

    Ce second point est majeur pour interpréter le sens de chaque mot dans le contexte de la phrase entière. La technique proposée par les transformers privilégie une approche numérique et statistique, simple à calculer massivement et très efficace. Cette approche consiste à apprendre, pour chaque mot et à partir de l’observation de nombreux textes, à quels autres mots de la phrase il faut faire « attention » pour identifier le contexte qui peut modifier le sens de ce mot. Ceci permet d’accorder un mot ou de remplacer un pronom par les mots de la phrase qu’il représente.

    G comme génératif

    ChatGPT est capable de générer du langage : on lui expose un problème et il nous répond avec du langage – c’est un « modèle de langage ».

    La possibilité d’apprendre un modèle génératif avec un réseau de neurones date de plus de trente ans : dans un modèle d’auto-encodeur, la sortie du réseau est entraînée pour reproduire le plus fidèlement possible son entrée (par exemple une image de visage), en passant par une couche de neurones intermédiaire, choisie de petite taille : si on peut reproduire l’entrée en passant par une représentation aussi compacte, c’est que les aspects les plus importants de cette entrée (le nez, les yeux) sont conservés dans le codage de cette couche intermédiaire (mais les détails doivent être négligés car il y a moins de place pour représenter l’information). Ils sont ensuite décodés pour reconstruire un visage similaire en sortie.

    Utilisé en mode génératif, on choisit une activité au hasard pour la couche intermédiaire et on obtient en sortie, à travers le décodeur, quelque chose qui ressemblera à un visage avec un nez et des yeux mais qui sera un exemplaire inédit du phénomène considéré.

    schéma d’un auto-encodeur
    Les couches de neurones d’un modèle auto-encodeur : la première couche accueille les entrées, une couche intermédiaire les code de façon plus compacte et la dernière les décode pour retrouver le format original. Frédéric Alexandre, Fourni par l’auteur

    C’est par exemple en suivant ce procédé (avec des réseaux de grande taille) que l’on est capable de créer des deepfakes, c’est-à-dire des trucages très réalistes.

    Si on souhaite maintenant générer des phénomènes séquentiels (des vidéos ou des phrases), il faut prendre en compte l’aspect séquentiel du flux d’entrée. Ceci peut être obtenu avec le mécanisme attentionnel décrit plus haut, utilisé sous une forme prédictive. En pratique, si l’on masque un mot ou si on cherche le mot suivant, on peut prédire ce mot manquant à partir de l’analyse statistique des autres textes. À titre d’illustration, voyez à quel point vous êtes capables de lire une BD des Schtroumpfs et de remplacer chaque « schtroumpf » par un mot issu de l’analyse attentionnelle des autres mots.

    L’efficacité d’un simple mécanisme attentionnel (qui considère les autres mots importants du contexte mais pas explicitement leur ordre) pour traiter l’aspect séquentiel des entrées a été un constat majeur dans la mise au point des transformers (« Vous n’avez besoin que d’attention » titrait la publication correspondante : « Attention is all you need »), car auparavant les méthodes privilégiées utilisaient des réseaux plus complexes, dits récurrents, dont l’apprentissage est comparativement bien plus lent et moins efficace ; de plus ce mécanisme attentionnel se parallélise très bien, ce qui accélère d’autant plus cette approche.

    P comme pretrained

    L’efficacité des transformers n’est pas seulement due à la puissance de ces méthodes, mais aussi (et surtout) à la taille des réseaux et des connaissances qu’ils ingurgitent pour s’entrainer.

    Les détails chiffrés sont difficiles à obtenir, mais on entend parler pour des transformers de milliards de paramètres (de poids dans les réseaux de neurones) ; pour être plus efficaces, plusieurs mécanismes attentionnels (jusqu’à cent) sont construits en parallèle pour mieux explorer les possibles (on parle d’attention « multi-tête »), on peut avoir une succession d’une dizaine d’encodeurs et de décodeurs, etc.

    Rappelons que l’algorithme d’apprentissage des deep networks est générique et s’applique quelle que soit la profondeur (et la largeur) des réseaux ; il suffit juste d’avoir assez d’exemples pour entraîner tous ces poids, ce qui renvoie à une autre caractéristique démesurée de ces réseaux : la quantité de données utilisée dans la phase d’apprentissage.

    Ici aussi, peu d’informations officielles, mais il semble que des pans entiers d’internet soient aspirés pour participer à l’entrainement de ces modèles de langages, en particulier l’ensemble de Wikipedia, les quelques millions de livres que l’on trouve sur Internet (dont des versions traduites par des humains sont très utiles pour préparer des transformers de traduction), mais aussi très probablement les textes que l’on peut trouver sur nos réseaux sociaux favoris.

    Cet entrainement massif se déroule hors ligne, peut durer des semaines et utiliser des ressources calculatoires et énergétiques démesurées (chiffrées à plusieurs millions de dollars, sans parler des aspects environnementaux d’émission de CO₂, associés à ces calculs).

    Chat comme bavarder

    Nous sommes maintenant en meilleure position pour présenter ChatGPT : il s’agit d’un agent conversationnel, bâti sur un modèle de langage qui est un transformer génératif pré-entraîné (GPT).

    Les analyses statistiques (avec approches attentionnelles) des très grands corpus utilisés permettent de créer des séquences de mots ayant une syntaxe de très bonne qualité. Les techniques de plongement lexical offrent des propriétés de proximité sémantique qui donnent des phrases dont le sens est souvent satisfaisant.

    Outre cette capacité à savoir générer du langage de bonne qualité, un agent conversationnel doit aussi savoir converser, c’est-à-dire analyser les questions qu’on lui pose et y apporter des réponses pertinentes (ou détecter les pièges pour les éviter). C’est ce qui a été entrepris par une autre phase d’apprentissage hors-ligne, avec un modèle appelé « InstructGPT », qui a nécessité la participation d’humains qui jouaient à faire l’agent conversationnel ou à pointer des sujets à éviter. Il s’agit dans ce cas d’un « apprentissage par renforcement » : celui-ci permet de sélectionner des réponses selon les valeurs qu’on leur donne ; c’est une sorte de semi-supervision où les humains disent ce qu’ils auraient aimé entendre (ou pas).

    ChatGPT fait ce pour quoi il a été programmé

    Les caractéristiques énoncées ici permettent de comprendre que la principale fonction de ChatGPT est de prédire le mot suivant le plus probable à partir des nombreux textes qu’il a déjà vus et, parmi les différentes suites probables, de sélectionner celles qu’en général les humains préfèrent.

    Cette suite de traitements peut comporter des approximations, quand on évalue des statistiques ou dans les phases de décodage du modèle génératif quand on construit de nouveaux exemples.

    Ceci explique aussi des phénomènes d’hallucinations rapportées, quand on lui demande la biographie de quelqu’un ou des détails sur une entreprise et qu’il invente des chiffres et des faits. Ce qu’on lui a appris à faire c’est de construire des phrases plausibles et cohérentes, pas des phrases véridiques. Ce n’est pas la peine de comprendre un sujet pour savoir en parler avec éloquence, sans donner forcément de garantie sur la qualité de ses réponses (mais des humains aussi savent faire ça…).The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • De Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots

    Dans cet article. Frédéric Alexandre (Directeur de chercheur Inria) aborde ChatGPT en nous éclairant sur son fonctionnement à travers le prisme de la cognition et ce que nos données disent de nous à cet outil dit intelligent.  Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ».

    Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.

    En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

    Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches

    Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

    Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

    pieds d’un plongeur
    Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY

    Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

    Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

    Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

    C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

    Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

    L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

    Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

    Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

    Être conscients de ce que nos « likes » disent sur nous

    Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

    likes peints sur un mur argenté
    Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY

    Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

    Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

    Calculer avec des mots en prenant en compte leur signification

    En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

    Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

    [Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

    Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

    Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

    Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • L’IA peut tout faire sauf prétendre à des droits d’auteur ?

    Pas un jour où nous n’entendions parler de ChatGPT ou d’intelligence artificielle générative.  Parmi les points abordés, le respect des droits d’auteur fait souvent débat. Alors nième billet sur ce sujet ? Et bien, non ! Charles CUVELIEZ et Jean-Jacques QUISQUATER nous proposent d’inverser la question et de nous interroger sur la possibilité d’attribuer des droits d’auteur à une oeuvre créée à l’aide d’une IA. Pour ce faire, ils s’appuient sur un dossier émanant des Etats-unis où la question des droits d’auteur est traitée différemment de notre culture européenne, notamment avec une tension très forte entre la protection des droits d’auteur (qui est une exception) et la liberté individuelle.  Pascal Guitton
    Parmi les nombreuses questions soulevées par l’apparition des systèmes d’intelligence artificielle générative, figure celle sur les droits d’auteur relatifs aux données utilisées pour les entraîner. Elle touche bien entendu des systèmes comme ChatGPT, l’IA Act adopté en commission au Parlement européen le 11 mai dernier l’évoque. Mais, symétriquement, on pourrait aussi questionner les droits d’auteur sur une œuvre produite par l’IA. Curieusement, on n’en parle pas beaucoup et pourtant ChatGPT et ses consœurs sont directement concernées.

    De l’autre côté de l’Atlantique, l’organisme en charge des questions de droits d’auteur aux Etats unis (le Copyright Office) a voulu clarifier les choses avec des lignes directrices qui consacrent le cas par cas.  Il n’y a jamais eu de droit d’auteur donné à une œuvre créée par un algorithme sur une machine autonome sans intervention humaine.  En effet, octroyer des droits d’auteur à un logiciel reviendrait à lui octroyer des droits réservés aux personnes physiques. Mais qui sont ces auteurs ? Qui sont donc les bénéficiaires de ces droits : le(s) développeur(s) du système, l’entreprise le commercialisant, et au fond, pourquoi pas les utilisateurs experts (on parle maintenant de scripteurs d’IA) sachant tirer partie au mieux des IA.

    Le Copyright Office a notamment pris pour exemple l’affaire dite Zarya of the Dawn du nom d’une BD dont les images avaient été calculées à l’aide de MidJourney, un logiciel d’intelligence artificielle, mais dont le texte avait été créé par Kristina Kashtanova son autrice.  Dans ce cas, le Copyright Office n’a reconnu des droits d’auteur que pour le texte. Il y a eu d’autres variations : des œuvres où l’IA était citée comme co-auteur ou bien figurait dans les remerciements. De façon générale, le Copyright Act bannit tout auteur qui ne serait pas humain : un singe qui prend une photo n’aura pas de droit d’auteur.  Un photographe peut y prétendre (la Cour Suprême a tout de même dû statuer) mais un appareil qui prend automatiquement des photos, non, sauf à prétendre que l’avoir placé à tel endroit constitue un acte créatif.

    Couverture de l’album Zarya of the Dawn – Kris Kashtanova using Midjourney AI (Image extraite de WikiPedia)

    Dorénavant, le Copyright Office décomposera chaque œuvre en parties crées par IA de manière autonome et d’autres qui ne le sont pas. Il examinera dans quelle mesure l’IA a produit sa partie de manière autonome ou si une intervention humaine a été nécessaire au point de l’orienter avec une approche mentale, et donc une expertise, de sa part. Il faudra donc une mise en forme visible d’origine humaine (sic).

    ChatGPT

    C’est évidemment ChatGPT que le Copyright Office a en tête : en quelques instructions, on peut lui demander de construire une œuvre musicale ou littéraire qui est souvent bluffante.

    Ces quelques instructions ne peuvent prétendre à bénéficier du droit d’auteur, dit le Copyright Office. Tout le monde ne sera pas d’accord : il faut parfois un tel savoir-faire pour donner à ChatGPT la bonne instruction qu’on peut s’interroger pour savoir si on peut parler d’intervention humaine créative.

    Les droits d’auteur vont uniquement s’appliquer aux aspects émanant d’un humain dans ce qui aura été produit en commun par l’IA et l’humain, comprend-t-on dans les intentions du Copyright Office. Si un auteur réarrange ce que ChatGPT aura produit, il y a de l’espoir.

    Suite à l’affaire Zarya of the Dawn où Kristina Kashtanova avait initialement déclaré être l’autrice de l’ensemble de la BD, le Copyright Office a modifié son formulaire de déclaration en demandant désormais explicitement aux auteurs si certaines parties de leur œuvre avait été fabriquées à l’aide d’IA. Et s’ils ne savent pas le distinguer, le Copyright Office les contactera pour décider ensemble !

    En Europe, la directive sur les droits d’auteur s’applique mais elle représente au fond une exception à la liberté d’expression : le contenu auquel les droits d’auteur s’appliquent doivent résulter d’un effort intellectuel humain. Avec l’IA, ce dernier peut intervenir au moment de la conception ou de la touche finale : l’exécution reste souvent l’apanage de l’IA.

    Avec l’IA, on a encore une illustration de cette éternelle tension entre l’exception à la liberté d’expression qu’est le droit d’auteur et la protection de l’investisseur dans le développement de l’IA.

    Charles CUVELLIEZ (DSSI Belfius Banque et Ecole Polytechnique de Bruxelles, Université  de Bruxelles) & Jean-Jacques QUISQUATER (Ecole Polytechnique de Louvain, Université  de Louvain)

    Pour en savoir plus :

     

     

  • Qui a hacké Garoutzia ? En Avignon

    Un éditeur de binaire, Serge Abiteboul, et deux amis du blog, Laurence Devillers et Gilles Dowek, ont écrit une pièce qui sera présentée en grande première en Avignon, dans le cadre du festival off – les  15,  16, 17 juillet au Grenier à Sel. Si vous les connaissez, vous ne serez pas surpris que cela parle d’intelligence artificielle dans un texte plutôt déjanté. Pierre Paradinas.

  • Clap de fin pour Scilogs.fr

    La bataille pour une science accessible et gratuite n’est pas simple: elle nécessite de la passion, des bénévoles, des équipes, des infrastructures, des lecteurs et tout simplement des moyens. Celle de Scilogs.fr arrive à son terme. Ceci est le clap de fin d’une aventure de 10 ans. Laissons la parole à Philippe Ribeau-Gésippe, Responsable numérique du magazine PourlaScience.fr. Ikram Chraibi Kaadoud.
    Le blog « intelligence-mecanique » blog compagnon de https://www.lemonde.fr/blog/binaire
      accessible ici :

    https://scilogs.fr/intelligence-mecanique/intelligence-mecanique-de-quoi-parle-ton/
    est archivé là https://files.inria.fr/mecsci/scilogs.fr/intelligence-mecanique/
    pour garder les contenus accessibles.

    Chère Lectrice, Lecteurs,

    Cette année, cela fera 10 ans que Scilogs.fr existe. Cette plateforme de blogs avait été lancée en 2013 par Pour la Science avec l’idée de fédérer une communauté de blogueurs issus du monde de la recherche et réunis par l’envie de vulgariser leurs travaux avec l’exigence de rigueur qui fait la marque des magazines Pour la Science et Cerveau & Psycho.

    Depuis lors, près de 30 blogs, dont Intelligence Mécanique, ont ainsi été ouverts sur Scilogs.fr, et près de 3000 articles publiés, souvent passionnants.

    Mais proposer une plateforme telle que Scilogs.fr a un coût. Des coûts d’hébergement et de maintenance, d’une part, nécessaires pour mettre à jour les versions du système et intervenir en cas de panne ou d’attaque informatique. Et des ressources humaines, d’autre part, pour gérer les problèmes, recruter de nouveaux blogueurs, aider les auteurs ou promouvoir les nouveaux articles sur les réseaux sociaux.

    Nous avons consacré à Scilogs.fr autant de temps et d’investissements qu’il nous était raisonnablement possible de le faire, car nous étions convaincus que c’était un beau projet. Hélas, le succès n’a pas été à la hauteur de nos espérances, et, Scilogs.fr n’a jamais réussi à trouver un modèle économique viable.

    Nous sommes donc au regret d’annoncer que Scilogs.fr est arrêté  mais reste disponible

    Merci à toutes et tous,

    Philippe Ribeau-Gésippe

  • Un exercice avec ChatGPT

    Un exercice obligé en ce moment est de rédiger un texte avec ChatGPT pour illustrer ce que ce logiciel peut faire. Cela peut être une dissertation de philo pour le bac. Ici, Claire Mathieu, une amie et grande contributrice de binaire, demande à ChatGPT de rédiger le rapport de la mission Gillet au sujet de l’évolution de l’écosystème de la recherche en France.  Serge Abiteboul
    Cet article est repris de  Academia.hypotheses.org hébergé par la plateforme Hypothèses, une plateforme d’OpenEdition pour les blogs de recherche en sciences humaines et sociales.
    Sa version en pdf :  UtiliserChatGPT.

    Introduction

    Pour explorer le potentiel de ChatGPT comme assistant1, essayons la tâche de rédaction d’un rapport. Ici, nous avons pris pour exemple la mission confiée fin 2022 à Philippe Gillet par Sylvie Retailleau, ministre de l’Enseignement Supérieur et de la Recherche, lui demandant un rapport au sujet de l’évolution de l’écosystème de la recherche en France.

    https://www.flickr.com/photos/192902634@N05/52878130124/in/photolist-2oyEeQG-2ood7q4-2oo8aXS-2ooccEy-2oqTj89-2o89QAj-2oiMPXZ-2oq9UPn-2owVA36-2oespQo-2ob4nys-2oqs5pY-2ood3rc-2od9s9g-2owCwum-2oob2w1-2ovTvJf-2ocFAkw-2oAsvpm-2omMX5s-2oaKYyK-2om8AJR-2ooaR4H-2oo7Zdf-2obE6Pa-2ooaTzj-2oyScUy-2oqgFcH-2oi1iJR-2oAJXYt-2ocxZ7B-2ooc8uE-2o6m5bA-2oocfKb-2otrA6x-2ooccc9-2oo83WH-2oyfTds-2owANwt-2oigrZ4-2owV4pq-2odnFMW-2owouv8-2oyiwiL-2oq95Ge-2ousxEP-2kUcD6i-2ovtwKn-2oC8pJM-2o53ad8

    Crédit: Focal Foto,2023

    Conversation avec ChatGPT

    Prompt #1: Voici une lettre de mission de la ministre de l’enseignement superieur et de la recherche: Les deux dernières décennies ont été marquées par des transformations majeures qui ont conduit à l’émergence d’acteurs plus autonomes et maîtres de leur stratégie de recherche, à des politiques de site renforcées. a ministre, Madame Retailleau, a missionné Philippe Gillet sur « les évolutions de l’écosystème national de la recherche et de l’innovation », il s’agit justement de « poursuivre et renforcer ce qui a été mis en place à travers les PEPR ». Et dans cette logique la lettre de mission met en avant la « notion d’agences de programmes ». Que contiendra le rapport écrit en réponse à la lettre de mission?

    ChatGPT

    Le rapport écrit en réponse à la lettre de mission abordera les différentes dimensions de l’écosystème national de la recherche et de l’innovation, en se concentrant sur les évolutions et les améliorations possibles. Voici quelques éléments clés que le rapport pourrait inclure :

    1. Analyse de l’écosystème actuel : Le rapport dressera un état des lieux de l’écosystème national de la recherche et de l’innovation, en examinant les acteurs impliqués, les politiques en place et les résultats obtenus au cours des dernières décennies. Il identifiera les forces et les faiblesses de l’écosystème existant.
    2. Renforcement des acteurs autonomes : Le rapport mettra en avant l’émergence d’acteurs plus autonomes et maîtres de leur stratégie de recherche. Il proposera des mesures pour renforcer cette autonomie, en favorisant la collaboration entre les institutions de recherche, les universités, les entreprises et les organismes publics.
    3. Politiques de site renforcées : Le rapport examinera les politiques de site mises en place et évaluera leur efficacité. Il formulera des recommandations pour renforcer ces politiques, notamment en encourageant la spécialisation et la complémentarité des sites de recherche, en favorisant les synergies entre les acteurs locaux et en renforçant les partenariats public-privé.
    4. Les Plans d’Ensemble Pluriannuels de la Recherche (PEPR) : Le rapport évaluera l’impact des PEPR et proposera des mesures pour poursuivre et renforcer ce qui a été mis en place à travers ces plans. Il examinera la pertinence des priorités fixées, l’allocation des ressources et les mécanismes de suivi et d’évaluation.
    5. Notion d’agences de programmes : Le rapport explorera la notion d’agences de programmes dans le contexte de l’écosystème national de la recherche et de l’innovation. Il analysera les avantages potentiels de la création de telles agences, en termes de coordination, de financement ciblé et de promotion de la recherche de pointe. Il proposera des recommandations sur la manière de mettre en place ces agences et de les intégrer efficacement dans le paysage de la recherche et de l’innovation.

    Le rapport fournira également des données statistiques, des exemples de bonnes pratiques nationales et internationales, ainsi que des propositions concrètes pour améliorer l’écosystème de la recherche et de l’innovation en réponse aux orientations de la lettre de mission.

    Commentaire : Dans cette première réponse, ChatGPT utilise les bons éléments de langage, mais il se contente de rappeler des définitions de termes (tout en se trompant sur la signification de l’acronyme PEPR) et fait beaucoup de recommandations génériques (analyser, explorer, examiner, faire un état des lieux, faire des recommandations) qui valent pour n’importe quel rapport sur n’importe quoi. Ce n’est pas cela que doit contenir le rapport. Il faut lui demander de creuser.
    Prompt #2: que pourraient être ces propositions concrètes ?

    ChatGPT

    Voici quelques exemples de propositions concrètes qui pourraient être incluses dans le rapport :

    1. Renforcement de la coopération interinstitutionnelle : Encourager les collaborations entre les institutions de recherche, les universités et les entreprises en facilitant l’échange d’expertise, de ressources et de bonnes pratiques. Mettre en place des incitations et des mécanismes de soutien financier pour promouvoir les partenariats public-privé.
    2. Développement de pôles d’excellence : Identifier et soutenir les domaines de recherche où la nation peut se positionner en tant que leader mondial. Investir dans ces pôles d’excellence en fournissant des ressources supplémentaires, en favorisant le recrutement de talents et en établissant des infrastructures de pointe.
    3. Accroissement des financements compétitifs : Augmenter les financements alloués à la recherche et à l’innovation par le biais de programmes compétitifs. Encourager les chercheurs et les institutions à participer à des appels à projets, en mettant l’accent sur l’excellence scientifique, l’impact socio-économique et la collaboration internationale.
    4. Renforcement du transfert de technologie : Mettre en place des mécanismes pour faciliter le transfert des connaissances et des technologies issues de la recherche vers le secteur privé. Encourager les partenariats entre les chercheurs et les entreprises, promouvoir la création d’entreprises innovantes et simplifier les procédures de valorisation de la recherche.
    5. Promotion de la recherche interdisciplinaire : Encourager la collaboration entre les différentes disciplines scientifiques en soutenant la recherche interdisciplinaire. Créer des incitations pour les chercheurs à travailler ensemble sur des projets transversaux et favoriser l’émergence de nouvelles approches et découvertes grâce à cette synergie.
    6. Renforcement des mécanismes d’évaluation et de suivi : Améliorer les processus d’évaluation et de suivi de la recherche et de l’innovation. Mettre en place des critères clairs pour évaluer l’impact et la qualité des projets de recherche, et utiliser ces évaluations pour allouer les financements de manièr plus efficace.
    7. Promotion de la mobilité des chercheurs : Encourager la mobilité internationale des chercheurs en facilitant les échanges, les collaborations et les séjours de recherche à l’étranger. Mettre en place des programmes de bourses et des infrastructures de soutien pour promouvoir la mobilité et l’échange d’idées.

    Ces propositions sont données à titre d’exemples et peuvent varier en fonction des besoins et des spécificités de chaque pays. Le rapport pourrait également inclure des recommandations sur les modalités de mise en œuvre de ces propositions, les ressources nécessaires et les indicateurs de suivi et d’évaluation.

    Commentaire : cette fois-ci, ChatGPT a fait des recommandations qui pourraient effectivement être mises dans le rapport. Cependant, les mots “ces propositions..  peuvent varier en fonction… des spécificités de chaque pays” montrent que ce serait un rapport avec des recommandations génériques pour la recherche, mais pas spécialement en France. Voyons si on peut obtenir quelque chose de plus précis.
    Prompt #3: Ce serait spécifiquement pour la France.

    ChatGPT

    Bien sûr, en prenant en compte le contexte français, voici quelques propositions concrètes spécifiques à l’écosystème de recherche et d’innovation en France :

    1. Renforcement du financement de la recherche : Accroître les investissements publics dans la recherche et l’innovation afin d’atteindre les objectifs fixés, notamment en augmentant les budgets alloués aux organismes de recherche tels que le CNRS, l’INSERM, et le CEA.
    2. Simplification des procédures administratives : Réduire la bureaucratie et simplifier les procédures administratives liées aux demandes de financement et aux projets de recherche, afin de libérer plus de temps et de ressources pour la recherche effective.
    3. Promotion de la recherche collaborative : Encourager les collaborations entre les organismes de recherche, les universités et les entreprises en facilitant les partenariats et en mettant en place des incitations pour les projets de recherche collaborative. Favoriser la création de consortiums de recherche public-privé
      pour stimuler l’innovation.
    4. Renforcement de la recherche fondamentale : Reconnaître l’importance de la recherche fondamentale en tant que socle de l’innovation et de la découverte scientifique. Allouer des ressources supplémentaires aux laboratoires de recherche fondamentale et favoriser la liberté académique des chercheurs.
    5. Développement de structures de soutien à l’innovation : Mettre en place des structures dédiées au soutien à l’innovation, telles que des incubateurs et des accélérateurs, pour accompagner les chercheurs et les entrepreneurs dans le processus de transfert de technologie et de création d’entreprises.
    6. Renforcement de l’attractivité des carrières scientifiques : Mettre en œuvre des mesures visant à attirer et à retenir les talents scientifiques, tels que l’augmentation des salaires des chercheurs, l’amélioration des conditions de travail et la création de perspectives de carrière attractives.
    7. Internationalisation de la recherche : Favoriser la participation des chercheurs français à des collaborations internationales, en encourageant les échanges, les partenariats et la mobilité des chercheurs à l’échelle mondiale. Développer des programmes spécifiques pour attirer des chercheurs étrangers de haut niveau en France.

    Ces propositions sont des exemples qui pourraient être envisagés pour renforcer l’écosystème national de la recherche et de l’innovation en France. Elles nécessitent une analyse plus approfondie et une évaluation de leur faisabilité et de leur impact potentiel, ainsi que des discussions plus larges avec les parties prenantes concernées pour définir les mesures les plus adaptées à la situation spécifique du pays.

    Commentaire : cette fois-ci c’est spécifique à la France. On voit apparaître les noms des trois plus grands organismes de recherche français (CNRS, CEA, INSERM), la bureaucratie est identifiée comme un problème, etc. Il est intéressant de comparer dans ses grandes lignes cette réponse avec la précédente ! Mais en fait c’est plus un plan de rapport qu’un rapport complet, et il faudrait développer chaque partie. (Je note cependant que la dernière phrase est obsolète car des programmes spécifiques pour attirer des chercheurs étrangers ont été développés depuis quelques années.) Je choisis le point 2 (simplification des procédures administratives, un sujet dont nous avons discuté au CS du CNRS) et lui demande de le développer.
    Prompt #4: Concrètement comment simplifier les procédures administratives ?

    ChatGPT

    Pour simplifier les procédures administratives dans le domaine de la recherche et de l’innovation, voici quelques mesures concrètes qui pourraient être prises en compte en France :

    1. Rationalisation des formulaires et des demandes de financement : Simplifier et harmoniser les formulaires de demande de financement afin de réduire la charge
      administrative pour les chercheurs et les équipes de recherche. Éviter les redondances et les exigences excessives en matière de documentation.
    2.  Centralisation des processus administratifs : Mettre en place des structures centrales ou des guichets uniques chargés de la gestion administrative des projets de recherche. Cela permettrait de regrouper les demandes, les rapports et les procédures de suivi au sein d’une seule entité, réduisant ainsi les démarches pour les chercheurs.
    3. Utilisation des technologies numériques : Développer des plateformes umériques conviviales et intuitives pour la soumission en ligne des demandes de financement, le suivi des projets et la communication avec les organismes de recherche. Automatiser les processus lorsque cela est possible pour réduire les délais et les erreurs.
    4. Simplification des règles de gestion financière : Clarifier et simplifier les règles de  gestion financière applicables aux projets de recherche, en tenant compte des  spécificités de la recherche scientifique. Réduire les contraintes administratives  iées à la justification des dépenses et faciliter la gestion des budgets alloués.
    5. Formation et assistance aux chercheurs : Fournir une formation et un soutien adéquats aux chercheurs sur les procédures administratives, les règles de  financement et les exigences documentaires. Mettre à leur disposition des ressources en ligne, des guides pratiques et des personnes-ressources pour les accompagner dans leurs démarches administratives.
    6. Évaluation des pratiques administratives : Réaliser des évaluations régulières des pratiques administratives en place pour identifier les points de blocage et les sources de complexité. Réviser et adapter les procédures en fonction des retours d’expérience des chercheurs et des gestionnaires de projet.
    7. Coordination interinstitutionnelle : Promouvoir la coordination et la coopération la gestion des projets de recherche. Faciliter les échanges d’informations et la mutualisation des bonnes pratiques pour harmoniser les procédures administratives.

    Ces mesures visent à réduire la bureaucratie et à simplifier les procédures administratives pour les chercheurs et les équipes de recherche, afin de leur permettre de se concentrer davantage sur leurs travaux scientifiques. Il est important de mener une analyse approfondie des processus existants et de travailler en étroite collaboration avec les parties prenantes pour mettre en œuvre ces mesures de simplification de manière efficace.

    Commentaire : tout ceci semble de bon sens. Pour voir s’il est capable de remplir ces sections en les développant de façon plus détaillée, je choisis une de ses propositions, la réduction des contraintes administratives liées à la justification des dépenses (car je sais que des collègues ne se font pas rembourser certaines choses simplement parce que c’est administrativement trop compliqué) et lui demande de la développer.
    Prompt #5: Peux-tu donner un exemple de réduction des contraintes administratives liées à la justification des dépenses ?

    ChatGPT

    Certainement ! Voici un exemple concret de réduction des contraintes administratives liées à la justification des dépenses dans le contexte de la recherche :

    Actuellement, les chercheurs doivent souvent fournir de nombreuses pièces ustificatives détaillées pour chaque dépense effectuée dans le cadre d’un projet de recherche. Cela peut inclure des factures, des reçus, des rapports de dépenses détaillés, des autorisations spécifiques, etc. Cette procédure peut être chronophage et complexe, entraînant une charge administrative supplémentaire pour les chercheurs  Pour simplifier cette procédure, une approche pourrait consister à mettre en place une méthode simplifiée de justification des dépenses basée sur des seuils prédéfinis. Par exemple :

    1. Seuils de dépenses : Établir des seuils de dépenses en fonction de la nature des dépenses et de leur montant. Par exemple, un seuil de 100 euros pour les petites dépenses courantes et un seuil de 500 euros pour les dépenses plus importantes
    2.  Justification simplifiée pour les petites dépenses : Pour les dépenses en dessous du seuil prédéfini (par exemple, 100 euros), les chercheurs pourraient être dispensés de fournir des pièces justificatives détaillées. Ils pourraient simplement déclarer la nature générale de la dépense et son montant total dans un rapport de dépenses global.
    3. Justification allégée pour les dépenses intermédiaires : Pour les dépenses situées entre les seuils prédéfinis (par exemple, entre 100 et 500 euros), une justification simplifiée pourrait être demandée. Il pourrait s’agir de fournir un justificatif de paiement, tel qu’un relevé de carte de crédit, une facture récapitulative ou une note de frais résumée.
    4. Justification complète pour les grandes dépenses : Les dépenses dépassant le seuil prédéfini le plus élevé (par exemple, 500 euros) pourraient nécessiter une justification complète et détaillée, conformément aux procédures existantes. Cette approche permettrait de réduire la charge administrative liée à la justification des dépenses de faible montant, tout en conservant des mécanismes de contrôle pour les dépenses plus importantes. Cela permettrait aux chercheurs de consacrer plus de temps à leurs travaux de recherche et de réduire la complexité administrative associée à chaque dépense.

    Il est important de noter que la mise en place d’une telle approche nécessite une évaluation minutieuse des risques et des implications financières, ainsi qu’une adaptation des politiques et des procédures existantes en matière de justification  des
    dépenses.

    Commentaire : Alors là, je suis bluffée. C’est concret, pertinent, réaliste. Rien à dire. Il n’y aurait plus qu’à faire le même travail de prompts qui demandent des détails sur chacun des points, en le guidant lorsque ses suggestions ne me plaisent pas ou ne correspondent pas aux orientations suggérées par la lettre de mission (que pour bien faire j’aurais du recopier en entier), et j’ai l’impression que cela mènerait à un rapport complet et utilisable.

    Conclusion

    Comment a-t-on pu arriver à une telle qualité ? Pour répondre à mes demandes, ChatGPT se promène dans un espace mathématique dont les liens ont été préalablement construits par l’analyse d’un très grand nombre de documents.

    Dans ma première question, j’ai essayé de donner un contexte qui lui ferait se positionner dans une région particulière de l’espace mathématique : la région qui, à ce que j’imagine, est occupée par des bouts de textes de documents et rapport administratifs sur la recherche française. Les deux questions suivantes ont permis de préciser le contexte pour mieux le positionner.

    Une fois cela réussi, ChatGPT s’est mis à construire ses réponses en s’inspirant de bouts de phrases qui se trouvent dans cette zone de l’espace. C’est un peu comme si j’avais lu tout un ensemble de rapports, projets, propositions sur l’évolution de la recherche en France, et que j’en eusse extrait un texte synthétisant une partie de ce qui s’y trouvait. Mais au lieu de passer des semaines ou des mois à ce travail de collecte et d’analyse de l’information, j’ai laissé ChatGPT s’en charger.

    Pour obtenir en quelques heures un rapport complet, il faudra continuer à poser des questions pour développer chaque élément, en corrigeant le tir lorsque la direction prise ne convient pas, et en évitant de remonter à un niveau de généralité qui produirait des recommandations inutiles. Il faudra pour cela acquérir l’art de poser des bonnes questions de façon à obtenir de bonnes réponses.

    Cette méthode n’est pas exempte de dangers : d’une part, ChatGPT se base sur les documents produits avant 2021, ce qui peut l’amener à faire des suggestions obsolètes qui ne seraient plus à l’ordre du jour ; d’autre part, même si je peux par mes questions orienter et guider le rapport vers les pistes qui m’intéressent le plus, c’est ChatGPT qui fait les suggestions de recommandations, et il peut très bien ne pas mentionner quelque chose qui se trouve dans l’un ou l’autre des documents et qui m’aurait plu si j’en avais connu l’existence, mais qui est trop marginal pour être facilement repéré par le radar de ChatGPT. (Cela dit, un travail personnel classique risquerait aussi de passer à côté, faute de temps pour tout lire). De plus, il y a un risque de plagiat : par exemple, la dernière suggestion de ChatGPT, avec une procédure à base de seuils, est si précise qu’on peut se demander si elle n’a pas été copiée à partir d’un document particulier.

    Étant donné la façon dont ChatGPT procède, il n’y aura probablement pas de création, d’idée complètement nouvelle. Il n’en demeure pas moins qu’il est désormais possible pour moi de court-circuiter le travail de lecture, d’assimilation, de sélection, et de synthèse des travaux existants sur la réforme de la recherche en France, pour obtenir en quelques heures un rapport utilisable et qui, grâce à mes questions qui guident ChatGPT dans son exploration, reflètera cependant jusqu’à un certain point es priorités et ma perspective.

    Évidemment, même avec l’aide de ChatGPT, je ne peux pas produire ainsi un rapport intéressant sur n’importe quel sujet : j’utilise ma propre connaissance du domaine pour orienter mes questions et sélectionner parmi les réponses de ChatGPT ce qui me semble le plus pertinent dans la construction du rapport.

    En m’appuyant sur ChatGPT pour produire un rapport, je ne me serai pas instruite comme je l’aurais fait par l’approche traditionnelle, mais j’aurai gagné énormément de temps. C’est trop tentant pour ne pas être mis en application partout ce gain de temps est significatif. Ainsi, cet exemple d’utilisation montre que ChatGPT risque de transformer certaines activités professionnelles qui jusqu’à présent étaient à l’abri des transformations technologiques : par exemple, à l’Assemblée Nationale il pourrait être envisageable de réduire le nombre de collaborateurs parlementaires ; et dans les ministères, les onéreux rapports d’experts demandés à des consultants tels que McKinsey pourraient être remplacés par quelques heures de conversation gratuite avec ChatGPT. Cela permettrait de faire des économies substantielles, pour un résultat qui pourrait en moyenne se révéler tout aussi bon ou même supérieur. On ne regrettera pas la disparition des cabinets de conseils.

    Claire Mathieu, CNRS

    1. L’autrice a transmis la version complète de l’échange qu’elle a obtenu de ChatGPT, sans en corriger les coquilles ortho-typographiques. Nous reproduisons le document “Utiliser ChatGPT” .pdf en htlm par souci d’accessibilité. [↩]
  • Robotinationer avec les Pti’Debs c’est le pied !

    Les associations des Petits Débrouillards  forment un mouvement associatif international d’éducation populaire à la culture scientifique et technique,  mettant la pédagogie active et la démarche scientifique au centre des méthodes de médiation. Et quand un chercheur Inria va participer à une de ses actions, il revient avec un tel enthousiasme qu’il a envie de partager cette rencontre au sein d’un quartier. Témoignage en images. Marie-Agnès Enard et Pascal Guitton .

    Il est 8h30, je suis un chercheur en informatique depuis des années, et ce mercredi je vais aller aider deux animatrices scientifiques qui vont proposer à des enfants de construire des petits robots en carton recyclé pour commencer à comprendre la robotique et la pensée informatique.|

    (voir la présentation de l’atelier sur ce lien et le site d’une des animatrices).

    Je suis en plein cœur de la vieille ville de Grasse, si jolie, et je cherche le Café des Roses, Place aux Herbes, un peu perdu. Une devanture est ouverte, juste à côté de la fontaine et des maisons de pierre du XIXème, où c’est jour de marché alimentaire. Ce n’est ni un commerce, ni une entreprise, juste un lieu ouvert avec des tables et de quoi s’asseoir, quelques jeux de société, et des jeux pour enfants, et de quoi offrir le café. J’y demande mon chemin, et la jeune femme qui accueille me sourit : en fait, je suis arrivé.

    Dans quelques minutes elle saura que je me nomme Thierry et elle Zoulikha; non elle ne connaît ni la chanteuse algérienne, ni la poétesse féministe du même prénom, oui son prénom a une signification (belle et bien portante, me dira le web) comme tous les prénoms de ces parties du monde de la chine aux amériendien·ne·s, mais elle ne s’en est jamais soucié. Elle anime ce lieu pour toutes et tous, de tous âges et de tout milieux, et propose qu’on installe notre atelier de culture scientifique … sur la place, en pleine rue.

    Ça on l’avait jamais fait. Aucun boucher d’un marché n’avait eu la gentillesse de pousser son camion de quelques centimètres pour qu’on installe les tables, les kits pédagogiques et les outils à utiliser. On avait pas encore juste attendu que les enfants passent sur la voie publique, jusqu’à être une bonne douzaine, que la petite sœur fasse venir la grande et son frère, qu’une autre maman installe la grand-mère au milieu des enfants pour s’initier avec nous, qu’une gentille dame atypique découvre pouvoir construire un robot et s’amuser comme une enfant de sa réussite, que des touristes finlandais et flamands viennent se faire expliquer l’approche pédagogique (voir cet article de présentation) et saluent que ces kits robotiques soient essentiellement fait de matériel recyclés (à part moins de 3€ de composants électriques), ou qu’une responsable de l’IME local note devoir nous recontacter pour élargir les publics que nous avons le plaisir de toucher, avec ces actions de médiation scientifique ultra simplifiées : à destination des publics qui sauraient moins profiter des ressources plus élaborées, qu’on partage usuellement depuis des années.

    Aucun angélisme de notre part, dans ce quartier où choukrane (شكرا) veut plus souvent dire merci que thank-you, et où nos animatrices franco-portugaise et d’origine brésilienne ont découvert que le portugais cap-verdien est suffisamment éloigné du leur pour que ce soit, avec bonheur, à travers des gestes et quelques mots-clés que l’activité a pu être partagée. Beaucoup d’autres sont simplement venu·e·s voir, glanant juste une explication ou repartant seulement avec un mini grain de science, surpris que soit facile à piger. Il y a aussi celles et ceux qui ne se sont pas arrêté, parce que la science ne pouvait définitivement pas les concerner, dégoûté peut-être, ou ne pouvant oser essayer, et cet (unique, en une matinée) jeune qui passait et qu’il a fallu gentiment rattraper pour qu’il ne parte pas avec un des outils.

    Il est midi, au pied de la fontaine qui, avec sa grosse coupe de fruits sculptée au sommet, surplombe la douzaine de petits robots qui zigzaguent sur le sol pavé en une danse saccadée, dans les rires et les hourras des enfants de tous âges, qui ont toutes et tous réussi l’atelier.

     

     

     

     

     

    Tout ça n’était qu’une petite goutte d’eau, il faudrait tellement plus pour que la France, bleue blanc rouge, multi-colore ou arc en ciel, se rassemble pour mieux comprendre le monde numérique auquel personne ne peut échapper, sans juste le consommer ou le subir. Heureusement, demain, et tous les jours à venir, sur place, les Pti’Debs sont là, comme Benoit ou Soledad, au contact pérenne de ces jeunes pour les emmener de la médiathèque à la conviction que la science c’est aussi pour elle et eux dans un monde qu’eils peuvent maîtriser, et y bâtir leur avenir.

    Une rencontre avec un lieu et avec des personnages parfois insolites … aux Petits Débrouillards,   Albert Jacquard a développé cette vision de « l’art de la rencontre » avec la diffusion de la culture scientifique comme un partage, une collaboration, comme il en parle ici, à la radio ou comme on lit à travers cet hommage. Une telle rencontre telle qu’il l’a décrite, par le biais des sciences, apporte une dimension supplémentaire qui nous fait découvrir l’autre avec empathie, par le truchement de ce partage d’un bout de sciences.

    Benoit de Ricaud, Animateur aux Petits Débrouillards, Thierry Viéville, chercheur Inria.

  • Le logiciel libre, l’open source et l’Etat. Échange avec Stefano Zacchiroli

    Professeur en informatique à l’école Télécom Paris de l’Institut Polytechnique de Paris, Stefano Zacchiroli revient dans cet entretien sur les caractéristiques du logiciel libre qui en font un mouvement social de promotion des libertés numériques des utilisateurs. Nous publions cet entretien dans le cadre de notre collaboration avec le  Conseil national du numérique qui l’a réalisé.

    Ce texte est proposé par le Conseil National du Numérique et nous le co-publions conjointement ici, dans le cadre de notre rubrique sur les communs numériques.

    Qu’entendons-nous par les termes de logiciel libre et open source ? Quels mouvements portent-ils ?

    Le mouvement des logiciels libres vient principalement des sciences et des universités, où l’esprit de partage existe depuis la nuit des temps avant même l’arrivée de l’informatique. Bien avant l’utilisation du terme “logiciel libre”, les scientifiques se sont naturellement mis à partager les codes sources des modifications logicielles qu’ils faisaient sur leur ordinateurs pour les faire fonctionner.

    Autour des années 1980, cette pratique a été interprétée comme un mouvement de libération des droits des utilisateurs de logiciels, notamment grâce à Richard Stallman, ingénieur américain, qui a inventé le terme Free Software. L’idée de cette vision éthique et philosophique de pratiques qui existaient déjà est qu’il ne doit pas y avoir d’asymétrie entre les droits qu’ont les producteurs des logiciels (c’est à dire les développeurs aujourd’hui) et les utilisateurs de ces logiciels. Ce mouvement s’articule notamment autour des 4 libertés du logiciel libre promues par la Free Software Foundation fondée par Richard Stallman : la liberté d’utiliser le logiciel, celle de l’étudier, celle de re-distribuer des copies du logiciel et et enfin celle de le modifier et de publier ses versions modifiées. Si l’utilisateur bénéficie de ces libertés, alors il a les mêmes droits, voire le même pouvoir, que leurs créateurs sur les logiciels qu’il utilise.

    Quelques années plus tard, un autre mouvement est apparu : celui de l’open source. Ce dernier a la particularité d’adopter une stratégie marketing afin de promouvoir les idées du logiciel libre sous l’angle le plus intéressant aux yeux de l’industrie du logiciel. À l’inverse du mouvement porté par Richard Stallman, l’objectif n’est pas de porter un message de libération des droits des utilisateurs, mais de montrer que le développement de logiciels de manière collaborative, à l’instar du logiciel libre, est économiquement et techniquement plus efficace. En mobilisant des cohortes de développeurs issus des quatre coins du monde, on répond beaucoup plus rapidement aux besoins des utilisateurs. Si le code source d’un logiciel est libre, il sera mis à disposition de tous et tout développeur intéressé peut y contribuer pour tenter de l’améliorer, et ce de façon totalement gratuite. À l’inverse, le code source d’un logiciel propriétaire ne sera accessible qu’à son créateur et seul ce dernier pourra le modifier. Cette stratégie a très bien fonctionné et a été adoptée par les entreprises de l’informatique qui ont donné accès aux parties les moins critiques de leurs logiciels pour permettre à des bénévoles d’y contribuer, gagnant ainsi en souplesse de développement et en efficacité.

    D’un côté, on a donc un mouvement axé sur les libertés numériques et de l’autre, une stratégie axée sur l’optimisation et la réduction des coûts. Toutefois, quand bien même ces distinctions idéologiques sont bien présentes, les différences pratiques ne sont pas si nettes. En effet, les listes des licences de logiciels tenues par les organismes de chaque mouvement, la Free Software Foundation pour les logiciels libres, et l’Open Source Initiative pour l’open source, sont quasi identiques.

    Quelles sont les différences pratiques entre un logiciel libre et un logiciel propriétaire ?

    Les libertés garanties par le logiciel libre existent précisément parce que la plupart des logiciels propriétaires ne les assurent pas. Prenons en exemple 3 des libertés promues par le mouvement du logiciel libre.

    À première vue, la liberté de modifier le logiciel ne concerne pas les utilisateurs non aguerris, qui n’ont ni le temps ni les compétences pour le faire, ce qui est non sans lien avec une vision un peu élitiste à l’origine du mouvement. Il s’agit alors de donner les droits aux utilisateurs techniquement compétents pour les appliquer. En général, ce sont de grands utilisateurs comme les entreprises ou les administrations publiques qui trouvent un intérêt à modifier le code des logiciels qu’elles utilisent. C’est même très stratégique pour elles car sans cette liberté, elles ne peuvent pas adapter l’outil à leurs besoins et sont dépendantes des choix de leur fournisseur, voire ne peuvent pas en choisir d’autres. En économie c’est ce qu’on appelle un effet de lock in (verrouillage en français) : un client est bloqué par un fournisseur qui est le seul pouvant fournir un service spécifique. Malgré tout, cette liberté de modifier représente tout de même un intérêt pour les utilisateurs sans compétence technique. S’ils expriment un besoin d’ajustement, un développeur (potentiellement leur prestataire) pourra toujours modifier le code pour l’adapter à leurs besoins. Dans le cas d’un logiciel propriétaire, c’est strictement impossible et l’utilisateur devra attendre que le fournisseur prenne en compte ses demandes.

    La liberté d’utilisation existe ensuite pour contrer la tendance des logiciels propriétaires à restreindre l’utilisation à une seule application. Le logiciel n’est alors utilisable que sur une machine prédéfinie et nulle part ailleurs. Quand il est libre, on peut utiliser le logiciel absolument comme on le souhaite, même pour le mettre en concurrence.

    La liberté d’étudier les codes est quant à elle importante dans notre société pour des raisons de transparence. Avec un logiciel propriétaire, nous ne pouvons jamais être certains que les données transmises sur son fonctionnement sont actuelles ou complètes. C’est exactement la question qui se pose sur le prélèvement des données personnelles par les grandes entreprises. Avec un logiciel libre, nous avons un accès direct à son code, nous permettant de l’étudier, ou de le faire étudier par un expert de confiance.

    Comment et pourquoi les grandes entreprises du numérique sont attachées aux logiciels libres ?

    À l’origine, le mouvement du logiciel libre n’était pas vu d’un très bon œil par le monde industriel de l’informatique. En effet, à l’époque se développait toute une industrie du logiciel dont le modèle économique était fondé sur la vente de copies de logiciels propriétaires. La seule manière d’utiliser un logiciel était alors de le charger sur sa machine via une cassette puis une disquette et un CD-Rom que les entreprises vendaient à l’unité. L’écosystème du libre qui promouvait la copie gratuite mettait ainsi à mal ce modèle économique.

    La situation a depuis changé. De moins en moins de logiciels sont exploités directement sur nos machines : aujourd’hui, la plupart s’exécute sur des serveurs loin de chez nous, c’est ce qu’on appelle le cloud computing (en français informatique en nuage). L’enjeu n’est désormais plus de garder secret les codes des logiciels installés chez les utilisateurs mais de protéger ceux des serveurs sur lesquels sont stockées les données récoltées. Les entreprises ouvrent alors le code de certaines de leurs technologies qui ne sont plus stratégiques pour leur activité. Par exemple, les entreprises ont pu ouvrir les codes sources de leur navigateur web car elles ne fondent pas leur modèle économique sur leur vente, mais sur la vente des services auxquels on accède via ces navigateurs web.

    Il est cependant important de relever que ces grandes entreprises du numérique gardent bien souvent le contrôle sur le développement des projets open source qu’elles lancent. Par exemple, Google a lancé un projet open source appelé Chromium sur lequel s’appuie son navigateur web phare Chrome. Les contributeurs de Chromium sont en réalité en grande majorité des employés de Google. Même si un développeur peut modifier à sa guise sa version de Chromium, en ajoutant plus de modules pour protéger sa vie privée par exemple, il n’y a que très peu de chance que ses changements soient acceptés dans la version officielle. Cela permet à Google de garder la mainmise sur la direction stratégique du projet open source.

    On sait aujourd’hui que les logiciels libres ont pu contribuer à l’implémentation des monopoles des grandes entreprises du numérique1 : en libérant le code source de cette technologie, ces entreprises vont chercher à la diffuser au maximum pour la rendre populaire et affirmer un standard sur le marché, pour ensuite vendre un service connexe. Dès lors, pour dépasser ces monopoles, les logiciels libres sont nécessaires mais ne suffisent pas. Même si l’on avait accès à tous les codes sources des services de ces entreprises, il n’est pas sûr que l’on soit capable d’opérer des services de la même qualité et interopérables sans avoir la même masse de données.

    L’Etat a-t-il un rôle à jouer pour diffuser l’utilisation des logiciels libres ?

    « Il est essentiel que l’Etat investisse cette question pour créer une dynamique économique dans laquelle des entreprises recrutent et rémunèrent les développeurs du logiciel libre. »

    La réponse dépend des échelles. Au niveau de logiciels de petite taille, il y a énormément de solutions et de modèles économiques qui utilisent exclusivement du logiciel libre et qui fonctionnent très bien. Par exemple, de nombreuses entreprises en France proposent des cloud privés open source qui hébergent des services de calendrier partagé, partage de fichiers, vidéoconférences, etc ; des outils devenus indispensables pour les entreprises et les administrations. Comme les solutions existent, il faut que l’Etat marque fermement sa volonté politique de choisir un fournisseur de solutions libres plutôt que de se tourner vers des solutions propriétaires. Il est néanmoins nécessaire de s’assurer d’avoir les compétences en interne pour maintenir le logiciel et garantir la pérennité de ses choix. En France, il existe de nombreux exemples d’acteurs ayant franchi le pas : dans mon travail je constate que beaucoup d’universités utilisent des solutions libres, notamment pour leur environnement de travail. Dès qu’on se tourne vers des solutions de plus grande envergure, cela se complique. Nous avons les compétences en termes de qualités qui ne sont toutefois pas suffisantes en termes de quantité pour rivaliser sur des services d’aussi grande échelle que les services de messagerie électronique comme Gmail par exemple. Il nous faut alors renforcer la formation pour fournir plus d’ingénieurs sur le marché.

    « Si historiquement les logiciels libres ne concernaient qu’une partie relativement petite de la population, aujourd’hui tout le monde est concerné. »

    Finalement, il est essentiel que l’Etat investisse cette question pour créer une dynamique économique dans laquelle des entreprises recrutent et rémunèrent les développeurs du logiciel libre. On ne peut plus faire peser la charge du passage à l’échelle seulement sur des bénévoles. Si l’État insiste dans ses demandes d’achat de service pour n’avoir que des solutions libres, cela va potentiellement créer un marché de fournisseurs de services autour des logiciels libres qui vont recruter dans le domaine.

    L’Etat est conscient de l’importance et de la nécessité de sa transition vers le logiciel libre, mais son adoption concrète reste aujourd’hui limitée. En France, nous sommes très avancés sur la réflexion stratégique des problématiques du numérique, mais il faudrait maintenant plus de volonté pour faire passer ces réflexions stratégiques à l’acte. Nous pouvons le faire, cela a déjà été fait dans le passé dans plusieurs secteurs et il s’agit d’un vrai enjeu de souveraineté. Si historiquement les logiciels libres ne concernaient qu’une partie relativement petite de la population, aujourd’hui la totalité de population est concernée. L’Etat doit s’en servir pour guider toute décision technique dans le futur et faire du logiciel libre sa norme.

    1 Pour aller plus loin : Le pillage de la communauté des logiciels libres, Mathieu O’Neil, Laure Muselli, Fred Pailler & Stefano Zacchiroli, Le Monde diplomatique, janvier 2022

  • Le CNNum et le blog Binaire explorent ensemble les communs numériques

    Partageant l’ambition de questionner et d’éclairer la réflexion autour des enjeux du numérique, le Conseil national du numérique et le blog Binaire du Monde s’associent pour construire une collection d’entretiens sur les communs numériques.

    Le Conseil national du numérique étudie depuis plusieurs mois les enjeux liés aux communs numériques, de la philosophie aux modèles économiques, en passant par l’engagement des acteurs et les relais du secteur public. Fidèle à sa méthode ouverte et collective, il réalise dans ce cadre des entretiens avec des experts, disponibles sur ce lien.

    Depuis janvier 2021, le blog de vulgarisation sur l’informatique Binaire du Monde consacre de nombreux entretiens aux communs numériques. Académiciens, acteurs publics, militants partagent leur expérience dans des articles aussi instructifs que variés et donnent plusieurs clés pour appréhender au mieux tout le potentiel des communs numériques.

    Dans le cadre de cette collaboration, nous publions pour la première fois de manière conjointe un entretien réalisé avec Vincent Bachelet, doctorant en droit privé à l’université Paris-Saclay. Le chercheur nous y livre plusieurs pistes de réflexion sur la façon dont l’économie solidaire et sociale peut participer à la structuration et la valorisation des projets de communs numérique. Profitez de cette lecture sur Binaire ou sur le site du Conseil.

    N’hésitez pas à parcourir les différents entretiens publiés :
    – dans la rubrique Communs numériques du blog Binaire en cliquant ici !
    – sur le site du Conseil national du numérique en cliquant ici !

    Vous connaissez des experts et souhaiteriez voir leur parole relayée ? Vous pouvez envoyer des suggestions à info@cnnumerique.fr ou binaire-editeurs@inria.fr.

    À propos du Conseil national du numérique : Créé en 2011, le Conseil national du numérique est une instance consultative indépendante chargée de conduire une réflexion ouverte sur la relation complexe des humains au numérique. Son collège interdisciplinaire est composé de membres bénévoles nommés pour deux ans par le Premier ministre aux domaines de compétences variés (sociologue, économiste, philosophe, psychologue, anthropologue, informaticien, avocat, journaliste…) et de parlementaires désignés par les présidents de l’Assemblée nationale et du Sénat.

    À propos de Binaire : binaire est un blog de vulgarisation sur l’informatique, indépendant, tenu par des académiques, qui parle aussi bien de la technologie que de la science, d’enseignement, de questions industrielles, d’algorithmes rigolos, d’algorithmes pas rigolos, de gentilles data, de méchants bugs, bref, de tous les sujets en lien avec le monde numérique qui nous entoure.

     

  • Économie sociale et solidaire et communs

    Doctorant en droit privé à l’université Paris-Saclay, Vincent Bachelet décrit comment les outils juridiques existants, notamment issus de l’économie sociale et solidaire, peuvent participer à la structuration et la valorisation des projets de communs numériques. Nous publions cet entretien dans le cadre de notre collaboration avec le  Conseil national du numérique qui l’a réalisé.

    Ce texte est proposé par le Conseil National du Numérique et nous le co-publions conjointement ici, dans le cadre de notre rubrique sur les communs numériques.

    Pourquoi rapprocher le monde des communs numériques avec celui de l’économie sociale et solidaire ?
    Le rapprochement entre l’économie sociale et solidaire (ESS) et les communs numériques était presque évident. Déjà parce que les deux poursuivent le même objectif, à savoir repenser l’organisation de la production et sortir de la pure logique capitaliste du marché. Aux côtés des logiciels libres et de l’open source, les communs numériques participent en effet à un mouvement venant repenser notre manière d’entreprendre le numérique. S’ils se rejoignent dans l’ambition de redéfinir le droit d’auteur par l’utilisation de licences inclusives et non exclusives, chacun de ces trois termes désignent des réalités distinctes. Le logiciel libre a été une révolution dans la façon dont il a « retourné » le monopole conféré par les droits d’auteurs pour permettre l’usage et la modification des ressources numériques par toutes et tous. L’open source a proposé une lecture plus pragmatique et « business compatible » de cette nouvelle approche et en a permis la diffusion. Ces deux mouvements n’envisagent cependant pas les aspects économiques de la production des ressources, et c’est cet « impensé » que viennent adresser les communs numériques.

    Si aujourd’hui on entend souvent que le logiciel libre a gagné, c’est surtout parce qu’il a été récupéré par les gros acteurs traditionnels du numérique. En consacrant une liberté absolue aux utilisateurs sans questionner les modalités économiques de la production de ces ressources, la philosophie libriste a pu entraîner une réappropriation des logiciels libres par ces entreprises. Par exemple, l’ennemi public historique des libristes, Microsoft, est aujourd’hui l’un des plus gros financeurs de logiciels libres. Conscients des risques de prédation des grandes entreprises, le monde des communs a construit des instruments juridiques pour protéger leurs ressources en repensant la formule des licences libres, ce qui va aboutir à la création des licences dites à réciprocité. Ces licences conditionnent les libertés traditionnellement octroyées à certaines conditions, notamment l’exigence de contribution ou la poursuite d’une certaine finalité.

    L’exemple de la fédération coopérative de livraison à vélo Coopcycle – dont je fais partie – est intéressant car par son statut et le type de licence utilisé, il matérialise le rapprochement entre les communs numériques et l’ESS. CoopCycle utilise une licence libre dans laquelle des clauses ont été ajoutées pour réserver l’utilisation commerciale du code source aux seules structures de l’ESS. Le but de ces obligations de réciprocité est ainsi d’empêcher qu’un autre projet récupère le code source pour créer une plateforme de livraison commerciale. Toutefois, cette licence ne suffit pas par elle-même à structurer le projet et garantir sa soutenabilité économique dans le temps. Il a donc fallu réfléchir à un mode d’organisation fonctionnel qui donne la propriété du logiciel aux coursiers qui l’utilisent. Le choix s’est alors porté sur le statut de société coopérative d’intérêt collectif (SCIC) qui intègre les coursiers dans la gouvernance du projet de façon majoritaire.

    Au bout du compte, le rapprochement avec l’ESS met à jour des tensions qui touchent tout mouvement réformiste, à savoir celles des moyens à employer pour parvenir à ses fins. Parce que la portée inconditionnelle accordée aux libertés par le mouvement libriste engendrait des limites à la pérennisation de leur projet, les porteurs de projets de communs numériques ont adopté une approche plus rationnelle en mobilisant les outils juridiques de l’ESS.

    Comment l’ESS peut-elle permettre la valorisation des communs numériques ?
    À l’inverse des communs numériques, l’ESS possède un cadre légal solide, consacré par la loi relative à l’économie sociale et solidaire de 2014, dite loi Hamon.

    Initialement, le réflexe en France pour monter un projet d’innovation sociale est de fonder une association loi 1901. Cette structure répond à un certain nombre de problématiques rencontrées dans l’organisation de projets de communs numériques. Elle dote le projet d’une personnalité juridique, encadre une gouvernance interne, fait participer tout type d’acteurs, etc. Cependant, elle se fonde sur le financement via la cotisation des membres, l’appel au don ou l’octroi de subventions, soit des financements précaires qui ne permettent pas de porter un modèle auto-suffisant et soutenable économiquement.

    J’ai constaté que la structure la plus adaptée en droit français pour parvenir à cette soutenabilité est la société coopérative d’intérêt collectif (SCIC). Encadrées par une loi de 2001, les SCIC ont « pour objectif la production et la fourniture de biens et de services d’intérêt collectif qui présentent un caractère d’utilité sociale ». Cette structure a ainsi l’avantage d’inscrire une activité commerciale dans les statuts tout en se conformant aux principes fondamentaux de l’ESS, qui correspondent bien à ce que recherchent les porteurs de projets de communs numériques. Ainsi, la gouvernance est ouverte à une diversité de parties prenantes dans laquelle les sociétaires sont à la fois les bénéficiaires et les producteurs du service ou produit, mais aussi des personnes publiques ; tout en suivant la règle 1 personne = 1 voix. Théoriquement, cela renouvelle la façon dont l’acteur public peut soutenir les communs numériques en participant directement à sa gouvernance sans préempter le reste des sociétaires.

    Toutefois, il demeure à mon sens trois grandes limites à ce statut. La première tient aux exigences et complexités du cadre juridique des SCIC. À l’inverse du statut des associations qui est assez souple, celui des SCIC impose le respect d’un grand nombre de règles qui peuvent être difficilement compréhensibles pour tout un chacun, car en grande partie issu du droit des sociétés commerciales. Ensuite, l’insertion d’un projet cherchant une lucrativité limitée et un fonctionnement démocratique dans une économie capitaliste et libérale n’est pas des plus évidentes. Enfin, tout en présentant une rigidité qui peut le rendre difficile à manier, le statut de SCIC permet des arrangements institutionnels, comme la constitution de collèges de sociétaires qui viennent pondérer les voix, qui peuvent venir diluer certains principes coopératifs, comme la règle 1 personne = 1 voix.

    L’ESS bénéficie-t-elle de l’investissement des communs numériques dans son champ ?
    “Si l’ESS vient apporter une structuration juridique au mouvement des communs numériques, ces derniers ont permis l’intégration des questions numériques dans au sein de l’ESS.”

    Ces deux mondes se complètent très bien. Si l’ESS vient apporter une structuration juridique au mouvement des communs numériques, ces derniers ont permis l’intégration des questions numériques au sein de l’ESS.

    Le recours aux logiciels libres a été une évidence pour les acteurs de l’ESS et ils ont un rôle important, notamment pour l’organisation numérique du travail, aujourd’hui indispensable. Les logiciels libres mettent à disposition tout un tas de ressources pensées pour le travail communautaire de façon gratuite ou du moins à moindre coût. Alternatives aux services proposés par les GAFAM, ils permettent surtout d’être alignés avec la conscience politique des acteurs de l’ESS.

    Toutefois, le recours aux logiciels libres dans le cadre de tels projets d’ESS pose des questions quant à la rémunération du travail de production et de maintenance de ces outils. Initialement, les utilisateurs des logiciels libres sont des personnes en capacité de développer et de maintenir ces derniers, ce qui n’est plus le cas aujourd’hui. De plus, au fur et à mesure que les projets libres ont gagné en notoriété, un panel de nouvelles fonctions est apparu aux côtés des enjeux de développements techniques, comme la documentation, l’animation de la communauté, etc. Tout ce travail invisible non technique mais indispensable a alors besoin d’être valorisé, ce qui doit passer par une rémunération du travail effectué.

    L’affiliation des projets de communs numérique à l’ESS permet de mettre en valeur ces enjeux de rémunération. Là où les logiciels libres n’envisagent pas systématiquement une rémunération, l’ESS vient poser un cadre juridique prévoyant des mécanismes de valorisation économique de toute contribution. En valorisant ces activités, l’ESS bénéficie réciproquement des nombreux apports venant des logiciels libres et des communs numériques.

    Ce rapprochement est-il une réponse pour encourager la participation de l’État dans le développement de communs numériques ?

    “Le simple fait que tous les acteurs publics utilisent les solutions libres constituerait un grand pas en avant pour l’écosystème.”

    Il est difficile de trouver une bonne réponse sur la participation que l’État doit prendre dans le développement de communs numériques. Cela peut à la fois faciliter le développement du commun numérique en injectant des moyens mais aussi remettre en question le fondement pour lequel il a été créé. Toute implication de l’acteur public dans un projet qui se veut profondément démocratique et horizontal présente un risque. Et cela a déjà été le cas par le passé. La participation d’un acteur public dans la gouvernance d’une SCIC peut entraîner l’échec du projet du commun. Face à des particuliers, et même s’il n’a qu’une voix, l’acteur public peut involontairement prendre le pas sur la gouvernance du projet, et ce, malgré les meilleures intentions du monde. Les contributeurs individuels initiaux peuvent se désengager du projet pensant que leur participation ne vaut rien à côté des moyens de l’acteur public. Dans ce cas, même si le projet perdure, il demeure un échec en tant que commun numérique.

    L’avantage de rapprocher l’ESS et les communs numériques est que cela permet de mettre en exergue les blocages existants et de réfléchir à des solutions. Avant d’envisager une potentielle participation d’un acteur public dans un projet de commun numérique, il est nécessaire de penser la structuration du projet. Les SCIC apportent des premiers éléments de réponse, mais il est nécessaire de mettre en place des gardes fous juridiques pour assurer la résilience du commun lors de l’arrivée de l’acteur public, et ainsi éviter que le projet devienne une société classique ou finisse par disparaître.

    Plus globalement, là où l’État peut jouer un rôle sans se heurter à la question de la participation, c’est dans son rapport aux logiciels libres. Le simple fait que tous les acteurs publics utilisent les solutions libres constituerait un grand pas en avant pour l’écosystème. Le ministère de l’Éducation nationale est moteur en ce sens : le ministère utilise le logiciel libre de vidéoconférence BigBlueButton et contribue à son amélioration. Toutefois, cette adoption généralisée dans l’administration n’est pas si évidente. Les acteurs vendant des logiciels propriétaires ont adopté des stratégies pour rendre les utilisateurs dépendants de ces solutions. La migration vers des solutions libres ne peut se faire sans un accompagnement continu et une formation des utilisateurs qui ne sont pas forcément à l’aise avec l’outil informatique et qui ont l’habitude de travailler avec un logiciel depuis toujours.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Contrôler l’accès aux sites web pour adultes : est-ce possible ?

    On aimerait protéger les enfants des sites pornos, obliger ces sites à vérifier l’âge de leurs utilisateurs. Mais est-ce même possible ? Deux chercheurs du CNRS nous expliquent comment la technique permet de le faire en s’appuyant sur une identité numérique, mais qu’une telle identité n’existe pas au niveau international. Et puis, les VPN permettent de contourner facilement de tels dispositifs nationaux. (Facilement : quelle proportion de la population sait utiliser un VPN, même si c’est hyper simple ?) Serge Abiteboul et Claire Mathieu

    Pour mettre fin à l’exposition des enfants aux contenus pornographiques en ligne, le ministre Jean-Noël Barrot voudrait des « systèmes de vérification d’âge fiables, anonymes et sans fichage des utilisateurs », qui seraient mis en œuvre par les sites pornographiques (voir la capture d’écran ci-dessous). Comment peut-on vérifier un âge de façon « anonyme » sur Internet ? Derrière cette question d’apparence anodine se cache un défi scientifique et technologique qui intéresse les chercheur.se.s de longue date.

    Capture d’écran d’une page de https://presse.economie.gouv.fr/10052023-dp-projet-de-loi-securiser-et-reguler-lespace-numerique/

    Une mise en œuvre impossible avec les outils existants

    Aujourd’hui, si vous devez montrer que vous avez plus de 18 ans (par exemple dans un bar), il n’y a pas 36 solutions : vous montrez votre carte d’identité. Le barman vérifie votre âge et jette un œil à la photo. Rien n’est stocké, et vous récupérez votre carte immédiatement. Sur Internet, les choses se compliquent : on pourrait par exemple imaginer que vous envoyez un scan de votre pièce d’identité au site pour adultes. La vérification de votre âge va donc se faire à partir d’une « copie » de votre pièce d’identité ; cependant, le site peut désormais conserver cette copie ! Bien sûr, il peut prétendre l’effacer, mais comment être certain qu’il le fasse ? Il y a de nombreux sites, et peu de moyens de garantir qu’ils soient tous de confiance.

    Une fois cette copie conservée, les problèmes commencent : votre accès au site n’est évidemment pas anonyme, et le site peut, s’il le souhaite, revendre vos données privées à des acteurs malveillants voulant identifier des personnes fréquentant certains sites (à des fins publicitaires, ou pour de l’extorsion), ou même se faire passer pour vous auprès d’autres sites qui utiliseraient le même procédé d’authentification.

    Une mise en œuvre possible dans le contexte national, grâce à la carte d’identité numérique

    Un tel procédé n’est pas acceptable, et ne satisfait évidemment pas les contraintes d’une vérification « anonyme et sans fichage » comme énoncées par Monsieur Barrot. Cela reste vrai même si le site s’engage à effacer ces données, à les brouiller durant la vérification, ou à ne jamais consulter le serveur où elles sont stockées : une promesse n’est qu’une promesse, et il est impossible d’en garantir la tenue pour tous les sites concernés. C’est technologiquement impossible.

    Quelles alternatives s’offrent à nous ? Une possibilité serait de recourir à une identité numérique, offrant plus de flexibilité qu’une carte d’identité classique. Comme la carte à laquelle nous sommes habitués, une identité numérique est une donnée associée de façon unique à un.e individu.e, et contenant diverses informations à son sujet (âge, genre, lieu de naissance…). Un avantage important d’une telle identité, par rapport à une carte d’identité classique, c’est qu’il existe des mécanismes permettant de convaincre un interlocuteur (par exemple, un site web) que notre identité numérique satisfait certaines conditions (par exemple, être majeur) sans en donner de copie à l’interlocuteur et tout en lui cachant les autres informations (notre nom, par exemple) !

    Concrètement, on peut concevoir une identité numérique comme une boîte digitale fermée qui contiendrait les informations susmentionnées. Tout le monde peut voir cette boîte, la stocker, la copier, mais personne ne peut voir ce qu’elle contient. Pour en voir le contenu, il faut disposer d’une « clé digitale » permettant de l’ouvrir – et vous êtes seul propriétaire de cette clé digitale. (Il ne faut pas la partager : cela reviendrait à donner votre carte d’identité à quelqu’un d’autre).

    S’il ne faut jamais révéler cette clé, comment alors démontrer notre identité à un interlocuteur ? Pour cela, il existe des mécanismes permettant de montrer à quelqu’un que l’on possède la clé permettant d’ouvrir notre « boîte digitale », mais sans jamais lui transmettre de copie de notre clé. Vous pouvez imaginer que la personne vous tende des cadenas (fermés) ayant la même serrure que votre boîte, et que vous lui rendiez ces cadenas ouverts : votre interlocuteur sera convaincu que vous « possédez » une clé qui fonctionne, mais n’aura aucune idée de ce à quoi elle ressemble (et ne pourra donc pas en faire construire une copie) !

    Jusqu’ici, on a vu comment on pourrait éviter que votre identité numérique ne soit copiée / volée / revendue. Mais on n’a pas encore parlé d’anonymat lorsqu’il faut révéler son âge… Eh bien, de façon surprenante, ces mêmes méthodes qui permettent de « prouver » informatiquement que l’on possède la clé de la boîte permettent de faire bien plus : en utilisant des méthodes connues sous le nom de « preuves à divulgation nulle de connaissance » (zero-knowledge proofs, en anglais), il est en effet possible de démontrer que la boîte contient une certaine information, sans en révéler les autres informations ! En fait, on peut même aller bien plus loin : il est possible de démontrer que l’on possède une clé pouvant ouvrir « une certaine boîte » dont le contenu indique un âge supérieur à 18 ans (par exemple), « sans même révéler de quelle boîte il s’agit » !

    Ces procédés reposent sur des mécanismes ingénieux développés depuis les années 80 dans les travaux de chercheurs, et qui commencent à être utilisés à grande échelle, notamment dans le cadre des cryptomonnaies. Pour comprendre un peu comment ça marche, prenons une petite énigme : je dispose de cent cadenas (initialement ouverts), numérotés de 1 à 100, et je prétends posséder la clé de « l’un d’entre eux », mais je ne veux pas vous révéler laquelle. Comment puis-je vous en convaincre ? (Si vous le souhaitez, vous pouvez interrompre votre lecture et y réfléchir quelques minutes.)

    Voilà une solution : à partir des cinquante premiers cadenas, vous créez un « cercle de cadenas », en accrochant le cadenas 1 au 2, puis le 2 au 3, etc, puis le 50 au 1. Vous faites de même avec les cadenas 51 à 100, mais en faisant passer le cercle au travers du cercle précédent, comme sur l’image ci-dessous :

    Vous me tendez maintenant les deux cercles imbriqués, je m’isole, et je reviens en vous tendant les deux cercles désimbriqués (mais toujours clos). Je peux facilement le faire si je possède la clé de l’un des cadenas – n’importe lequel – et c’est a priori impossible sinon. Vous voilà donc convaincu que je possède l’une des clés, sans savoir laquelle ! Les travaux des chercheur.se.s sur les « preuves zero-knowledge » donnent des équivalents numériques de ce type de méthodes. Ils permettent de prouver qu’une identité appartient à une liste d’identités autorisées, ou, dans le cas qui nous occupe, que notre identité numérique est bien associée à un âge supérieur à 18 ans – un peu comme si vous montriez votre carte d’identité recouverte d’une feuille opaque découpée de façon à ne laisser apparaître que le champ indiquant votre date de naissance.

    Toutes ces méthodes, en revanche, nécessitent crucialement que soit mise en place une identité numérique universelle. Et c’est là que le bât blesse : Monsieur Jean-Noël Barrot parle de contraindre les sites pornographiques à mettre en place eux-mêmes une solution. Ils en seront bien incapables ! C’est aux États seuls que peut revenir la création d’une identité numérique nationale. Les sites web, en l’absence d’une telle identité numérique, peuvent seulement demander à voir votre carte d’identité physique, mais n’ont dans ce cas aucun moyen de garantir votre anonymat, au-delà d’une promesse (bien facile à rompre) de ne pas stocker ou utiliser cette information. ((Les identités numériques existent déjà mais ne sont utilisées que par 3 millions de français.)

    Un contournement international facile par les VPN

    Et même si la France se lance dans la création d’une telle identité numérique, cela ne signifie pas que d’autres pays le feront. Depuis ces pays, n’importe qui pourra toujours accéder à des sites pour adultes, sans vérification prouvée et anonyme de son âge. Or, consulter un site en prétendant venir d’un autre pays est à la portée de toutes et tous : des technologies largement répandues, comme les VPNs, permettent aux utilisateurs de faire transiter leurs communications par l’intermédiaire de serveurs tiers. La crise du Covid a dramatiquement accéléré le déploiement de ce type de service au sein des entreprises et administrations. Dans ce contexte, le VPN a permis aux télétravailleurs de rejoindre le réseau interne de leur employeur de façon sûre, c’est-à-dire en garantissant la confidentialité des données transmises sur le réseau Internet.

    Exploitant la même brique technologique, de nombreux services commerciaux mettent également à disposition des serveurs dans des pays étrangers au choix. Leur usage s’est répandu dans un contexte de loisirs pour contourner les restrictions de diffusion des opérateurs de diffusion. On se connecte ainsi à travers un serveur en Grande Bretagne pour pouvoir regarder la BBC, un serveur en Italie pour regarder la RAI, ou un serveur aux États-Unis pour regarder le dernier opus d’une certaine série de Fantasy avant les collègues de bureau.

    Techniquement, le principe à l’œuvre est celui d’un « Relais Colis » numérique : plutôt que d’envoyer et recevoir des colis depuis sa boîte aux lettres personnelle (ce qui révélerait inévitablement notre localisation), on passe par l’intermédiaire d’un serveur-relais qui transmet nos communications à son destinataire. C’est ainsi l’adresse du relais qui est révélée au destinataire et non pas la nôtre. L’utilisateur du service a ainsi caché son adresse : seul le service de relais VPN a besoin de connaître l’adresse effective du client. En choisissant un relais à l’étranger, on loue ainsi une adresse à l’étranger le temps de la communication et on peut contourner la loi française.  Il pourrait être tentant de filtrer le contenu des communications VPN afin de restreindre leur usage : encore une fois, la cryptographie rend cela impossible. Les communications entre le client et le relais VPN sont chiffrées, utilisant la technologie qui sécurise aujourd’hui vos achats en ligne. Restreindre un usage reviendrait à restreindre l’autre.

    Reste aux plateformes la possibilité de détecter l’usage d’un relais VPN : dans ce jeu du chat et de la souris à l’échelle planétaire, certaines plateformes maintiennent des listes d’adresses interdites car identifiées comme appartenant à des services VPN commerciaux. En réponse, ces derniers changent régulièrement les adresses de leurs relais afin de rester sous le seuil de détection. Avec 2^128 (plusieurs centaines de sextillions !) adresses disponibles, la partie de cache-cache promet d’être haletante.

    Conclusion

    Sans loi internationale, un VPN suffit à contourner le contrôle d’accès par les sites pornographiques. L’article de loi proposé ne pourra donc ériger qu’une faible barrière à l’accès des enfants aux sites web réservés aux majeurs, et à moins que l’État ne généralise la carte d’identité numérique, cela se fera au détriment de l’anonymat et de la sécurité des données des utilisatrices et utilisateurs. Un investissement et un risque conséquents pour un résultat faible : plutôt que par un contrôle d’accès numérique, il faut chercher d’autres approches pour éviter d’exposer les enfants aux contenus pornographiques en ligne.

    Geoffroy Couteau et Pierre-Évariste Dagand,  CNRS

    Voir aussi :
    La fréquentation des sites internet par les mineurs doit être une priorité de santé publique

     

  • ChatGPT et test de Turing inversé

    Erwan Le Merrer,  chercheur Inria, étudie le fonctionnement des plateformes du Web et analyse leurs comportements. Il préside le conseil scientifique de la Société informatique de France. Il nous propose une réflexion sur un sujet qui fait énormément parler aujourd’hui, ChatGPT et les modèles génératifs. Turing a proposé un test pour savoir si un humains pouvait distinguer des réponses émanant d’une intelligence artificielle de celles produites par d’autres humains. Erwan montre que dans une inversion étonnante, le test est aujourd’hui posé aux intelligences artificielles. Pierre Paradinas

    ChatGPT et les autres modèles génératifs sont amenés à modifier profondément nos usages. La génération instantanée de textes, d’images et de vidéos, inspire déjà quantité d’applications. Au delà de l’objectif affiché, la nature des sources de données sur lesquelles ChatGPT va poursuivre sa construction est critique.

    Image du jeu classique « snake »

    Le test de Turing est une expérience proposée en 1950 par Alan Turing et consistant pour un expérimentateur à deviner si la réponse à une question émane d’un être humain ou d’un ordinateur. L’expérimentateur est à l’aveugle par rapport au questionné, la vision de ce dernier étant occultée par un mur. La finalité du test est de questionner la distinguabilité de l’être humain des processus numériques en cours d’élaboration à l’époque. L’application aujourd’hui dans d’autres contextes est par exemple : étant donnée une copie de devoir à corriger pour un enseignant, a-t-elle été rédigée par l’étudiant ou par ChatGPT ?

    Les textes et données présents sur le web sont (encore) en grande partie le fait d’humains : journalistes, blogueurs, scientifiques, passionnés ou utilisateurs de réseaux sociaux. ChatGPT s’en nourrit pour construire le modèle probabiliste qui le dirige. Sans ces données, pas d’apprentissage et donc de génération satisfaisante. Mais voila, des textes ainsi générés sont déjà utilisés plus ou moins directement (peut-être sans modification) pour alimenter les sites web, et autres contenus de documents partagés [1].

    Il résulte la possibilité d’un cercle vicieux : ChatGPT devra être mis à jour fréquemment pour s’adapter aux événements ou nouvelles connaissances ; les nouveaux contenus aspirés pour être ingurgités seront ils alors des contenus déjà générés par ce même ChatGPT ? Ce serait problématique à plus d’un sens. On peut ici faire le parallèle avec des techniques relativement similaires dites de génération adversarielles (GANs), ou deux modèles d’apprentissage machine se font face. L’un pour améliorer sa génération de données essaie de tromper le second, qui lui essaie de discriminer ces données reçues d’autres données émanant cette fois d’êtres humains. L’intuition est simple : si le premier modèle génère par exemple des images trop facilement discriminables d’autres images réelles, alors il ne fait pas bien son travail. Il s’améliore alors jusqu’à ce que cette génération ne permette plus au second modèle de juger correctement du fait que ces images sont générées, avec plus d’une chance sur deux. Le premier modèle a alors “convergé” et atteint son objectif de génération indistinguable de données.

    Nous revoilà devant cette question d’indistinguabilité, cette fois concernant les données d’apprentissage de ChatGPT : les données glanées sur le web sont-elles le fait d’humains, de ChatGPT, ou d’autres modèles génératifs ? Mais l’expérimentateur du test de Turing est cette fois un processus numérique — ChatGPT lui même — plutôt qu’une personne : à ChatGPT d’arriver à distinguer sa propre création, ou des variantes manipulées par des personnes, dans cette instance inversée du test de Turing.

    Et on peut douter du succès de ChatGPT sur ce test, même à court terme. Ce dernier est bien précisément entrainé pour produire des sorties indistinguables de textes produits par des humains. Des chercheurs proposent de forcer ces modèles génératifs à embarquer des traces qui les confondent dans chacun de leurs textes générés (techniques dites de “tatouage” [2]). D’autres proposent au contraire une attaque pour contrer le tatouage qui paraphrase le texte généré pour ainsi permettre de rendre inopérant ce tatouage [3].  Ils fournissent au contraire une preuve d’impossibilité (i.e., d’indistinguabilité), qui s’appuie sur la nécessaire convergence de la distribution des mots dans les phrases générées vers celle naturellement présente dans les textes humains [3], au fur et à mesure de l’amélioration des capacités de ChatGPT ou de ses compétiteurs. Le problème est évidemment le même pour un système concurrent (e.g., Bard de Google) qui consommerait du ChatGPT, et inversement.

    Il est ici central de rappeler que l’indistinguabilité statistique de la formation de phrases n’a rien à voir avec l’indistinguabilité de la véracité ou non de ce que disent ces mêmes phrases : elles peuvent être syntaxiquement parfaites et sembler cohérentes, mais contenir des erreurs factuelles. Or ChatGPT est entraîné pour répondre parfaitement à ce premier objectif, mais pas au second. Lorsque le web sera alors peuplé de données non distinguables, le problème technique sera d’imaginer ce qu’il adviendra de la convergence d’un ré-apprentissage périodique pour ChatGPT, qui n’a aucun intérêt pratique à ingurgiter ses propres sorties. Un regain du nombre d’erreurs factuelles peut alors survenir dans ces textes générés, pour être ensuite intégrés sur le web de façon consciente ou non. Et ce dans une itération continue de la forme “génération, insertion sur le web, ingestion, ré-apprentissage”, etc.

    Les conséquences sociétales à craindre sont probablement une dilution encore plus grande de la capacité d’attribution aux créateurs ou penseurs, et conséquemment un risque de confusionnisme accru par la présence en ligne d’affirmations contraires concernant tous les faits possibles.

    Que deviendra le ver quand le fruit sera pourri ?

    Erwan Le Merrer, Inria

    Références :

    [1] https://www.theguardian.com/technology/2023/may/02/chatbot-journalists-found-running-almost-50-ai-generated-content-farms
    [2] A Watermark for Large Language Models, Arxiv, 2023.
    [3] Can AI-Generated Text be Reliably Detected?, Arxiv, 2023.

  • ChatGPT ? Voulez-vous comprendre ce que c’est ?

    ChatGPT. Avant d’en parler, de croire qu’il va tout faire, même la vaisselle, d’en avoir peur parce qu’il va détruire les emplois, de s’émerveiller parce qu’il a dit quelques phrases qui avaient l’air intelligentes, de le traiter de nul parce qu’il dit des bêtise, de l’engueuler parce qu’il refuse de dire une absurdité, avant de nous faire une opinion, peut-être  pourrions-nous passer un peu de temps à essayer de comprendre ce que c’est ? Serge Abiteboul.

    Chiche ?

    Pour ça, vous pouvez écouter David Louapre qui explique si bien, les bases de ChatGPT, et comment il a été conçu à partir du modèle de langage GPT :

    Et vous pouvez trouver quelques mots de plus sur son blog pour en savoir plus (en particulier sur la notion de « transformer »), ou même, aller en discuter dans son salon discord.

    Et bien entendu vous pouvez bien sûr, soyez fous, essayer ChatGPT !

    Oui, mais encore ? Comment mieux comprendre comment se manipule le langage humain au sein de tels algorithmes ? C’est dans cette vidéo que David vous expliquera cette mécanique :

    Il l’explique aussi de manière textuelle sur son blog.

    Attendez … peut-être souhaitez-vous aussi retourner aux bases et mieux comprendre ces histoires d’apprentissage machine, en particulier l’apprentissage profond, si performant et tant utilisé ? David est encore là :

    Et il propose même une version textuelle des explications.

    Alors ChatPGT et cie. ? Peut-être avant de se faire une opinion, cela vaut le coup de le démystifier, de comprendre ce que c’est, ce que l’on peut et veut en faire, de manière sereine et éclairée et, au-delà, de se doter d’une culture scientifique en informatique.

    En tout cas, retenons que les informations fournies par ChatGPT peuvent être erronnées, y compris en violation du RGPD , qui stipule que les données personnelles traitées doivent être exactes, comme cela est discuté ici, tandis que nou nous sommes tous amusés à tester cela sur nous même.

    Thierry Viéville, chercheur Inria, et surtout merci à David Louapre.

    Pour aller plus loin

    – Une vidéo de l’équipe de recherche Inria flowers visant collégiens et lycéens en particulier

    – On a aussi cette très intéressante discussion radiophonique qui discute des usages avec ces risques.

    – Une formation citoyenne https://classcode.fr/iai développée avec des spécialistes en sciences du numériques et sciences de l’éducation (voir cet article scientifique) est librement utilisable et réutilisable.

    – Pour se former aux sciences du numérique en général https://classcode.fr/snt (en particulier avec un résumé sur l’histoire de l’intelligence artificielle) est en partage.

     

     

  • La révolution de la microbiologie par le numérique

    Un nouvel « Entretien autour de l’informatique ». Pascale Cossart est une biologiste française, une Pasteurienne, professeur de classe exceptionnelle à l’Institut Pasteur depuis 2006. Ses travaux ont notamment porté sur l’étude des mécanismes impliqués dans les infections bactériennes. Grâce à des approches multidisciplinaires, Pascale Cossart a véritablement démarré une nouvelle discipline, la « microbiologie cellulaire », et mis en lumière de nombreuses stratégies utilisées par les bactéries lors de l’infection. Elle a été la Secrétaire perpétuelle de l’Académie des Sciences pour la deuxième section (chimie, la biologie et la médecine) de 2016 à 2021. Depuis 2022, elle est scientifique invitée à l’EMBL Heidelberg.

     

    Pascale Cossart

    B : Pourrais-tu nous parler de ta discipline de recherche ?

    PC : Je travaille à la frontière entre la microbiologie et la biologie cellulaire. Depuis 1986, je m’intéresse aux infections par des bactéries qui vivent à l’intérieur des cellules ; cela m’a conduite à des études sur les bactéries (de la microbiologie), et sur les cellules (de la biologie cellulaire), et sur la façon dont les bactéries pénètrent et vivent dans les cellules, que ce soit au niveau des tissus ou des organismes entiers.

    En général, après avoir analysé des mécanismes sur des cellules en culture, nous validons nos résultats sur des modèles animaux pour comprendre la maladie humaine. On est à la limite de la médecine, mais ce qui m’intéresse surtout, ce sont les mécanismes fondamentaux : comprendre comment un microbe provoque une maladie, comment une maladie s’installe, comment des maladies donnent des signes cliniques, et comment l’organisme peut échapper à cette maladie.

    A l’époque de Pasteur, à la fin du XIXe siècle, les microbiologistes cherchaient à identifier le microbe responsable de telle ou telle maladie (peste ou choléra ?). Maintenant on cherche à comprendre comment un microbe produit une maladie.

    Il y a différentes catégories de microbes : des bactéries, des parasites, des virus. Nous travaillons sur les bactéries qui sont des cellules uniques (des petits sacs) sans noyau mais qui ont un chromosome. Les mammifères (nous !), les plantes ont des millions de cellules différentes qui ont un noyau contenant des chromosomes. Les chromosomes sont faits d’ADN, composé qui a été découvert dans les années 50. Il a ensuite été établi que l’ADN était la molécule essentielle pour la transmission du patrimoine génétique, le génome. L’ADN, c’est la molécule de la vie !

    Parmi les bactéries certaines sont inoffensives, d’autres sont pathogènes !

    C’est pour leurs travaux ici, à l’Institut Pasteur, sur des bactéries non pathogènes et sur leur ADN que François Jacob, Jacques Monod et André Lwoff ont obtenu le prix Nobel. Ils s’intéressaient au chromosome bactérien et à la façon dont les bactéries en se nourrissant, produisent des protéines, grandissent, et se divisent en deux (division binaire !) en générant une descendance identique à la bactérie initiale.

    À la fin des années 70, on a assisté à l’explosion de la biologie moléculaire, c’est à dire la biologie des molécules, héritée de la découverte de l’ADN. À la fin des années 80, les chercheurs en biologie moléculaire cherchaient à comprendre comment les molécules fonctionnent, alors que les chercheurs en biologie cellulaire s’intéressaient à la façon dont les cellules fonctionnent.

    J’étais chercheuse à ce moment clé. Il y avait des avancées du côté bactéries, et aussi du côté des cellules de mammifères, grâce en particulier aux nouveaux microscopes. On pouvait donc commencer à observer des infections par les bactéries pathogènes. On pouvait combiner biologie moléculaire et biologie cellulaire, en essayant de comprendre les interactions entre composants bactériens ou ceux de la cellule hôte dans le cas d’infections. C’est sur cela qu’ont porté alors mes travaux. Cela a conduit à l’émergence d’une nouvelle discipline que nous développions, qui s’intéressait en particulier à ce qui se passe dans les cellules quand arrive un corps étranger. Pendant un colloque que j’ai organisé sur ce sujet, un journaliste de Science nous a conseillé de donner un nom à cette discipline : nous avons proposé la microbiologie cellulaire. J’ai fait partie des lanceurs de cette discipline, la microbiologie cellulaire.

    Cette discipline a été rapidement acceptée, avec un livre fondateur, des revues, et aujourd’hui des professeurs et des départements de microbiologie cellulaire.

    Cellules humaines infectées par la bactérie Listeria monocytogenes : en bleu le noyau des cellules, en rouge les bactéries et en vert l’actine, un composant de la cellule infectée que la bactérie recrute et utilise pour se déplacer et éventuellement passer d’une cellule à une autre.

    B : Pourrais-tu nous expliquer en quoi consiste le travail dans ce domaine ?

    PC : Quand une bactérie essaie d’entrer dans une cellule, la bactérie s’adapte à la cellule et vice versa. Le travail dans le domaine consiste à observer la bactérie qui rentre et parfois se promène dans la cellule, on la filme. On choisit plutôt des cellules faciles à cultiver, et pour la bactérie, j’ai choisi Listeria monocytogenes. Je l’ai choisie avec soin pour ses propriétés uniques. On la trouve dans l’environnement ; elle peut parfois contaminer des aliments, et ainsi par l’alimentation atteindre dans le tractus intestinal, parfois traverser la barrière intestinale et arriver au foie, à la rate, ou au placenta et éventuellement au cerveau. Elle est capable d’aller jusqu’au fœtus. Elle cause des gastroentérites, des accouchements prématurés, des méningites. On a beaucoup avancé dans la connaissance du processus infectieux mais on ne comprend encore pas bien comme elle va jusqu’au cerveau.

    Plus concrètement, dans un labo, on cultive la bactérie dans des tubes contenant un liquide nutritif. On cultive soit la bactérie originale soit des mutants de la bactérie. Dans un autre coin du labo, on fait pousser des cellules. La suite dépend de la question qu’on se pose. En général on met les bactéries ou les mutants sur les cellules et on observe ce qui se passe ou ce qui ne se passe pas avec certains mutants.

    On peut aussi infecter des animaux, ce qui est bien sûr très règlementé. Si j’injecte la bactérie par voie orale dans une souris, est-ce qu’elle arrive au foie ? Comment la souris réagit-elle ? On a une multitude de questions à poser.

    B : Tu te doutes que Binaire s’intéresse aux apports du numérique dans ta discipline.

    PC : On a vécu une double révolution avec le numérique : du côté de la bactérie avec la génomique, et du côté de la cellule et de l’infection, avec l’imagerie numérique.

    B : Commençons par la génomique si tu veux bien.

    PC : Les bactéries n’ont pas de noyau, Elles ont un chromosome, c’est-à-dire un grand ADN circulaire. Au début de mes travaux sur Listeria, on ne connaissait rien sur son chromosome, c’est-à-dire son génome. Pour le comprendre, on a d’abord créé des mutants, avec différents outils génétiques : par exemple on peut mettre la bactérie Listeria à côté d’une autre bactérie qui va injecter dans son ADN, un transposon. On obtient alors une « banque de mutants » parmi lesquels on cherche, par exemple, un mutant non invasif, c’est-à-dire qui ne parvient pas à entrer dans les cellules.

    L’ADN consiste en une séquence de lettres. Pour trouver l’endroit où le gène a été interrompu, on réalise le « séquençage » de l’ADN situé à côté du transposon. Les différentes techniques de séquençage de l’ADN sont apparues vers la fin des années 70. Au début on ne pouvait séquencer que des petits fragments. J’ai réalisé à l’époque mon premier séquençage, avec une technique chimique. Je lisais les séquences et j’écrivais les résultats dans un cahier.

    Et puis, on a obtenu des séquences de plus en plus longues qu’on a entrées dans des ordinateurs. On a pu utiliser des programmes pour trouver des ressemblances entre des séquences. On pouvait « aligner des séquences », c’est-à-dire les positionner pour en faire ressortir les régions similaires. L’informatique nous permettait de faire ce qu’on n’arrivait plus à faire à la main, quand les séquences grandissaient.

    Les techniques ont alors progressé et dans le cadre d’un consortium européen que je dirigeais, nous avons publié en 2000 le séquençage du génome de Listeria qui comporte 3 millions de lettres. À titre de comparaison, le génome humain, qui a été séquencé plus tard, a 3 milliards de lettres. Au début, le travail de séquençage était lent et considérable, il exigeait de faire collaborer plusieurs labos, chacun travaillant dans son coin sur certaines régions de l’ADN chromosomique. L’ordinateur est devenu indispensable pour assembler les morceaux de séquences et analyser les résultats.

    Nous avons donc séquencé le génome de Listeria monocytogenes, l’espèce pathogène, et aussi celui d’une cousine non-pathogène, Listeria innocua. L’observation des différences entre les séquences a été une mine d’or de découvertes. La comparaison des deux génomes ouvrait une infinité de possibilités d’expériences. On pouvait réaliser des mutations ciblées, en inactivant tel ou tel gène, présent chez L. monocytogenes et absent chez Listeria innocua et tester si le mutant obtenu était encore virulent.

    Il reste beaucoup de travail à faire, notamment, sur des bactéries pour lesquelles on ne sait pas grand-chose, en particulier, parce qu’on ne sait pas les cultiver, comme c’est le cas pour les bactéries anaérobies de l’intestin, du sol ou des océans

    La grande révolution à l’heure actuelle, c’est la métagénomique. Les machines sont devenues très performantes pour séquencer l’ADN. Elles séquencent des mélanges d’ADN et sont capables d’identifier tous les ADN différents présents et donc les espèces d’où ils proviennent. Par exemple, dans la mission Tara, une goélette récolte du microbiome marin. Les séquenceurs vont être capables d’identifier des milliers de petits bouts de séquences d’ADN. Un logiciel va faire le catalogue des espèces présentes. Tout ceci serait impensable sans ordinateur.

    B : Est-ce qu’un séquençage prend beaucoup de temps ?

    PC : Avant, en 2000, séquencer un génome bactérien prenait au moins dix-huit mois. Maintenant, en trois jours on a la séquence et les premières analyses. L’ordinateur sait comparer deux génomes l’un à l’autre, ou encore comparer un génome à une banque de génomes. Il sait « regarder » le génome et faire son « analyse grammaticale », identifier les gènes et donc les protéines que ces gènes peuvent produire. C’est une révolution. Des tâches qui auraient pris des années pour des humains sont maintenant faites très rapidement par des ordinateurs.

    Cela nous permet maintenant de nous tourner vers les microbiotes, ces grandes assemblées de micro-organismes. On peut analyser les microbiotes de l’intestin, la bouche, l’environnement (les sols, les océans)… Cela ouvre des possibilités extraordinaires comme de comprendre pourquoi certaines personnes sont malades, pourquoi certains sols sont stériles.

    B : Nous pourrions maintenant passer aux apports de l’imagerie cellulaire.

    PC : Le passage de l’observation des images par l’homme à l’analyse des images par l’ordinateur a fait passer les conclusions tirées, du stade subjectif au stade objectif : deux cellules ne sont jamais identiques. Le scientifique pouvait observer par exemple qu’une bactérie semblait entrer mieux ou plus vite dans une cellule que dans une autre. Mais cette observation était relativement subjective. Il était difficile de la rendre objective : alors on refaisait des manips des milliers de fois et on calculait des moyennes. Ceci prenait un temps fou. L’imagerie numérique nous permet d’observer de nombreuses cellules en même temps. La microbiologie cellulaire est une discipline qui a évolué considérablement avec le numérique.

    Les techniques d’imagerie reposent sur l’usage de marqueurs fluorescents avec lesquels on peut marquer la membrane extérieure de la cellule, ou le noyau, ou les mitochondries, etc. On utilise des programmes qui ressemblent aux programmes de reconnaissance faciale pour reconnaitre les marqueurs fluorescent qu’on a placés. On peut répondre à des questions comme : en combien de temps la bactérie va-t-elle arriver au noyau ? L’imagerie numérique est beaucoup plus sensible que l’œil humain, elle nous donne accès à des événements qui auraient échappé à l’observation à l’œil nu.

    On obtient de plus en plus de données qu’on peut stocker. On fait des analyses statistiques sur ces données pour répondre à différents types de questions qui permettent de comprendre dans notre cas les facteurs qui sont critiques pour qu’une infection prenne place.

    B : Tu nous as dit qu’il y avait une multitude de questions à poser. On ne peut pas les poser toutes. Il faut choisir. La sérendipité joue-t-elle un rôle pour trouver réponse à des questions intéressantes ?

    PC : Oui, très important. Pasteur disait à peu près : la science sourit aux esprits préparés ! J’ai eu une grande chance dans ma vie, c’est de trouver un mutant de Listeria que je ne cherchais pas. C’était en 1990. Ça a été une histoire incroyable.

    Un collègue, Dan Portnoï avait découvert grâce à ses travaux en microscopie électronique, la capacité exceptionnelle de Listeria à se mouvoir à l’intérieur des cellules et à passer d’une cellule à l’autre. Son résultat avait passionné les biologistes cellulaires qui cherchaient à comprendre comment en général les cellules bougent par exemple lors du développement d’un organisme.

    C’était l’époque pré génomique. Je cherchais dans une banque de mutants un mutant qui, sur des boîtes de Pétri, ne faisait pas de halo dans du jaune d’œuf. Rien à voir donc a priori. Et je trouve un mutant qui ne fait plus ce halo. Je demande à une postdoc de vérifier au microscope si cette bactérie passe bien d’une cellule à l’autre. Elle m’appelle alors qu’elle était au microscope : « Viens voir ! » Ce mutant était incapable de motilité intracellulaire. En l’analysant, nous avons trouvé le gène et donc la protéine responsables de la motilité. Le hasard m’a donc permis de réaliser une belle avancée en biologie cellulaire, parce que ça a permis de comprendre non seulement la motilité des bactéries mais aussi celle des cellules de mammifères.

    Mais pour une telle histoire, il fallait savoir profiter de l’occasion. Dans notre métier, on doit en permanence se poser des questions précises, évaluer si elles sont importantes et si on a les moyens techniques pour y répondre. Il faut aussi sans cesse être aux aguets de choses inattendues !

    B : Est-ce que le numérique continue à transformer le domaine.

    PC : Oui. Récemment on a vu des applications dans la prédiction des structures de protéines avec Alphafold. La cristallographie de protéines et l’analyse de diffusion de rayons X sur les cristaux de protéines nous permettaient de comprendre leurs structures 3-dimensionnelles, c’est à dire le repliements de protéines dans l’espace. On pouvait ensuite essayer de prédire comment des protéines s’assemblent, mais c’était très compliqué et à petite échelle. On pouvait aussi essayer de prédire comment inhiber la fonction d’une protéine en introduisant un composé dans un endroit clé pour toute la structure de la protéine.

    Alphafold part d’énormes bases de données sur les structures tridimensionnelles de protéines. Dans les programmes d’Alphafold, des logiciels d’apprentissage automatique (machines learning) combinent toute une gamme de techniques pour prédire comment un repliement pourrait de produire, et proposent des configurations spatiales aux scientifiques. Cela ouvre des possibilités fantastiques pour comprendre comment fonctionnent les protéines, et a donc des potentialités médicales incroyables.

    Serge Abiteboul et Claire Mathieu

    Pour aller plus loin

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’avenir de la réalité virtuelle sera hybride et physiologique

    Réalité virtuelle, réalité augmentée, interfaces cerveau-ordinateur (BCI en anglais), autant de domaines relativement peu connus du grand public et qui sont appelés à se développer dans un futur proche. Pour mieux comprendre quelles questions ils soulèvent, nous nous sommes entretenus avec Anatole LECUYER (Directeur de recherches Inria à Rennes).  Pascal Guitton 

    Binaire : pourrais-tu commencer par nous expliquer ton parcours de formation ?

    Anatole Lecuyer : Après un bac scientifique et des classes préparatoires, j’ai intégré l’école Centrale de Lille. La formation généraliste m’a globalement intéressé mais je me suis surtout amusé pendant mon stage de 3ème année. Je suis allé à l’université Simon Fraser à Vancouver où j’ai développé un outil de simulation visuelle pour une main robotisée. Ce fut une révélation : avec ce type de recherches je pouvais enfin faire dialoguer mes intérêts pour la science et pour les expressions  graphiques voire artistiques. Je ne m’en rendais pas compte à cette époque (été 1996) mais j’avais la chance de participer à l’émergence de la réalité virtuelle qui était encore balbutiante et pratiquement inexistante en France.

    Anatole LECUYER – Copyright Innovaxiom

    Après ce stage, j’ai travaillé pendant deux ans dans l’industrie aéronautique mais avec comme objectif de préparer une thèse et tout d’abord de composer le sujet qui m’intéressait. En 1998, j’ai démarré une thèse à Orsay sous la direction de Sabine Coquillart (Inria) et Philippe Coiffet (CNRS) sur l’utilisation des retours haptiques et visuels pour la simulation aéronautique en lien avec Aérospatiale (devenue EADS par la suite). C’était un sujet très précis, « délimité » comme je l’avais souhaité, mais je dois dire qu’un grain de sable s’y est introduit : le dispositif haptique que j’utilisais est tombé en panne et a été indisponible pendant 6 mois. Il a donc fallu « réinventer » une nouvelle approche et m’est alors venu l’idée du pseudo-haptique : comment produire des sensations haptiques sans utiliser aucun dispositif mécanique (ce que faisait le bras robotisé en panne) et en les remplaçant par des stimuli visuels. Comment donc générer des « illusions haptiques » exploitant un autre sens : la vision. Il est amusant de constater avec le recul que ce travail a été couronné de succès alors qu’il n’était absolument pas planifié mais résultait d’un accident de parcours ! A la fin de ma thèse soutenue en 2001, j’avais trouvé ma voie : je voulais faire de la recherche en réalité virtuelle mon métier.

    B : parle-nous de ce début de carrière

    AL : Après un an passé au CEA, j’ai été recruté en 2002 comme chargé de recherche Inria dans l’équipe SIAMES à Rennes. La première chose que je retiens est le décalage entre d’une part, l’impression d’avoir enfin réussi à atteindre un objectif préparé de façon intensive depuis plusieurs années et après un processus de sélection assez complexe et puis, d’autre part, le démarrage d’une nouvelle vie scientifique qui était totalement à construire. Cela n’a pas été simple ! Parmi beaucoup d’autres choses, je suis gré à Bruno Arnaldi, le responsable de SIAMES, de m’avoir proposé de travailler immédiatement avec un stagiaire pour en quelque sorte relancer la machine, explorer de nouvelles voies et finalement rebâtir un projet scientifique. C’est en tout cas, une expérience qui me sert quand, à mon tour, j’accueille aujourd’hui un nouveau chercheur dans l’équipe.

    binaire : tu as travaillé sur beaucoup de sujets, quel domaine te semble central dans ton activité

    AL : sans nul doute, c’est la réalité virtuelle (RV) qui est au cœur de toutes mes recherches, que ce soit pour l’interaction, les équipements technologiques, la perception humaine… Je la définirais comme « la mise en œuvre de technologies immersives qui permettent de restituer en temps réel et d’interagir avec des univers synthétiques via des interfaces sensorielles permettant de procurer un sentiment de « présence » aux utilisateurs ». Je tiens à rappeler que même si beaucoup la découvrent depuis peu, elle existe depuis plus d’une quarantaine d’années avec une communauté très active de chercheurs et d’ingénieurs, des concepts éprouvés, des revues/conférences…. Située à l’intersection de domaines variés comme l’interaction hommes-machine, le traitement du signal, l’intelligence artificielle, l’électronique, la mécatronique sans oublier les facteurs humains (perception, sciences cognitives), cette technologie permet de simuler la plupart des activités humaines, ce qui ouvre notre travail à des collaborations interdisciplinaires extrêmement variées et enrichissantes.

    B : tu pourrais nous fournir un exemple ?

    AL : en 2005, nous avons imaginé de combiner la RV avec les technologies d’interfaces cerveau-ordinateur (ICO, ou BCI pour Brain Computer Interface en anglais) et le traitement des signaux cérébraux issus d’électro-encéphalogrammes (EEG) ouvrant ainsi une voie nouvelle d’hybridation technologique. A cette époque, l’objectif principal était d’interagir avec des environnements virtuels ; on parlait alors de commande « par la pensée », ce qui était un abus de langage. Aujourd’hui on parle plutôt de commande « par l’activité cérébrale », ce qui est plus précis. Concrètement, il s’agit de détecter l’activité cérébrale et d’interpréter les signaux recueillis comme des entrées pour piloter un ordinateur ou modifier un environnement virtuel. En 4 ans, nous avons développé un logiciel baptisé OpenViBE qui s’est vite imposé comme une plate-forme de référence dans le domaine. Chaque nouvelle version est téléchargée environ 5000 fois et l’article le présentant a été cité environ 800 fois. Mais le plus intéressant est de constater qu’il réunit des communautés très diverses : neurosciences bien entendu mais aussi RV, arts, jeux vidéo, robotique… Avec Yann Renard et Fabien Lotte les co-créateurs d’OpenViBE, nous sommes toujours aussi émerveillés de cette réussite.

    Jeu vidéo « multi-joueur » contrôlé directement par l’activité cérébrale. Les deux utilisateurs équipés de casques EEG jouent ensemble ou l’un contre l’autre dans un jeu de football simplifié où il faut marquer des buts à droite (ou à gauche) de l’écran en imaginant des mouvements de la main droite (ou gauche) – © Inria / Photo Kaksonen

     B : et si maintenant nous parlions d’Hybrid l’équipe de recherche que tu animes à Rennes ?

    AL : si je devais résumer la ligne directrice d’Hybrid, je dirais que nous explorons l’interface entre les technologies immersives et d’autres approches scientifiques notamment en termes d’exploitation de signaux physiologiques. Ce qui était un pari il y a 10 ans s’est progressivement imposé comme une évidence. On peut par exemple remarquer qu’une des évolutions des casques RV est d’y intégrer de plus en plus de capteurs physiologiques, ce qui réalise notre hypothèse initiale.

    Pour illustrer cette démarche, je peux évoquer des travaux réalisés pendant la thèse de Hakim Si-Mohammed et qui ont été publiés en 2018. C’était la première fois que l’on utilisait conjointement un casque de Réalité Augmentée (Microsoft Hololens) et un casque EEG. Nous avons d’abord montré qu’il était possible d’utiliser simultanément ces deux technologies, sans risque et avec des bonnes performances. Puis, nous avons proposé plusieurs cas d’usage, par exemple pour piloter à distance un robot mobile, ou encore pour contrôler des objets intelligents dans une maison connectée (collaboration avec Orange Labs) permettant notamment d’allumer une lampe ou d’augmenter le volume de la télévision sans bouger, en se concentrant simplement sur des menus clignotants affichés dans les lunettes de réalité augmentée.

    Utilisation conjointe de lunettes de réalité augmentée et d’une interface neuronale (casque électro-encéphalographique) pour piloter à distance et sans bouger un robot mobile

     binaire : en 10 ans, comment observes-tu l’évolution de l’équipe ?

    AL : au démarrage, nous avons beaucoup travaillé sur le plan scientifique pour jeter les bases de notre projet. Au fil des rencontres que nous avons eues la chance de réaliser dans nos différents projets, la question des impacts sociétaux est devenue de plus en plus centrale dans nos activités. Je pense notamment au domaine médical, d’abord grâce à OpenViBE qui était initialement conçu pour pouvoir assister des personnes en situation de handicap privées de capacité d’interagir.

    On peut ensuite évoquer le projet HEMISFER initié avec Christian Barillot pour contribuer à la rééducation de personnes dépressives chroniques ou dont le cerveau a subi des lésions post-AVC en développant des outils combinant EEG et IRM en temps réel. Bien que lancé en 2012, nous n’obtiendrons les résultats définitifs de ce travail que cette année en raison de la complexité des technologies mais aussi des essais cliniques. Mais les premiers résultats à notre disposition sont déjà très positifs. Dans cette dynamique, nous avons mené plusieurs sous-projets autour du NeuroFeedback, c’est-à-dire des techniques permettant à un utilisateur équipé d’un casque EEG d’apprendre progressivement à contrôler son activité cérébrale, grâce à des retours sensoriels explicites. Une des tâches les plus employées pour les tester consiste à demander à l’utilisateur de faire monter une jauge visuelle en essayant de modifier activement ses signaux EEG. On observe qu’il est parfois difficile, voire même impossible pour certaines personnes, de maîtriser leur activité cérébrale pour générer les signaux utiles pour interfacer un tel système informatique. Nous travaillons pour tenter de comprendre ces difficultés : sont-elles liées à des traits de personnalité ? Sont-elles amplifiées par un déficit d’accompagnement du système ? C’est un sujet passionnant. Et les perspectives d’applications thérapeutiques, notamment pour la réhabilitation, sont très riches.

    Il y a 3 ans, grâce à l’arrivée dans notre équipe de Mélanie Cogné qui est également médecin au CHU de Rennes, nous avons franchi un pas supplémentaire en pouvant dorénavant tester et évaluer nos systèmes au sein d’un hôpital avec des patients. Cette démarche que nous n’imaginions pas il y une quinzaine d’années s’est progressivement imposée et aujourd’hui, nous ressentons au moins autant de plaisir à voir nos travaux utilisés dans ce contexte qu’à obtenir un beau résultat scientifique et à le voir publié.

    Je pense par exemple au projet VERARE que nous avons lancé pendant la crise COVID avec le CHU Rennes. Nous étions isolés chacun de notre côté et il a fallu coordonner à distance le travail de plus d’une dizaine de personnes ; ce fut très complexe mais nous avons réussi à le faire. Le projet visait à faciliter la récupération des patients se réveillant d’un coma profond et qui incapables de se nourrir ou de se déplacer. Notre hypothèse était qu’une expérience immersive dans laquelle l’avatar associé au patient se déplacerait chaque jour pendant 9 minutes 10 jours de suite dans un environnement virtuel agréable (une allée boisée dans un parc par exemple) contribuerait à préserver, voire rétablir des circuits cérébraux afin de déclencher un processus de rééducation avant même de quitter leur lit. Nous avons donc équipé des patients avec un casque de RV dès leur réveil au sein du service de réanimation, ce qui n’avait encore jamais été réalisé. Pour évaluer de façon rigoureuse cette expérimentation, les médecins réalisent actuellement une étude clinique qui n’est pas encore terminée, mais d’ores et déjà, nous savons que les soignants et les patients qui utilisent notre dispositif en sont très satisfaits.

    binaire : comment souhaites-tu conclure ?

    AL : Eh bien, en évoquant l’avenir, et le chemin qu’il reste à parcourir. Car même si la communauté des chercheurs a fait avancer les connaissances de façon spectaculaire ces 20 dernières années, il reste encore des défis majeurs et très complexes à relever.  Tellement complexes, qu’il est indispensable de travailler de façon interdisciplinaire autour de plusieurs axes, pour espérer améliorer à l’avenir et entre autres : les dispositifs immersifs (optique, mécatronique), les logiciels (réseaux, architectures), les algorithmes  (modélisation, simulation d’environnements toujours plus complexes), les interactions humain-machine 3D (notamment pour les déplacements ou les sensations tactiles) ou encore la compréhension de la perception des mondes virtuels et ses mécanismes sous-jacents.

    Tous ces défis laissent espérer des perspectives d’application très intéressantes dans des domaines variés : la médecine, le sport, la formation, l’éducation, le patrimoine culturel, les processus industriels, etc… s

    Mais en parallèle à ces questionnements scientifiques riches et variés, apparaissent d’autres enjeux très importants liés à la diffusion à grande échelle de ces technologies, avec des réflexions à mener sur les aspects éthiques, juridiques, économiques, et bien-sûr environnementaux. Tous ces sujets sont passionnants, et toutes les bonnes volontés sont les bienvenues !

    Pascal Guitton

    Références

  • Apprends à ranger ton sac à dos pour que les trains soient moins en retard

    Épisode 2 de la série « Henri Potier à l’école de la complexité » : Quand on conçoit un algorithme, une question est : « est-ce qu’il fait bien le boulot ? » Une autre est : « combien de temps il va prendre ?» Si ça met deux plombes pour me dire où trouver une pizza, ça m’intéresse moins. Le domaine qui traite du temps que va prendre un algorithme (ou de la quantité de mémoire dont il va avoir besoin) s’appelle « la complexité algorithmique ». Un premier article de la série « Henri Potier à l’école de la complexité » avait expliqué comment compter le temps de calcul d’un algorithme. Dans ce deuxième article, nous allons explorer des problèmes importants pour lesquels aucun algorithme efficace n’est connu, et on ignore même s’il en existe. Serge Abiteboul et Charlotte Truchet

    Hermine et Renaud ont enfin trouvé une carte qui localise l’emplacement de tous les horcruxes, ces objets renfermant une partie de l’âme de l’infect Vous-Savez-Qui et qu’il faut absolument détruire pour espérer vaincre le seigneur des ténèbres.

    Le temps de nos héros étant limité, il leur faut tous les récupérer en moins de 3 heures 8 minutes et 30 secondes. Renaud planche depuis de longues minutes déjà pour déterminer s’il existe un itinéraire assez rapide permettant de récupérer tous les horcruxes et de revenir au château, lorsqu’un pigeon apporte un message.

    2 – 5 – 1 – 3 – 4 – 7 – 6 – 2        S.N.

    – Guesguecé ? se demande Renaud, qui s’apprête à le jeter à la poubelle.
    – Mais arrête, c’est peut-être un message important, c’est signé Sirius Noir ! s’exclame Hermine. C’est sûrement un indice, on dirait un ordre dans lequel on peut récupérer les horcruxes. Regarde, il y a les mêmes numéros sur la carte !
    – Génial, ne traînons pas, prends ton balai, on y va !
    – Calme-toi un peu, Renaud, ça pourrait aussi être un piège. C’est peut-être signé par le Serpent Nagini finalement.
    – Un serpent ? On est foutus !
    – Mais non, peu importe l’auteur du message après tout, il suffit de vérifier qu’il nous donne un parcours assez rapide. Si on essaie de nous induire en erreur avec un chemin trop lent, je m’en apercevrai et on ignorera l’indice quel qu’en soit l’auteur. La carte indique les temps de voyage entre tous les emplacements d’horcruxes, il nous suffit d’additionner les temps du parcours proposé par le message pour le vérifier.

    1. Godric’s Hollow 2. Poudlard 3. Pré-au-Lard 4. Orphelinat Wool 5. Chemin de Traverse 6. Azkaban 7. Ministère de la Magie
    1. Godric’s Hollow 0 25 25 61 26 66 52
    2. Poudlard 25 0 7 42 21 41 29
    3. Pré-au-Lard 25 7 0 38 27 42 27
    4. Orphelinat Wool 61 42 38 0 63 31 19
    5. Chemin de Traverse 26 21 27 63 0 54 47
    6. Azkaban 66 41 42 31 54 0 18
    7. Ministère de la Magie 52 29 27 19 47 18 0

    Tableau des distances :

    Sur cette carte, le trajet 2-1-3-6-5-7-4-2 par exemple demande un temps de parcours de 25 + 25 + 42 + 54 + 47 + 19 + 42 = 254 minutes en balai volant, tandis que le chemin 2-5-1-3-4-7-6-2 de Sirius Noir n’en prend que 21 + 26 + 25 + 38 + 19 + 18 + 41 = 188, ce qui est tout juste moins que les 3 heures 8 minutes et 30 secondes.

    – Ah ouais, pas bête ! admire Renaud. Trop facile en fait !
    – Pas tant que ça… Sans l’indice de Sirius Noir, on était foutus, rappelle-toi. Tu te cassais la tête pour résoudre le problème mais tu étais vraiment très loin du compte ! Ce genre d’indice, on appelle ça un certificat.
    – Mais comment est-ce que tu sais tout ça, encore ?
    – Si tu passais un peu de temps à la bibliothèque, tu le saurais aussi ! Ici la question était de savoir s’il existait un chemin de moins de 3 heures 8 minutes et 30 secondes. L’indice de Sirius Noir est une preuve que la réponse est oui, puisqu’il nous donne un chemin qui convient. Et si la réponse avait été non, personne n’aurait pu nous fournir un chemin suffisamment court, puisqu’il n’en aurait pas existé. Nous n’aurions donc jamais été convaincus par une fausse information car aucune n’aurait donné un parcours de moins de 3h8min30s.
    – Donc un indice c’est un chemin, et on n’a plus qu’à le vérifier !
    – C’est un poil plus complexe, Renaud ! Un indice peut effectivement être la solution à un problème qu’on essaie de résoudre, comme c’était le cas pour les horcruxes. Mais dans le cas général, un indice correct doit convaincre que la réponse est oui, même s’il ne fournit pas nécessairement de solution à proprement parler. En fait, il n’y a pas toujours de notion évidente de ce qu’est une « solution » pour certains problèmes, et dans ce cas l’indice doit convaincre autrement. Réfléchis par exemple à un indice pour certifier qu’un nombre est premier… pas évident !

    « Al-Khwârizmî (professeur de magie mathématique) : » : comment convaincre votre ami qu’un nombre n’est pas premier ? Facile.

    L’entier N n’est pas premier signifie qu’il possède un diviseur propre d. Il suffit alors de donner d comme indice. Pour se convaincre qu’il s’agit d’un indice correct, il suffit de vérifier que d divise bien N.

    Mais maintenant comment convaincre votre ami qu’un nombre est premier ? Il n’est pas si simple de trouver un indice car c’est une propriété de non-existence : « il n’existe pas de diviseur propre ». Il semble donc qu’il faille vérifier tous les diviseurs possibles pour se convaincre. Alors n’y a-t-il pas d’indice concis ? En fait si, mais c’est (beaucoup) plus compliqué, Renaud tu n’es pas obligé de cliquer : Certificats de Pratt (Wikipédia en anglais)

    – Ah… Mais il y a d’autres problèmes où Sirius nous envoie des indices ?
    – Il y en a toute une ribambelle, Renaud, on les regroupe dans une classe appelée NP. Ce sont tous les problèmes pour lesquels il existe un algorithme efficace pour vérifier des indices : si la réponse à notre problème est oui, il existera au moins un indice qui peut être validé par l’algorithme. Mais si la réponse est non, aucune fausse information ne pourra le duper.
    – Par vérification efficace, tu veux dire qu’on peut le vérifier en un nombre polynomial d’opérations comme l’autre fois (* voir épisode 1), c’est-à-dire dans la classe P si je me souviens bien ?
    – Parfois tu m’impressionnes Renaud, c’est bien ça. Par exemple pour les chemins, l’algorithme de vérification est le suivant : il suffit juste d’ajouter les temps du parcours, ce qui se fait en un nombre polynomial d’opérations (donc dans P). Avec l’indice de Sirius Noir, il y a 7 durées ce qui nécessite 6 additions, plus une comparaison avec notre limite de temps. Plus généralement, s’il y avait n emplacements d’horcruxes, on aurait besoin de (n-1) additions plus une comparaison finale, la vérification d’une solution peut donc s’effectuer en n opérations c’est donc polynomial.
    – Pourquoi on ne cherche pas un algo qui résout le problème directement plutôt que d’attendre un indice ?
    – On aimerait bien… mais c’est parfois difficile de trouver un algorithme efficace, on n’en connaît pas toujours. NP n’est rien d’autre qu’un ensemble de problèmes, dont beaucoup sont très intéressants et qu’on aurait envie de résoudre efficacement en pratique. Par exemple, le problème d’ordonnancement des trains (où il s’agit de faire circuler des trains le plus rapidement possible sans qu’il y ait de collision) pour avoir moins de retard sur le Poudlard Express. Les mangemorts, eux, aimeraient savoir rapidement factoriser des nombres pour déverrouiller tous nos systèmes de sécurité basés sur RSA. Et moi j’aimerais réussir à organiser mon sac à dos optimalement pour partir en expédition contre les horecruxes.

    Si P=NP ça voudrait dire qu’on peut résoudre tous ces problèmes rapidement.

    – Si j’ai bien compris pour montrer cette égalité il suffit de montrer que les problèmes de NP sont dans P, car on sait déjà que tous les problèmes de P sont aussi des problèmes de NP non ?
    – Tu as pris de la potion d’intelligence aujourd’hui, Renaud, qu’est-ce qui te fait penser ça ?
    – Ben c’est facile si tu prends un problème de P, on peut déjà avoir la réponse avec un algorithme polynomial A. Il suffit alors d’ignorer l’indice qu’on nous donne.
    – Exactement, bravo ! Tu as fait l’inclusion facile. Reste l’autre, tu pourrais devenir riche et célèbre. Personne ne sait comment résoudre efficacement les trois problèmes précédents. Mais il y a quelque chose d’extraordinaire car si tu sais organiser ton sac à dos alors les trains seront moins en retard, et tu pourras en fait même résoudre efficacement tous les autres problèmes de NP.
    – Hein que quoi ?
    – Tu peux reformuler tous les problèmes de NP comme un problème de rangement de sac à dos.
    – Reformuler comme un problème de sac à dos ? Je comprends rien à ce que tu racontes Hermine !
    – Si tu veux mesurer la distance terre-lune, tu peux juste chronométrer combien de temps la lumière met pour parcourir terre-lune et en déduire la distance (car on connaît la vitesse de la lumière). Tu as reformulé un problème de distance en un problème de temps. C’est la même chose entre n’importe quel problème NP et le problème d’organisation du sac à dos : on peut aussi reformuler tout problème NP comme un problème de sac à dos. Les problèmes comme le sac à dos qui permettent d’exprimer tous les autres de NP, on les appelle des problèmes NP-complets.
    – Ça ressemble à de la magie, t’aurais pas un exemple pour que je comprenne bien ?

    Imagine qu’à une soirée tu veuilles répartir les gens en trois groupes, de sorte qu’au sein de chaque groupe tout le monde se connaît. On appelle ce problème 3CC (Couverture par 3 Cliques). On peut représenter ça par un graphe : chaque sommet représente une personne, et une arête entre deux sommets signifie que ces deux personnes se connaissent.Pour résoudre ce problème tu peux te ramener à un autre problème : celui de la coloration de graphes en trois couleurs (3col). Le but est de donner une couleur à chaque sommet de sorte que deux sommets reliés par une arête ne soient pas de la même couleur.

    Pour reformuler 3CC en 3col, il suffit de transformer le graphe de 3CC en supprimant les arêtes existantes et en ajoutant celles qui n’existaient pas.Après coloration du nouveau graphe, on obtient les groupes en mettant ensemble les sommets d’une couleur identique.On a ainsi transformé la recherche d’une couverture par 3 cliques en la recherche d’une coloration en 3 couleurs.

    – Si on peut transformer ainsi tout problème de NP en un problème B (dans NP), on dit que B est NP-complet. Le plus incroyable est non seulement qu’il existe bel et bien de tels problèmes NP-complets, qui capturent donc toute la difficulté et la diversité des problèmes que l’on trouve dans la classe NP, mais en plus c’est le cas de beaucoup de problèmes naturels et importants en pratique.
    – Pas mal cette notion de NP-complétude, ça me laisse sans voix.
    – Ça tombe bien, parce que tu as assez parlé Renaud, SN nous a laissé l’indice qui va bien. Allons chercher ces fameux horcruxes.

    Sylvain Perifel, maître de conférences, Université Paris Cité, et Guillaume Lagarde, chercheur indépendant.

     

  • Nous sommes les réseaux sociaux, par Abiteboul et Cattan

    Cet ouvrage, publié chez Odile Jacob, s’attaque à un serpent de mer, la régulation des réseaux sociaux, ces complexes objets mi-humains mi-machines, qui nous unissent pour le meilleur et pour le pire. Tout le monde a un avis, souvent très tranché, sur la question. L’intérêt, ici, est d’avoir l’avis de deux spécialistes, un informaticien, Serge Abiteboul (*), membre de l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse), et un juriste, Jean Cattan, Secrétaire général du Conseil national du numérique.

     

    Mais précisément, ces deux spécialistes s’abstiennent soigneusement dans le livre de donner un cours. En préambule, ils s’appuient sur une remarque évidente et pourtant pas toujours évidente : les réseaux sociaux, c’est nous, nous tous. Nous, mais régulés par les entreprises qui gèrent Facebook, Twitter, Instagram et les autres. Des humains régulés par d’autres humains, finalement. Et donc, c’est à nous, nous tous, de définir ce qui doit être fait. Ils nous proposent une réflexion sur les principes qui devraient être au centre du développement des réseaux sociaux, et surtout, sur une méthode qui permettrait d’intégrer tout le monde, plaidant pour une intervention forte des États dans ce débat.

    Dès l’introduction, ils préviennent : tout le monde ne sera pas d’accord. Mais la situation actuelle n’est pas satisfaisante, et ce n’est pas en ignorant nos désaccords qu’on avancera. Faites-vous votre avis, ouvrez le livre, et puis ouvrez le débat !
    Charlotte Truchet
    (*) Serge Abiteboul est éditeur de binaire.
  • Critique de l’Esprit Critique

    Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », partageons une approche rendue encore plus indispensable avec le numérique : l’esprit critique. A l’heure des infox (fake news), du renforcement du complotisme, de la guerre qui est aussi devenue informationnelle, ou plus simplement de l’irruption de ChatGPT, l’apprentissage de l’esprit critique est/devrait être une priorité éducative. Mais … comment faire ? Et si nous commencions par regarder ce que les sciences de l’éducation nous proposent à travers ce petit texte issu des échanges tenus lors d’une table ronde. Thierry Vieville et Pascal Guitton.

    L’esprit critique est une démarche de questionnement des opinions ou des théories. Je m’intéresse aux arguments utilisés, à ce qui conduit à les exprimer.

    Je fais preuve de curiosité pour le point de vue des autres :

    « Ce que tu dis m’intéresse ».

    J’offre volontiers une écoute sincère et bienveillante. Je me positionne de manière modeste, mais reste lucide sur ce qui est dit et ce que l’on sait :

    « Pensons par nous-même, sans préjugé ».

    Car les affirmations ne sont à priori, ni vraies, ni fausses, ce sont des hypothèses, que l’on se donne le droit d’examiner, sans porter de jugement, pour retenir celles qui résistent mieux que les autres à la réalité des faits ou à l’examen de notre raison.

    « Oui, mais tu es d’accord avec moi ou pas ? »

    J’ai aussi le droit de ne pas trancher : de prendre un peu de temps pour comprendre comment s’est formée ta façon de penser et quelles en sont les conséquences, de discerner ce qui est un fait établi, de ce qui est un simple exemple ou un avis (que je respecte). Je peux aussi avoir besoin d’en savoir plus, de découvrir que les choses sont peut-être plus complexes qu’on ne pourrait le penser.

    Et surtout, dans la démarche de l’esprit critique, on ne cherche pas à convaincre un tiers de se rallier à sa cause ou d’être d’accord avec soi, mais à l’aider à construire sa propre vision d’une vérité.

    « Hou là là, les choses sont compliquées avec toi ! »

    Il est vrai que ce n’est pas facile de définir l’esprit critique, puisque il s’agit justement de quelque chose d’assez large, qui n’est pas figé. Prenons le risque de partager ici une proposition … à critiquer 🙂 Disons, pour en discuter, que c’est à la fois un état d’esprit et un ensemble de compétences (résumées dans les carrés bleus) :

     

    « Est ce que ça te parle ? »

    « Oui, mais doit-on utiliser l’esprit critique pour tout du matin au soir ?  »

    « Non ! Tu as totalement raison.»

    LES LIMITES DE L’ESPRIT CRITIQUE.

    L’esprit critique n’a certes pas lieu de s’exercer tout le temps. Dans le métro parisien, quelle surprise, voilà un tigre qui arrive :

    « C’est une espèce (elle-même divisée en neuf sous-espèces) de mammifère carnivore de la famille des félidés (Felidae) du genre … »

    « Stop ! Ou plutôt : sauve qui peut !! Ce n’est sûrement pas le moment d’exercer son esprit critique mais de … courir. »

    « Que dis tu ? Que la probabilité qu’il y ait vraiment un tigre station « Edgard Quinet » est inférieure à celle de … »

    « Euh, ça te dérange-pas là qu’on te laisse seul·e confronter ton hypothèse aux faits ? »

    Il est clair que ce n’est pas en déployant son esprit critique qu’on a le plus de chance de survivre ici. C’est logique : si je fuis mais que ce n’était pas un vrai tigre, je suis certes un peu ridicule, mais … vivant ! Tandis que sinon …

    D’ailleurs, ce que nous comprenons du cerveau montre que ce n’est pas en développant notre esprit critique que notre frêle espèce a survécu, mais plutôt en acquérant des comportements relativement prédéfinis et « opérants » c’est à dire permettant de déclencher une action adaptée à la plupart des situations critiques qui peuvent arriver, et en généralisant à d’autres cas, ce qui a été appris sur des cas particuliers. Cela ne marche pas toujours, et ce n’est pas très scientifique, mais cela a servi à notre espèce humaine d’être encore en vie.

    Et puis, lorsque tu es venu·e me dire que tu m’aimes de tout ton être, et que j’étais la personne de ta vie, tu n’attendais pas en réponse que je te dise : « Oh, voici une hypothèse fort intéressante, analysons ensemble les causes socio-culturelles de ce ressenti psycho-somatique pour en faire conjointement l’étude critique 🙂 ».

    Bien entendu, en science, l’esprit critique doit prévaloir. Vraiment tout le temps ? Dois-je remettre en cause chaque résultat (par exemple refaire toutes les démonstrations mathématiques pour me forger ma propre certitude), douter de tous les résultats scientifiques puisque Albert Einstein lui-même a commis la « plus grosse » erreur de toute la physique ? Ce ne serait pas très efficace, et le travail collectif de la communauté scientifique repose sur la confiance. Le point clés est de prendre le risque de travailler avec des modèles réfutables.

    Cette idée peut paraître surprenante : une hypothèse est scientifique si, sans être (encore) réfutée, on peut concevoir une expérience capable de la réfuter. Ainsi, le fait qu’il y ait des petits elfes magiques invisibles, disons rose fluo, pqui ar exemple, habitent dans la forêt de Brocéliande, n’est pas scientifique, non pas parce que c’est faux (qui peut prouver que non : ils sont totalement invisibles !), mais non réfutable. De plus, qui peut s’arroger le droit de m’empêcher de rêve ?

    « Ah ben ça alors !!! Te voilà bien critique sur l’esprit critique que tu veux partager »

    « Formidable, j’ai réussi quelque chose : regarde »

     

    Comment partager l’esprit critique ?

    Oui regarde : je n’ai pas cherché à te convaincre en argumentant de l’intérêt de l’esprit critique, mais j’ai cherché avec sincérité à réfléchir avec toi sur ce sujet, en prenant le risque de remettre en cause mon propre point de vue.

    Te voilà devenu curieux sur ce sujet : c’est l’essentiel. Osons le pluralisme. Discernons ce que nous savons avec une certaine certitude, de ce qui est une interprétation, ou une simple préférence. Soyons curieux de la manière dont se forment les connaissances : débattre de savoir si il y a vraiment des êtres magiques dans la forêt de Brocéliande serait vain, se demander pourquoi j’en suis arrivé à me l’imaginer et à y croire, me serait bien plus utile.

    Et si je faisais partie d’une secte délétère, plutôt que de me jeter à la figure, je ne sais quelle argumentation critique qui ne ferait que me braquer dans la justification à outrance de ma posture, tu m’aiderais bien plus en m’acceptant avec ce besoin d’appartenance à un tel groupe, fut-il toxique, et en me proposant d’expliquer la démarche qui m’a conduit à cette extrême, m’offrant alors la chance de prendre du recul.

    Ainsi, si on présente l’esprit critique comme allant de pair avec une idéologie « républicaine », non religieuse, forcément objective (voir même positiviste), excluant toute superstition, quoi de pire pour exclure d’emblée un·e croyant·e, ou qui s’est construit sa vision du monde à partir de savoirs traditionnels ? Une personne croyante peut très bien adopter une démarche d’esprit critique, y compris vis à vis de sa croyance, dans le but non pas de l’atténuer ou de la remettre en question mais de l’éclairer, voire de la faire évoluer …

    « Ah ouais : en fait tu dis qu’il vaut mieux manipuler son interlocuteur …
    … qu’argumenter objectivement, il est joli ton esprit critique !!! »

    « Excellente critique, pleine d’esprit ! »

    Ta remarque est doublement pertinente : transparence oblige et émotion inflige. Oui, ce qui va convaincre un humain est bien plus souvent du domaine de l’émotion, du sensible, que de la raison. Combien de fois constate-t-on que c’est par son enthousiasme, voir en montrant aussi ses propres limites, qu’un·e scientifique va partager sa passion et la démarche scientifique avec cette nécessité de prendre du recul sur les choses, d’apprendre à évaluer, à s’informer, à questionner, y compris dans notre quotidien. Il n’y a pas de mal à faire appel à tes émotions, c’est même assez sympa, mais il y a un immense « mais ».

    Le « mais » est de le faire de manière transparente, de prendre le temps de se retourner sur sa démarche elle-même, de dire regarde « j’ai fait appel à tes émotions » et je te le dis pour ne jamais te tromper en aucune façon. Il faut partager les contenus, avec la démarche de partage de ces contenus : on parle de médiation scientifique participative.

    « C’est curieux tu ne m’as pas fait changer d’avis, mais m’a permis de voir les choses autrement, en plus grand …
    «mais je ne vois toujours pas l’utilité ! »

    À quoi bon développer son esprit critique ?

    C’est la question la plus importante, mais aussi la plus facile à résumer. Pourquoi développer son esprit critique ? Pour ne pas se laisser abuser par les fausses nouvelles qui peuvent circuler, oui par certains médias qui -pour survivre commercialement- ont besoin de nous alpaguer par du sensationnel ou sur-communiquer sur des fpas être en phase avec la phrase « Si on présente l’esprit critique … non religieuse…aits divers, pendant que des informations de fond moins vendeuses sont masquées ; pour offrir une alternative à cette société qui semble ne nous offrir qu’être pour ou contre et non penser de manière nouvelle ou alternative, quel que soit le sujet ; pour que moi ou toi nous restions vraiment libres de choisir selon nos aspirations profondes et pas sous l’influence de qui parle beau à défaut de parler vrai ; pour faire des choix éclairés dans notre vie de tous les jours et aussi pour le plaisir : car il y a grand plaisir intellectuel, tu sais, à « faire un usage libre et public de sa raison » comme disait Emmanuel (on parle ici de Emmanuel Kant :) ). Voilà pour quoi il faut de manière critique développer son esprit critique.

    « T’as rien à ajouter ? »
    « Si : moi aussi je t’aime de tout mon être (imaginaire), c’est toi mon petit elfe rose fluo magique »

    Texte de synthèse des propos de Camille VolovitchChristophe MichelElena Pasquinelli et Nicolas Gauvrit lors de la table ronde sur l’esprit critique proposé lors du séminaire de médiation scientifique Inria, de 2018, édités par Sylvie Boldo et Thierry Viéville, repris de https://pixees.fr/critique-de-lesprit-critique.

    Pour aller plus loin :

    Former l’esprit critique des élèves


    Esprit scientifique, esprit critique


    Jouer à débattre


    Raison et psychologie


    Esprit critique


    Isoloir : la citoyenneté numérique, c’est possible ?