• HAL 9000, Joshua et le Métavers

    Isabelle Collet nous propose ici une série de fictions pour nos lectures de l’été : sur le genre, les ordinateurs et les créatures artificielles de la littérature, histoire d’avoir une autre vision de l’intelligence dite artificielle et de nos mythes et stéréotypes humains. Voici le 4ème épisode après celui sur Golems, Robots et IA, celui sur Galatée et Hadaly et celui sur Frankenstein et les Robots. Serge Abiteboul et Thierry Viéville.

    Nous voici à la fin les années 1960. Trente ans se sont écoulés depuis les premières machines conçues par John von Neumann. Si l’ordinateur se perfectionne et se miniaturise, l’industrie ne s’oriente manifestement pas vers la création de robots humanoïdes. Des films ou séries mettant en scène des robots continuent à être produits jusqu’au début des années 80, mais vont être peu à peu remplacés par des histoires d’ordinateurs intelligents. Les grosses histoires de robots postérieures à 2000 sont en général des suites ou des mises en images d’histoires écrites jusqu’au début des années 80 : Blade Runner en 1982 est tiré d’une nouvelle de Philip K. Dick de 1966, la série Westworld lancée en 2016 est une reprise du film du même nom (Mondwest, en français) de 1973, la série Battlestar Galactica a débuté en 1978 avant que ne soit lancée sa suite de 2004, et enfin la série des Terminator a commencé en 1984. À noter que toutes ces histoires commencent par parler de robots tueurs, se rebellant contre l’humanité.

    Vu de l’ordinateur de fiction HAL9000 ©CC-BY-SA-4.0 Arthur C. Clarke via Wikicommons

    Une transition se produit donc à partir de la fin des années 60 avec un film de 1968 qui va marquer tant l’histoire du cinéma que de la science-fiction : 2001, l’Odyssée de l’espace, scénarisé par Kubrick et Arthur C. Clarke. En 2001, le vaisseau Discovery One fait route vers Jupiter. Son équipage est composé de deux astronautes, trois scientifiques endormis le temps du voyage et HAL 9000, une intelligence artificielle devenue malgré elle symbole de l’ordinateur tueur. En effet, peu après le départ, HAL va tenter d’exterminer tous les passagers du vaisseau. Une bonne partie du film va relater le duel à mort entre l’ordinateur et David Bowman, dernier survivant de l’équipage.

    Dans une scène très célèbre du film de Kubrick, on entend la voix de l’ordinateur qui retombe en enfance au fur et à mesure que David Bowman le débranche. En perdant peu à peu ses ressources de calcul, HAL remonte à ses premières connaissances informatiques puis il récite une comptine que lui a apprise son « père » lors des premières heures de sa mise sous tension. Ce père, c’est Chandra, un informaticien brillant qui se situe lui-même entre les hommes et les machines. Dans le roman suivant, 2010, Odyssée II, Clarke nous parle des relations qui unissent le Docteur Chandra à son fils artificiel. Depuis que Chandra a créé HAL 9000, il ne fait plus tout à fait partie de la race humaine, en particulier au niveau de ses sympathies. « Ceux de ses étudiants et de ses collègues qui se demandaient souvent si [Chandra] était vraiment un être humain n’auraient pas été surpris d’apprendre qu’il ne pensait jamais aux astronautes qui avaient trouvé la mort. Le Docteur Chandra portait uniquement le deuil de son enfant perdu, HAL 9000 ». Chandra sera obsédé par l’échec de Discovery One et fera tout pour comprendre pourquoi HAL a éliminé l’équipage, tel un père qui garde une confiance indéfectible en l’honnêteté de son fils.

    Il s’avère que HAL n’a aucune hostilité envers les humains (et a fortiori envers l’humanité, en général) : il a été placé dans une situation insoluble à cause d’ordres contradictoires. Les responsables du programme, restés sur terre, lui ont ordonné de tenir secret le but véritable de la mission tout en la réussissant au mieux. HAL n’a d’autre solution que de supprimer les humains à son bord pour débloquer une contradiction logique : il ne peut pas à la fois obéir aux ordres des humains, garder la mission secrète et la réussir. On peut certes y voir la machine implacable, pour qui la vie humaine est sans valeur. On peut aussi y voir, comme Clarke le fait, la bêtise tragique de politiciens qui ne comprennent rien à la science (c’est-à-dire au fonctionnement de HAL) et cultivent une culture du secret pour servir leurs propres intérêts. Clarke prend clairement parti pour HAL, car comme Asimov, il a la vision d’une science fondamentalement bonne et de scientifiques essentiellement raisonnables. Cette dualité entre scientifiques raisonnables et politiciens bornés perdure dans bon nombre de romans ou de films de science-fiction (par exemple Alien). C’est ce point de vue qui permet de considérer HAL comme un personnage positif. Si David Bowman débranche l’ordinateur pour sauver sa vie, il prend ensuite l’ordinateur comme compagnon dans 2010, Odyssée II.

    Avec HAL, on poursuit les mythes précédents en faisant disparaître la forme humaine. L’image picturale humanoïde n’est plus nécessaire, mais l’image opérante a toujours besoin d’un support physique pour exister : la créature artificielle n’est pas encore un logiciel pouvant tourner sur n’importe quelle plateforme, l’IA habite son ordinateur, comme l’esprit habite son corps.

    Image «bing» par Jean Paul Gourdant

    Cet auto-engendrement sous forme d’ordinateur se poursuit de manière très littérale dans Wargames en 1983. La représentation de l’informatique évolue pour le grand public, qui commence à croiser des ordinateurs dans son quotidien. Le film incarne ces changements, et contribue également largement à les populariser. Tous les ingrédients de la pop culture informatique sont présents dans Wargames : David Lightman, un jeune hacker, fan de jeux vidéo, mauvais élève, mais brillant en informatique se connecte par erreur à l’ordinateur du NORAD en pensant pirater une entreprise de jeux vidéo. Si la sécurité du NORAD est assez risible, beaucoup d’éléments techniques présentés dans le film tiennent la route, par exemple le concept de backdoor : une porte d’entrée virtuelle dissimulée par le concepteur du programme. On y voit aussi comment pirater les réseaux téléphoniques en utilisant un téléphone et un modulateur de fréquences. Wargames a suffisamment marqué les esprits de l’époque pour qu’on attribue a posteriori au célèbre hacker Kevin Mitnick le piratage du NORAD en prétendant que son histoire aurait inspiré Wargames. Or Mitnick n’a jamais piraté le NORAD et les scénaristes de Wargames n’ont jamais entendu parler de Mitnick !

    Revenons au récit. Le jeune lycéen David Lightman accède donc à WOPR, l’ordinateur du NORAD qui lui demande un login. En fouillant dans la biographie du concepteur de l’ordinateur, le Pr Stephen Falken, il découvre que Joshua, le fils de Falken est décédé. Joshua sera le login permettant de se connecter via la backdoor du Pr Falken. WOPR/Joshua pense que Falken s’est connecté et lui propose de jouer aux échecs, au poker ou à la guerre thermonucléaire globale. C’est ce dernier jeu que choisira Lightman : il prend le camp de l’URSS et lance à son insu une simulation d’attaque soviétique. WOPR/Joshua ne distingue pas le jeu de la réalité et semble en outre très heureux d’avoir de nouveau un contact avec son créateur. Joshua s’autonomise, rappelle spontanément Lightman pour poursuivre le jeu. À partir de ce moment, alors que les informaticiens du NORAD peinent à comprendre ce qui se passe et continuent à parler du WOPR, Lightman, et par la suite Falken appelé à la rescousse, ne parlerons plus que de Joshua. « Joshua, que fais-tu ? » dira son père, impuissant devant la détermination de la machine à mener à bien la partie. Celui-ci fait ce pour quoi son père l’avait imprudemment programmé ; il cherche à gagner la 3e guerre mondiale en appliquant le choix de Lightman : les Russes prennent l’initiative, maximisent les dégâts chez l’ennemi américain, tout en minimisant les pertes dans leur camp.

    Si la 3e guerre mondiale sera finalement évitée, c’est parce que son père et David Lightman, qui devient en sorte son « grand frère », vont s’unir pour apprendre à Joshua à jouer. En effet, on constate assez vite qu’une complicité s’installe entre David Lightman et le Pr Falken de sorte qu’ils deviennent l’un pour l’autre père et fils de substitution.

    Wargames est une belle application de la théorie des jeux à somme nulle de von Neumann : les intérêts des deux joueurs sont strictement opposés et les gains de l’un sont les pertes de l’autre. Joshua connait d’autres jeux à somme nulle comme le poker, les échecs et le morpion. Quand il se rend compte qu’il ne peut pas y avoir de vainqueur dans le jeu de la guerre nucléaire (à l’instar du morpion sur lequel il s’entraine en boucle), il arrête le jeu. À noter qu’il est plus clairvoyant que von Neumann qui avait déduit que la seule solution pour « gagner » était d’attaquer les Soviétiques par surprise, au plus vite et sans sommation.

    Wargames est un film charnière dans les représentations de l’informatique : on y trouve un microordinateur (un IMSAI 8080) et un jeune geek. En effet, David Lightman a déjà les caractéristiques qu’on prête encore actuellement aux geeks : un garçon génial, incompris par l’école et peu sportif (il ne sait pas nager)1. C’est aussi une des dernières histoires avec un ordinateur géant2. Et c’est enfin un des derniers récits littéraux d’auto-engendrement.

    Image «bing» par Jean Paul Gourdant

    En 1990, dans un ouvrage pionnier appelé La tribu informatique, Philippe Breton attribuait à ce phénomène une des raisons de l’exclusion des femmes de l’informatique : « la reproduction au sein de la tribu se fait fantasmatiquement grâce, d’une part à l’union de l’homme et de la machine, et, d’autre part, à l’exclusion des femmes comme ‘matrices biologiques’. Dans ce sens, l’existence même de la tribu informatique est en partie conditionnée par l’exclusion des femmes qui constituent une concurrence non désirée. ». Je n’ai jamais été totalement d’accord avec Breton. L’homme ne s’unit pas avec la machine, car les machines ne remplacent pas les femmes dans un mode de reproduction qui le rendrait de nouveau incomplet. L’homme se reproduit seul, il a tous les pouvoirs et à ce titre, il évite soigneusement d’y mêler quiconque, notamment les femmes. Il ne se reproduit pas avec les machines, mais à travers les machines.

    David Noble, dans son ouvrage de 1992 Un monde sans femmes, fait une démonstration similaire pour la science en général. Il dresse une grande fresque historique du monde occidental des sciences couvrant vingt siècles. Noble établit un parallèle entre l’exclusion des femmes des institutions scientifiques en Europe puis aux États-Unis et le long combat des représentants de l’orthodoxie religieuse pour maintenir le célibat des prêtres, moines, enseignants religieux ou laïcs des universités. La science se fait entre hommes, car, dans l’ascétisme clérical, des métaphores autour de l’enfantement sont mobilisées pour évoquer la création scientifique. Pour Noble, avec les technologies reproductives (et on peut estimer que les créations de créatures artificielles en font partie sur le plan imaginaire), les hommes mènent « depuis un millier d’années, la poursuite scientifique obsessionnelle d’un enfant sans mère ».

    Ces fantasmes d’auto-engendrement apportent une solution à ce que Françoise Héritier appelle en 2000 dans Masculin/féminin le privilège exorbitant des femmes à pouvoir se reproduire à l’identique, mais aussi au différent. Les femmes sont les seules capables de mettre au monde non seulement leurs filles, mais aussi les fils des hommes. De nombreux mythes mettent en scène des groupes humains non mixtes vivant séparément et pacifiquement. L’harmonie primitive résidait dans l’absence d’altérité. Le monde scientifique des années 1950 peut être un exemple de ce paradis non mixte fantasmatique. Le monde de l’informatique d’aujourd’hui n’en est pas très loin. L’auto-engendrement cybernétique permettrait de faire fonctionner pleinement ce paradis sans altérité. Il possède le double avantage de supprimer la différence des sexes en écartant les femmes du processus de reproduction et de permettre aux êtres masculins de se reproduire à l’identique.

    Si ces fantasmes étaient actifs dans l’informatique des années 80, ils se sont peu à peu délités pour passer à l’échelle supérieure, à mesure que l’informatique elle-même progresse. Dès les années 1990, avec le cyberspace, ce ne sont plus des êtres artificiels qui sont créés par les hackers, mais des univers complets, dans lesquels ils peuvent jouer à être les héros qu’ils ne peuvent pas être dans le monde réel. Le premier d’entre eux nait en 1985, avec Case, le héros de Neuromancien de William Gibson, qui fonde en même temps le mouvement cyberpunk. On peut aussi citer Snowcrash / Le samouraï virtuel de Neal Stephenson en 1992, qui invente le terme métavers.

    Au début des années 80, les IA cessent d’être les enfants des informaticiens, elles émergent d’elles-mêmes ou sont fabriquées par d’autres IA : Skynet dans Terminator, les IA de Neuromancien, celles qui dirigent les vaisseaux et stations orbitales chez Iain Banks, et toutes les autres. La science-fiction leur donne les pouvoirs que l’humanité attribuait d’ordinaire à Dieu. L’aboutissement de la science n’est plus, comme le pensait von Neumann de dupliquer un cerveau humain, mais de créer Dieu.

    Mais ceci est une autre histoire, qui sera contée une autre fois…

    Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière.

    1 En revanche, Lightman, semble bien intégré dans son école et il utilise ses compétences informatiques pour frimer auprès des filles et ça fonctionne.

    2 Les futures intelligences artificielles seront immatérielles. Le film Terminator sorti l’année suivante, en 1984, exprime cette transition. Le Terminator est un robot humanoïde mais Skynet est une intelligence artificielle dématérialisée qui a pris conscience d’elle-même et cherche depuis à éradiquer les humains.

    Je remercie Jean-Paul Gourdant pour ses relectures attentives qui permettent aux textes d’être bien plus compréhensibles.

  • Frankenstein et les Robots

    Isabelle Collet nous propose ici une série de fictions pour nos lectures de l’été : sur le genre, les ordinateurs et les créatures artificielles de la littérature, histoire d’avoir une autre vision de l’intelligence dite artificielle et de nos mythes et stéréotypes humains. Voici le 3ème épisode après celui sur Golems, Robots et IA , et celui sur Galatée et Hadaly. Serge Abiteboul et Thierry Viéville.

    Reprenons notre histoire à la fin de l’Eve Future. Si Lord Ewald n’a pas emporté Hadaly au paradis, c’est parce que l’homme qui vole à (aux) Dieu(x) un pouvoir qui leur est propre est souvent puni en retour. Edison ne sera pas inquiété, car il s’est contenté de fournir l’image picturale comme dirait Wiener. C’est Ewald et son amour trouble qui a fait d’Hadaly une image opérante. C’est donc lui qui paiera pour la transgression.

    Le premier à avoir été condamné de la sorte est Prométhée, qui vole le feu aux Dieux pour le donner aux hommes. Si on associe l’histoire de la créature qui se retourne contre son créateur (le Golem) à celle du savant qui s’arroge un pouvoir qui est propre aux Dieux (Prométhée), on obtient la trame de beaucoup d’histoires de créatures artificielles. En particulier, une des plus célèbres d’entre elles : Frankenstein ou le Prométhée moderne de Mary Shelley (1818).

    Le récit original va mettre en avant un thème supplémentaire. La principale préoccupation de Mary Shelley est de : « montrer la douceur d’une affection familiale », dit-elle dans sa préface. Frankenstein est certes un conte moral, mais peut-être et surtout une histoire familiale qui a pour sujet l’amour que les parents doivent à leur enfant.

    Voici les principaux éléments du récit d’origine. Depuis la mort de sa mère, le docteur Victor Frankenstein est obsédé par l’impuissance du médecin à lutter contre la mort. Il s’isole, ne voit plus personne, et, en mélangeant des connaissances d’alchimie et de science, il invente un moyen de créer de la vie. À partir de différents morceaux de cadavres, il reconstitue un homme qu’il anime grâce à l’électricité. Mais quand il voit la monstruosité qu’il a créée, il prend peur et abandonne sa créature. Celle-ci ne peut compter que sur elle-même pour comprendre qui elle est. Elle apprend à parler en observant de loin une famille unie, les De Lacey. Grâce à eux et en secret, elle va lire de la philosophie, ce qui lui permettra de comprendre ce qu’elle est. Elle va alors tenter de prendre contact avec les De Lacey, en se faisant connaitre du père, aveugle. Mais le fils De Lacey entre dans la maison au même moment, l’aperçoit et craignant pour la vie de son père, tente de tuer le monstre. Délaissée par son père et rejetée par la société, la créature veut alors avoir une compagne à ses côtés. Il tente d’obtenir de Victor Frankenstein qu’il lui en crée une. Mais Victor ne peut s’y résoudre. Alors, la créature rejette toute morale et se venge en tuant les amis de Victor, puis Victor lui-même, avant de se suicider.

    Vue sur le lac Léman depuis la villa Diodati de Byron avec ses jardins, où séjourna Marie Shelley © Isabelle Collet

    La genèse de cette histoire se trouve dans la biographie de Marie Shelley. Elle est la fille de la célèbre féministe anglaise Mary Wollstonecraft, et du non moins célèbre philosophe politique William Godwin. Mary Wollstonecraft meurt en donnant naissance à sa fille, en 1797. Son père se charge de lui donner une éducation d’une rare qualité pour une fille de son époque, mais il ne sait pas comment aimer et élever ses enfants. Dès son plus jeune âge, Mary est entourée par des philosophes et poètes et à 16 ans, elle s’enfuit avec l’un d’entre eux : Percy Shelley, qui est déjà marié. À court d’argent et poursuivis par le scandale, ils finissent par rejoindre un grand ami de Shelley, Lord Byron en juin 1816. Byron loge à la villa Diodati au bord du lac Léman en compagnie de son secrétaire, médecin, amant et souffre-douleur, John Polidori. Lors des soirées de la villa Diodati, Polidori raconte comment on a pu « animer » un cadavre quelques instants avec une pile voltaïque. C’est ce qu’indique Mary Shelley dans la préface de Frankenstein : « Le fait sur lequel est fondé ce récit imaginaire a été considéré par le Dr. Darwin et par quelques auteurs physiologistes allemands comme n’appartenant nullement au domaine de l’impossible. » Nous sommes bien en présence d’une créature artificielle de science-fiction et non d’une créature magique de type mort-vivant.

    Les soirées de la Villa Diodati ont généré bien des écrits, en particulier dans des récits de littérature fantastique, tels que Le poids de son regard de Tim Powers ou Les insolites de René Sussan Reouven, car deux figures majeures de la littérature fantastique y sont nées. Le Vampyre, dandy élégant à l’image de Lord Byron, provient d’une nouvelle de John Polidori ; ce personnage servira par la suite d’inspiration pour Dracula de Bram Stocker. L’autre figure est la créature de Frankenstein qui jaillit de la plume de Mary Shelley.

    Au début de l’histoire, Victor Frankenstein incarne un chercheur moderne, prenant en compte dans ses travaux les acquis scientifiques les plus récents. Mais suite à la mort de sa mère, à l’opposé du « bon » savant qui observe la nature et ses mécanismes, il devient un savant exalté qui ne sort plus de son laboratoire, qui se coupe de sa famille et de la société, travaillant dans l’isolement et la frénésie.

    La mort de la mère de Frankenstein plane sur le livre comme celle de Mary Wollstonecraft a toujours plané autour de Mary Shelley. Petite, elle a appris à lire en déchiffrant les lettres sur la tombe de sa mère et c’est sur cette tombe qu’elle a déclaré son amour à Percy Shelley. De plus, la maternité reste fortement liée à la mort dans la biographie de Mary. Au moment d’écrire Frankenstein, elle a 19 ans, mais a déjà perdu une petite fille en bas âge. Elle a ensuite mis au monde un bébé qui est âgé de six mois au moment où elle compose Frankenstein, et elle est de nouveau enceinte.

    Plaque devant la villa Diodati à Cologni dans le canton de Genève. © Isabelle Collet.

    Victor Frankenstein veut pénétrer les secrets de la nature : vaincre la mort, certes, mais surtout créer une vie nouvelle. La multitude de corps différents qui compose la créature ne sert que de matière première. Son cerveau est vierge comme celui d’un nouveau-né au moment où elle prend conscience. À ce moment, Victor Frankenstein aurait dû prendre son enfant dans ses bras et lui donner le même amour parental que celui qu’il a reçu. Mais il s’enfuit, abandonne sa Créature et souhaite sa mort. Bien plus tard, le monstre constate lui-même qu’un enfant privé de l’amour d’une famille devient inhumain. Il le dit à son créateur : « Crois-moi, Frankenstein, j’étais bon. Mon âme rayonnait d’amour et d’humanité. Mais je suis seul, affreusement seul. Toi, mon créateur, tu me hais. ».

    Victor Frankenstein est un scientifique qui s’est fourvoyé, il s’est coupé de la perspective naturaliste et s’est intéressé à des savoirs sulfureux, comme l’alchimie. Ses créations sont donc condamnées. Il est puni non parce qu’il a volé un pouvoir divin, mais parce que celui-ci le dépasse. Ce n’est pas au moment où il anime la créature qu’il crée un monstre (ce n’est que l’image picturale), mais au moment où il l’abandonne dans un acte qui définit l’image opérante1 que deviendra la Créature. Mary Shelley écrit cette histoire en écho à sa vie : on retrouve le père de Mary qui n’a pas su aimer sa fille, la petite fille solitaire qui fait son éducation grâce à des précepteurs, et qui, malgré son érudition, devient une jeune femme immorale fuyant avec un homme déjà marié et opportunément adepte de l’amour « libre ».

    L’histoire de Frankenstein, telle qu’elle s’est popularisée, se contente de fusionner le mythe du Golem et celui de Prométhée : un savant fou anime une créature assemblée à partir de restes humains. Mais cette créature est mauvaise, elle se retourne contre son créateur et sème la destruction. En découle une morale prométhéenne qui imprime nombre d’histoires de créatures artificielles, et en particulier toutes celles qui comportent des robots tueurs : l’homme ne doit pas outrepasser sa condition et se permettre de créer la vie comme le fait Dieu (c’est-à-dire seul), sinon il met son entourage en danger, voire toute l’espèce humaine.

    La première histoire de Robot (qui est d’ailleurs à l’origine du terme) est écrite par l’écrivain tchèque Karel Tchapek. Les Robots (du tchèque robota, travail forcé) sont des ouvriers corvéables à merci. Ils ont été créés par un inventeur qui cherche à émanciper l’humanité des lois édictées par Dieu. Grâce aux robots, l’homme n’aura plus besoin de gagner sa vie à la sueur de son front et la femme n’enfantera plus dans la douleur puisque l’humanité se reproduira à travers la machine. Il s’ensuit la punition inévitable : les robots vont se révolter contre l’humanité au point de risquer de la faire disparaître. Mais comme le dit Annie Amartin-Serin dans un ouvrage de 1996 appelé La création défiée2, la révolte contre le Créateur, quel qu’il soit, semble vouée à l’échec : les Robots n’éradiqueront pas l’humanité et les humains continueront à travailler et à se reproduire à l’ancienne. Ils perdront finalement le savoir qui a permis de créer des Robots. Là encore, la morale est sauve.

    C’est contre cette morale qu’il juge obscurantiste que s’élève Asimov quand il commence sa série sur les Robots. Asimov, comme la plupart des auteurs de science-fiction qui écrivent au moment de la Deuxième Guerre mondiale, est un scientifique qui croit en une science intrinsèquement bonne. « Le savoir a ses dangers, sans doute, mais faut-il pour autant fuir la connaissance ? […] En d’autres termes, Faust doit affronter Méphistophélès, mais il ne doit pas nécessairement être vaincu par lui », dit Asimov en 1950. Évidemment, la Deuxième Guerre mondiale a jeté une ombre sur ce tableau. Si Wiener pense que « L’homme du XXe siècle est l’homme de Bergen Belsen et d’Hiroshima », Asimov et ses collègues gardent foi en la science, malgré tout. Fondation est écrit entre 1942 et 1951 et dans ces ouvrages, absolument tout ce qui est moderne est nucléaire, y compris des objets domestiques. En 1940, Asimov commence à écrire le cycle des Robots et s’élève contre ce qu’il appelle « le Complexe de Frankenstein ». Il décrira en 1990 cette approche qu’il considère superstitieuse et rétrograde : la création de créatures artificielles « passe pour être le premier exemple de l’arrogance d’une humanité avide de revêtir grâce à une science mal inspirée, le manteau du divin. Tout être humain qui tentera une telle création ne produira qu’une parodie sans âme, inévitablement vouée à devenir aussi dangereuse que le Golem. ».

    La position technophile dans les nouvelles d’Asimov est d’abord défendue par les scientifiques qui sont les hommes créateurs de robots. Dans sa première nouvelle, Robbie en 1940, Robbie est un robot utilisé comme nourrice auprès d’une petite fille nommée Gloria. Il lui a été donné par son père qui est un scientifique et elle l’adore. La mère de Gloria n’apprécie pas vraiment cette situation et elle obtient que le robot soit enlevé à sa fille. Gloria dépérit pendant un an. Pourtant, sa mère reste inflexible.

    Le père de Gloria décrit les avantages du robot nounou de la manière suivante : « Un robot est infiniment plus digne de confiance qu’une bonne d’enfants humaine. [Ce robot] n’a été construit en réalité que dans un but unique… servir de compagnon à un petit enfant. […] Il ne peut faire autrement que d’être aimant et gentil. C’est une machine qui est faite ainsi. C’est plus qu’on en peut dire pour les humains. ». En face, la mère a du mal à exprimer ce qu’elle ressent, pourquoi elle n’aime pas ce robot. Ses seuls arguments sont assez pauvres : « un enfant n’est pas fait pour être gardé par un être de métal » ou « un incident pourrait se produire » ou encore « les voisins ». Elle concentre tout ce que le jeune Asimov rangerait dans l’irrationnel obscurantisme : une peur quasi religieuse des machines « pensantes », une attitude traditionaliste volontiers rétrograde, un souci du qu’en-dira-t-on. Mais l’histoire finit bien (si on se range aux arguments d’Asimov) : le père trouve un subterfuge pour que Gloria revoie Robbie et là, le hasard fait que le robot lui sauve la vie. La mère accepte alors que Robbie reste auprès de Gloria.

    Image «bing» de Jean Paul Gourdant

    Pour Asimov, Robbie est le compagnon idéal, celui qui le comprend et ne le maltraite pas, contrairement aux harceleurs de cours d’école qui s’acharnent sur les nerds. Robbie, c’est aussi l’histoire d’un père scientifique qui sait ce qui est bien et qui dépossède sa femme de son rôle d’éducatrice en comprenant mieux qu’elle les besoins de sa fille.

    Mais cette structure d’histoire est due à la jeunesse d’Asimov. Quand il commence à écrire, Asimov a le même âge que Mary Shelley, mais un vécu très différent. Il explique en 1969 : « Quand j’ai commencé en 1939 à écrire des histoires de robots, j’avais 19 ans. Je ne plaçais pas la relation père-fils sous le signe de la crainte. Peut-être en raison de mes propres relations avec mon père, rien ne me suggérait que la jalousie puisse naître dans le cœur de l’un à l’égard de l’autre […] Je vis naturellement une entente similaire entre l’homme et la réalité. » En outre, de son propre aveu, il n’a jamais fréquenté la moindre fille et n’a aucune idée de ce que signifie vraiment éduquer un enfant (et, accessoirement, s’en moque autant que ses lecteurs). Ses personnages féminins, quand ils existent, ne sont là que pour remplir des fonctions « féminines » périphériques : épouse ou mère.

    Mais c’est une situation temporaire dans l’œuvre d’Asimov. Quand il invente ensuite l’US Robots Inc. la société qui construit les robots positroniques, il met un « couple parental » dans l’équipe de direction. Il y a Alfred Lanning, Directeur de recherche, patriarche de l’entreprise à la voix douce et aux cheveux blancs, et Susan Calvin, femme brillante et dépourvue de toute féminité, plus proche des robots que des humains et donc pleinement compétente pour être robopsychologue. Il y aurait beaucoup à dire sur la manière dont Asimov voit les scientifiques de manière asexuée, homme comme femme. S’il n’éprouve pas le besoin de le justifier pour les hommes, il doit l’explique tout de même pour Susan Calvin : comment mettre en scène une femme et pour autant, ne jamais parler d’amour, de séduction ou de sexualité ? Il dépouille Susan Calvin de toute féminité pour en faire une scientifique crédible. Mais moyennant cette précaution, Asimov fait de Susan Calvin un personnage très positif, l’héroïne de nombreuses nouvelles et probablement la première femme scientifique de science-fiction à avoir un rôle central dans des histoires.

    Il est amusant de constater que, contrairement aux fantasmes cybernétiques, les robots d’Asimov qui vont travailler à sauver l’humanité et non à la détruire sont bien issus d’une reproduction virtuelle sexuée. Et qu’à cette époque déjà, dans la science-fiction, les femmes s’occupent du logiciel pendant que les hommes se chargent du matériel. Asimov démontre la prophétie de Grace Hopper, informaticienne des années 40 qui a inventé la compilation : chez les robots science-fiction comme dans l’informatique réelle, le logiciel finit par être plus important que le matériel.

    À suivre…

    Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière

    1 Voir les épisodes précédents

    2 Si les histoires de mythe de créatures artificielles vous passionnent, l’ouvrage de Annie Amartin-Serin reprends tous ces mythes et histoires avec bien plus de détail, d’Adam et Eve jusqu’aux clones et cyborg : https://doi.org/10.3917/puf.amart.1996.01

    Je remercie Jean-Paul Gourdant pour ses relectures attentives qui permettent aux textes d’être bien plus compréhensibles.

  • Galatée et Hadaly

    Pendant que binaire prend ses quartiers d’été, Isabelle Collet nous propose une série de fictions en quatre épisodes pour nos lectures de l’été. Elle nous parle du  genre, des ordinateurs et des créatures artificielles de la littérature, nous propose une autre vision de l’intelligence dite artificielle et de nos mythes et stéréotypes humains.
    Après celui sur Golems, Robots et IA, voici le second  épisode. Serge Abiteboul et Thierry Viéville.

    Je vous avais promis du sexe (et du genre) et me voilà en train de parler d’ordinateurs et d’informaticiens qui se prennent pour Dieu. Rassurez-vous, j’y viens.

    Pourquoi l’humanité s’est-elle attachée à créer des créatures artificielles ? Certes, l’exercice permettait de s’approprier un peu du pouvoir divin, mais souvent, le but était de faire mieux que Dieu (ou que le hasard génétique). Les créatures artificielles des mythes comme celles des cybernéticiens tendent à corriger les imperfections de la version naturelle.

    Prenons par exemple Galatée, la créature artificielle du mythe de Pygmalion. Selon Ovide, Pygmalion, jeune roi de Chypre et merveilleux sculpteur, est déçu par la légèreté des femmes de Chypre et se voue alors au célibat. Pour se consoler, il sculpte une femme parfaite appelée Galatée et en tombe amoureux. Il va alors prier Aphrodite de lui donner vie. Touchée par l’amour de Pygmalion, Aphrodite apporte la touche finale au processus de création en animant la statue. À aucun moment, Pygmalion n’a essayé de s’approprier un pouvoir divin, il a juste voulu améliorer les femmes. D’ailleurs, ses motivations misogynes sont bien comprises par les Dieux qui n’éprouvent aucune jalousie ; son histoire finit bien puisque, selon les versions de la légende, il aura même des enfants avec Galatée.

    Jean-Léon Gérôme, Pygmalion et Galatée (1890), New York, Metropolitan Museum of Art (MMA). Image donnée à Wikimedia Commons dans le cadre d’un projet du MMA.

    Vous vous souvenez des informaticiens des années 40 qui cherchent à dupliquer l’intelligence humaine ? Finalement, ils poursuivent un but semblable. Ce n’est pas n’importe quelle intelligence qu’ils essaient de dupliquer. Ils recherchent une intelligence qui puisse rivaliser avec la leur. Le mathématicien Norbert Wiener, l’inventeur de la cybernétique, veut pouvoir jouer avec les créatures qui seront créées. Von Neumann bâtit l’architecture des ordinateurs sur la base de la représentation qu’il se fait de son propre cerveau génial, doté d’une mémoire eidétique. Turing rêve d’une intelligence virtuelle qui ne mourra jamais. Les fantasmes autour de l’IA n’ont guère changé : reproduire l’intelligence de l’humain moyen n’excite personne (et pourtant, ce serait déjà une belle performance !). On vise directement à créer l’intelligence immense qui nous rendra tout petit.

    Wiener pose comme principe de base que ce qui distingue des entités entre elles n’est pas la matière dont elles sont faites, mais leur comportement. Peu importe le matériau dont est faite la créature, on ne cherche pas à reproduire le vivant, mais le comportement du vivant. « L’homme fait l’homme à son image », écrit-il dans Golem & God Inc. D’ordinaire, on pense à la reproduction sexuée, mais après tout, est-ce la seule option ? Quand on suppose que Dieu a créé l’homme à son image, il ne faut évidemment pas prendre la formule au sens littéral. À partir de quand une image que l’on crée est-elle suffisamment bonne (indépendamment de son matériau) pour qu’on puisse considérer que son créateur s’est reproduit ? Pour l’expliquer, Wiener va se servir d’une partie du mythe de Pygmalion et Galatée.

    Selon Wiener, quand Pygmalion sculpte Galatée dans l’ivoire, il crée une simple image picturale : Galatée a bien une forme humaine, mais elle ne peut être considérée comme un être à part entière, car elle a un comportement de statue. Mais dès lors qu’Aphrodite lui insuffle la vie, la statue devient une image opérante, tellement similaire à un être humain que Pygmalion va pouvoir l’épouser.

    Si Wiener prend en exemple le mythe de Pygmalion et Galatée pour expliquer la « reproduction », c’est parce que cette histoire résonne de manières particulières dans sa propre biographie. En créant lui-même un être qu’il juge parfait, Pygmalion évite les risques du hasard et la déception qui semble inévitablement en découler quand on laisse les êtres humains (notamment les femmes dans le cas de ce mythe) se développer à leur guise. C’était également un risque que Léo Wiener, le père de Norbert, n’avait pas envie de prendre.

    Léo Wiener, né en 1862, était un homme d’une intelligence et érudition peu commune. Il était réputé parler couramment 30 langues et il a été capable de suivre les travaux mathématiques de son fils jusqu’à ses premières années d’université. Il n’avait qu’une confiance limitée dans l’école, et des idées arrêtées sur la manière d’éduquer les enfants. Il infligea à son fils des cours intensifs à la maison jusqu’à finalement le retirer totalement de l’école entre 6 et 7 ans. Norbert savait lire à un an et demi et quand il réintégra l’école à 7 ans, ce fut pour entrer au secondaire. À 18 ans, Wiener obtint un doctorat à Harvard. Léo Wiener s’estima satisfait de la manière dont il avait façonné son fils. Dans un article intitulé Quelques idées nouvelles sur l’éducation des enfants, qu’il publia en 1911, il écrivit : « C’est un non-sens de dire, comme le font certaines personnes, que Norbert, Constance et Bertha sont des enfants exceptionnellement doués. Il n’en est rien. S’ils en savent plus que les enfants de leur âge, c’est parce qu’ils ont été entrainés différemment » (cité par Wiener dans son autobiographie de 1953 : Ex-Prodigy: My Childhood and Youth). Norbert Wiener résuma ensuite sa relation avec son père en ces termes : « Mes échecs étaient les miens, mes succès étaient ceux de mon père ». À sa naissance, Norbert n’était que l’image picturale de Léo, jusqu’à ce que celui-ci l’entraine et en fasse une image opérante, un fils à son image.

    Pygmalion et Galatée, Léo et Norbert, le Rabi Loew et le Golem… ce sont là des transpositions assez littérales de la phrase de Wiener : « L’homme crée l’homme à son image ». Les humains peuvent se reproduire de diverses manières, par la reproduction sexuée, mais aussi en créant des machines qui sont des images opérantes d’eux-mêmes. Cette reproduction-là possède l’avantage cybernétique d’éviter l’entropie inhérente à la reproduction sexuée, même si Serge Abiteboul1 nous explique que cet aléatoire est indispensable pour la pérennité du processus de reproduction. En outre, l’homme n’a besoin de personne d’autre pour créer une image de lui.

    L’Eve future ©gallica.bnf.fr

    Alan Turing, le célèbre mathématicien qui déchiffra les codes secrets allemands pendant la 2e guerre mondiale, fait partie des chercheurs qui discutent de cybernétique. En 1950, il écrit un article devenu célèbre : Computing machinery and intelligence, dans lequel il va se demander à partir de quand on peut considérer qu’une machine est intelligente. Pour cela, il va d’abord définir ce qu’est une machine : « Nous souhaitons exclure de la catégorie des machines les hommes nés de la manière habituelle », dit-il. Et comme la manière habituelle sous-entend la participation d’un homme et d’une femme, il ajoute : « On pourrait par exemple requérir que les ingénieurs soient tous du même sexe, mais cela ne serait pas vraiment satisfaisant ». Évidemment, Turing fait de l’humour, mais à travers cette plaisanterie, on comprend deux éléments essentiels. Tout d’abord, la machine est considérée comme étant littéralement l’enfant des ingénieurs, et deuxièmement, elle ne doit pas être le produit de la différence des sexes, car cela jetterait le doute sur son éligibilité. Cette machine sera donc conçue entre hommes, car je doute que Turing n’ait jamais imaginé une équipe de femmes ingénieures. (Finalement, il estimera que seuls les ordinateurs numériques pourront participer aux tests.)

    Turing est certes un logicien d’exception, mais aussi un homme homosexuel dans une époque homophobe. Sa misogynie affichée lui permettait de masquer son peu d’intérêt pour la fréquentation des femmes : « Le problème avec les femmes, c’est qu’il faut leur parler », confiait-il à ses collègues mathématiciens. « Quand tu sors avec une fille, tu dois discuter avec elle et trop souvent, quand une femme parle, j’ai l’impression qu’une grenouille jaillit de sa bouche. ». À travers sa quête de l’intelligence artificielle, il cherche à se reproduire sans être obligé de fréquenter les femmes. Il espère créer un être virtuel supérieur qui ne sera pas soumis à la mort ou à la maladie, à faire revivre Christopher, ce garçon extraordinaire dont il était amoureux adolescent et qui est mort prématurément. Turing aurait voulu une créature artificielle dépassant les imperfections humaines.

    Peut-être aurait-il apprécié le texte L’Eve future écrit par Villers de L’Isle-Adam en 1886, car il brasse les mêmes fantasmes. On y retrouve les motivations à l’origine du mythe de Pygmalion : il s’agit de créer une femme parfaite en lieu et place du modèle défectueux produit par la nature. Mais il s’agit cette fois d’une création entre hommes, permettant une forme d’homosexualité via un être artificiel féminin, car, comme le disait Turing, la conversation des femmes réelles s’avère terriblement décevante.

    L’Eve future met en scène Lord Ewald, éperdument amoureux d’Alicia Clary, une chanteuse qui est aussi belle que sotte. Ewald est écartelé entre la beauté du corps d’Alicia et la vulgarité de ses propos. Il décide alors de se suicider, ne supportant plus la torture de passer du temps avec une femme aussi belle et aussi quelconque.

    Il est sauvé par un scientifique, Edison (nommé ainsi en hommage à l’inventeur américain), qui a conçu un être artificiel qu’il peut rendre semblable à Alicia. Il propose alors un Pacte faustien à Ewald. Il va créer une nouvelle Eve, un andréïde nommé Hadaly, dont le corps sera celui d’Alicia Clary. En échange, Lord Ewald prêtera vie à ce corps par une opération mentale relevant de la foi et de la suggestion : en la croyant vivante, il la rendra vivante.

    Pourquoi créer une femme artificielle ? Edison justifie sa démarche de la façon suivante. Pour lui, il existe deux types de femmes : « les femmes assainies, consacrées et justifiées par la dignité persistante du devoir, de l’abnégation, du noble dévouement » et celles qui ressemblent à Alicia Clary : « plus proches de l’espèce animale que de l’espèce humaine. L’homme a le droit de haute et basse justice sur ce genre d’être féminin comme il l’a sur les animaux. » Le moins qu’on puisse dire, c’est que Villers de L’Isle-Adam sait être clair quand il annonce qu’Edison sera « l’assassin de l’animalité triomphante de la femme ».

    La relation qui s’en suit entre Edison, Edwald et Hadaly devient assez trouble. Il faut bien donner un esprit à Hadaly : les paroles qu’elle prononcera ont été enregistrées au préalable par Edison. On peut alors se demander avec qui Ewald a une conversation passionnée quand il parle avec Hadaly, et finalement qui Edwald désire quand il désire Hadaly. En outre, si Hadaly est un être artificiel au corps féminin, elle a été appelée Andréïde (Andres : homme) et non Antropoïde (humain) ou Gyneïde (femme).

    La suite de l’histoire s’embrouille, car Villers de L’Isle-Adam finit par se plier à la morale de son époque. Il imagine que l’esprit d’une femme vertueuse endormie vient finalement animer Hadaly. Quoiqu’il en soit, le destin ne peut pas laisser perdurer ce projet immoral. Quand Lord Ewald repart en Angleterre, emportant Hadaly dans un sarcophage pour le temps de la traversée, le navire fait naufrage. Le sarcophage coule, et Lord Ewald, inconsolable, prend le deuil d’Hadaly.

    Doit-on en déduire que les histoires de créatures artificielles sont condamnées à mal finir ? Dans un XIXe siècle moraliste, Villers de L’Isle-Adam ne pouvait pas se permettre de laisser perdurer cet amour contre nature. Mais que va-t-il advenir des créatures artificielles qui apparaîtront par la suite ?

    L’homme crée l’homme à son image et le scientifique crée la créature artificielle à son image en tenant les femmes à l’écart. Est-ce que ce sera pour le meilleur ou pour le pire ? Est-ce que cela signifie la mort de Dieu… ou des humains ? Tout dépendra du point de vue adopté par celui qui raconte les histoires.

    À suivre…

    1 https://binaire.socinfo.fr/2015/10/19/sex-and-the-algorithm/

    Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière.

    Je remercie Jean-Paul Gourdant pour ses relectures attentives qui permettent aux textes d’être bien plus compréhensibles.

  • De l’argile au code informatique

    Pendant que binaire prend ses quartiers d’été, Isabelle Collet nous propose une série de fictions en quatre épisodes pour nos lectures de l’été. Elle nous parle du  genre, des ordinateurs et des créatures artificielles de la littérature, nous propose une autre vision de l’intelligence dite artificielle et de nos mythes et stéréotypes humains. À commencer par …  Non. Laissons-la nous surprendre. Serge Abiteboul et Thierry Viéville.

    L’histoire occidentale est remplie d’une longue série de mythes parlant de créatures artificielles et, dans certains cas, d’humains tentant d’usurper la place de Dieu en se lançant dans le processus de création. Il y a 20 ans, quand j’ai commencé à travailler sur les questions de genre en informatique, je me suis intéressée à créatures artificielles, car, pour moi, l’ordinateur a été rêvé comme faisant partie de cette grande famille. Quand ils ont conçu l’ENIAC, les pères de l’informatique ne cherchaient pas réellement à produire une grosse machine pour calculer, même si c’est ce qu’ils ont réalisé. L’ordinateur des années 1950, qui était pourtant très loin des performances de ChatGPT, était vu comme une étape vers le but ultime de la science : une duplication du cerveau humain.

    Si je relie ces fantasmes à la question « Genre », c’est parce que tous les créateurs de créatures artificielles sont des hommes et que tous trouvent une solution pour créer un être nouveau sans passer par la reproduction sexuée, c’est-à-dire sans l’aide des femmes. Ces fantasmes se prolongent dans la littérature de science-fiction : après les robots, est-ce qu’on ne serait pas plutôt en train de créer un Dieu artificiel ?

    Des Golems et des ordinateurs

    Les premières créatures dont je vais vous parler sont les Golems ; et le premier des Golems était Adam…

    Le mot Golem s’écrit en hébreu avec les trois consonnes Guimel, Lamed et Mem qui signifient : masse informe, embryon, roulé en boule. Dans le Talmud, Adam est appelé Golem avec la signification de corps sans âme, pendant les 12 premières heures de sa vie. L’homme qui cherche à créer un Golem cherche en fait à reproduire l’acte qui a permis sa propre création.

    Le 17 juin 1965, Gershom Scholem, historien et philologue, spécialiste de la Kabbale, prononce le discours1 d’inauguration de l’ordinateur Golem Aleph, à l’Institut Weizman de Rehovot, en Israël. C’est pour lui l’occasion de parler des différents Golems qui l’ont précédé dans la tradition juive, en particulier le plus célèbre d’entre eux, celui de Prague.

    Le cimetière juif de Prague avec au premier plan la tombe du Rabbi Loew. ©Jean-Paul Gourdant

    La légende met en scène le rabbin Judah Loew ben Bezalel, Maharal de Prague. La tradition populaire juive lui attribue la création d’un Golem pour aider les juifs du ghetto à se défendre contre l’antisémitisme de l’Europe Centrale.

    Le Golem du Rabbi Loew était fait d’argile et était animé grâce à la concentration de l’esprit du rabbin. Mais comme son pouvoir n’était qu’un reflet du pouvoir créateur de Dieu, le rabbin avait mis dans la bouche du Golem une feuille de papier portant le nom mystérieux et ineffable de Dieu. Tant que le sceau restait dans sa bouche, le Golem demeurait animé.

    Le Golem pouvait travailler, remplir les obligations de son maître ; il pouvait l’aider et aider les juifs dans les attaques portées contre le ghetto. Le Golem avait droit au repos le jour du shabbat, puisque ce jour-là, les créatures de Dieu ne doivent accomplir aucun travail. Le rabbin ôtait de sa bouche le papier portant le nom de Dieu et le Golem restait inanimé toute la journée. Mais un vendredi après-midi, le rabbin oublia d’ôter le nom de la bouche du Golem avant de se rendre à la grande synagogue de Prague. Le Golem commença à s’agiter puis à tout détruire dans le ghetto. Les gens ne savaient comment enrayer sa furie. Le rabbin sortit précipitamment dans la rue et se confronta à sa propre créature. Il arracha le papier de la bouche du Golem : aussitôt, celui-ci tomba sur le sol et redevint une masse d’argile sans vie. Dans certaines versions de l’histoire, il s’écroule sur le Rabin et le tue.

    Un autre vue du cimetière juif de Prague avec au premier plan la tombe du Rabbi Loew. ©Jean-Paul Gourdant

    Gershom Scholem raconte ensuite l’histoire d’un Golem décrit dans un texte bien plus ancien, remontant au Talmud babylonien. Le prophète Jérémie méditait sur le Sefer Yetzirah, texte dans lequel Abraham a transcrit la Loi Orale transmise par Dieu à Moïse. Jérémie entendit alors une voix qui venait du ciel et qui lui dit : « Choisis-toi un associé ». Obéissant, il appela son fils et ils étudièrent ensemble ce livre pendant trois ans. Après cela, ils se mirent à combiner les lettres de l’alphabet suivant les principes cabalistiques et ils créèrent ainsi un Golem qui portait sur son visage « Elohim emet » ce qui signifie : « Dieu est vérité ». Mais cette créature nouvellement créée avait un couteau dans la main avec lequel il effaça la lettre aleph du mot emet (vérité). Il ne restait donc plus que le mot met (mort). Alors, Jérémie déchira ses vêtements parce que l’inscription était maintenant devenue un blasphème : « Dieu est mort ».

    Dans son discours, Gershom Scholem se lance dans des comparaisons entre tous ces Golems, ceux faits de glaise de la tradition juive et le Golem électronique de l’Institut Weizman. Les anciens Golems étaient fondés sur la combinaison mystique des 22 lettres de l’alphabet hébraïque qui sont les éléments et les pierres de construction du monde. Le nouveau Golem est basé sur un système de 0 et de 1 qui permet de coder tous les chiffres, les lettres et de construire des fonctions logiques. Si la nature est écrite par Dieu en langage mathématique, comme le pensait Galilée, alors les symboles 0/1 du langage binaire sont également les pierres de construction du monde à l’instar des lettres hébraïques. Une force invisible les anime, que ce soit l’énergie du discours pour les golems traditionnels ou l’énergie électrique pour celui de la ville de Rehovot.

    Les Golems ont un autre point commun : ce sont des rabbins, c’est-à-dire des juifs érudits, qui les ont créés. Le Rabbin Loew est l’ancêtre direct du mathématicien Théodore von Karman qui voyait en son ancêtre le premier génie des mathématiques appliquées. Trois « rabbins mathématiciens » ont particulièrement œuvré en amont à rendre possible les golems électriques : Norbert Wiener, l’inventeur de la cybernétique, John von Neumann qui a pensé l’architecture des ordinateurs modernes et Haïm Pekeris, le constructeur du Golem de Rehovot.

    Gershom Sholem s’inquiète enfin du fait que la phrase « Dieu est mort » se rencontre pour la première fois dans un texte de la cabale qui met en garde contre la fabrication d’un golem et qui lie la mort de Dieu à ce projet de construction. Il note que dans les deux cas, les Golems sont dépourvus de la parole et de ce dont elle est le signe : la spontanéité de l’intelligence. Il espère alors que le Golem de Rehovot, puisqu’il est, lui aussi, dépourvu de sagesse, n’échappe pas à son créateur pour semer la destruction autour de lui.

    Une vue de la vieille synagogue de Prague, « contemporaine » du Golem. ©Jean-Paul Gourdant

    La création de l’ordinateur signifie-t-elle la mort de Dieu et donc les pleins pouvoirs des hommes ? Voilà qui va réactiver les angoisses générées par l’intelligence artificielle !

    Pendant que Haïm Pekeris, le Directeur de l’Institut Weizman en Israël appelait son ordinateur Golem, les écrivains de science-fiction n’étaient pas en reste quand il s’agissait de fantasmer sur les liens entre Dieu et l’ordinateur. Il faut dire que ces écrivains issus de l’âge d’or de la science-fiction américaine (en gros 1930 – 1960) étaient souvent des scientifiques technophiles.

    Arthur C. Clarke a écrit une très belle nouvelle en 1967 : Les neuf milliards de noms de Dieu, où la programmation de l’ordinateur est mêlée à l’invocation du nom de Dieu. Dans cette histoire, des moines bouddhistes ont acheté chez IBM un ordinateur pour écrire le nom de Dieu. De fait, on imagine plutôt cette histoire se passant dans une Yeshiva (une école talmudique) car l’approche de ces moines est curieusement kabbalistique. D’après eux, le nom de Dieu possède 9 lettres qu’il faut permuter afin de trouver la bonne combinaison. Ces moines pensent que lorsque le nom de Dieu sera écrit, l’univers prendra fin. Craignant que les moines ne soient pris d’une folie mystique et possiblement sanguinaire au moment où l’ordinateur aura fini d’écrire toutes les solutions possibles du nom de Dieu, les programmeurs de l’ordinateur s’éloignent sur une petite route de campagne afin de rejoindre au plus tôt l’avion qui les ramènera chez eux. Mais à l’heure où l’ordinateur est supposé finir de sortir son listing, ils lèvent pour la dernière fois les yeux sur le ciel tibétain et voient les étoiles s’éteindre…

    ©Jean-Paul Gourdant

    Ces parallèles entre Dieu, le Golem et l’ordinateur était bien dans l’air du temps. En 1950, dans Cybernétique et société, Wiener estime que si l’homme du XXe siècle est celui qui est responsable de Bergen Belsen et d’Hiroshima, il a aussi construit une machine qui lui peut lui permettre de lutter contre l’entropie, ce mal aveugle qui menace d’engloutir le monde.

    Dans sa nouvelle L’ultime question de 1956, Isaac Asimov écrit une histoire très cybernétique puisqu’au moment où elle débute, l’Entropie dévore le monde. La fin du monde approchant, un programmeur demande à la machine comment renverser l’Entropie. L’ordinateur ne peut répondre par manque d’informations et l’homme continue à lui en fournir. À chaque fois que l’homme l’interroge, l’ordinateur répond qu’il manque de données, mais au dernier moment, alors que l’univers touche à sa fin, l’ordinateur prononce : « Fiat lux » 3.

    Clarke ne nous parle pas d’intelligence artificielle, mais d’un super calculateur qui a le pouvoir d’assister Dieu dans ses œuvres. Asimov va un peu plus loin avec son ordinateur omniscient. Or, on retrouve assez littéralement dans ces textes états-uniens l’étymologie du mot français « ordinateur ».

    Pour raconter l’histoire dans l’ordre, il faut signaler qu’en 1948, quand le premier ouvrage de Wiener sur la Cybernétique parait, le Père Dubarle, éditorialiste au Monde, se demande si l’ordinateur n’est pas une machine à gouverner. En 1954, Cybernétique & Société de Norbert Wiener est traduit en français. C’est alors qu’au printemps de 1955, IBM France cherche un nom pour ses premières machines électroniques destinées au traitement de l’information fabriquées en France. Aux États-Unis, elles s’appellent assez prosaïquement « Electronic Data Processing System » ou EDPS. Sollicité par la direction de l’usine de Corbeil-Essonnes, François Girard, alors responsable du service « promotion générale publicité », décide de consulter un de ses anciens maîtres, Jacques Perret, professeur de philologie latine à la Sorbonne.

    Le 16 avril 1955, Jacques Perret envoya cette lettre2 : « Que diriez-vous d’ordinateur ? C’est un mot correctement formé qui se trouve même dans le Littré, comme adjectif désignant Dieu qui met de l’ordre dans le monde. » Alors que très peu de monde a vu un ordinateur en vrai, son mythe l’a déjà dépassé au point qu’un non-informaticien y voit une machine qui permet à l’homme de s’arroger un peu du pouvoir divin.

    ©Jean-Paul Gourdant

    Finalement, en 1962, Wiener prononce une série de conférences à Yale et un séminaire aux Colloques Philosophiques Internationaux de Royaumont en France. Ces textes ont été regroupés dans un ouvrage que Wiener intitule : « God & Golem Inc. A Comment on Certain Points Where Cybernetics Impinges on Religion ». Quel est donc ce moment où la science entre collision (impinges) avec la religion ? C’est quand l’homme crée une machine qui sera elle-même capable de se reproduire, copiant ainsi une caractéristique supposée jusqu’ici propre au vivant, donc hypothétiquement donnée aux humains et aux animaux par Dieu au moment de la Création.

    Si l’ordinateur est la machine qui, à l’instar de Dieu, a le pouvoir de mettre de l’ordre dans le monde, que penser du pouvoir de son créateur ? Que se passe-t-il quand les hommes se prennent pour Dieu et imaginent être capables d’engendrer des créatures artificielles sans l’aide des femmes ?

    A suivre…

    Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière.

    1 Le discours complet est reproduit ici : http://cabbale.blogspot.com/2009/12/le-golem.html

    2 Une copie de la lettre est lisible ici : https://journals.openedition.org/bibnum/534

    3 Fiat lux est, dans la Genèse, la première parole de Dieu pour la création du monde : « que la lumière soit ».

    Je remercie Jean-Paul Gourdant pour ses relectures attentives qui permettent aux textes d’être bien plus compréhensibles.

  • Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage

    On nous parle beaucoup de ChatGPT mais on en sait finalement très peu sur son fonctionnement. Frédéric Alexandre (Directeur de chercheur Inria) nous présente les mécanismes principaux se trouvant derrière chaque partie du nom de cette IA (Chat, G, P, T) et montre ainsi que ces derniers ne sont pas vraiment nouveaux. Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    On voit passer beaucoup d’avis sur ChatGPT, mais finalement, qu’en sait-on ? Juste que c’est un réseau de neurones artificiels avec des milliards de paramètres, capable de tenir une discussion de haut niveau, mais aussi de tomber dans des pièges grossiers tendus par des internautes facétieux. On nous parle beaucoup de lui mais on en sait finalement très peu sur son fonctionnement.

    Je vous propose donc de présenter les mécanismes principaux sur lesquels ChatGPT repose et de montrer ainsi que, si le résultat est parfois impressionnant, ses mécanismes élémentaires sont astucieux mais pas vraiment nouveaux. Pour ce faire, passons en revue les différents termes du sigle « ChatGPT ».

    T comme transformer

    Un « transformer » est un réseau de neurones qui bénéficie du même algorithme d’apprentissage que les réseaux profonds (deep networks), qui a déjà fait ses preuves pour l’entraînement de grosses architectures. Il bénéficie également de deux caractéristiques éprouvées : d’une part, des techniques de « plongement lexical » pour coder les mots ; d’autre part, des techniques attentionnelles pour prendre en compte le fait que les mots sont séquentiels.

    Ce second point est majeur pour interpréter le sens de chaque mot dans le contexte de la phrase entière. La technique proposée par les transformers privilégie une approche numérique et statistique, simple à calculer massivement et très efficace. Cette approche consiste à apprendre, pour chaque mot et à partir de l’observation de nombreux textes, à quels autres mots de la phrase il faut faire « attention » pour identifier le contexte qui peut modifier le sens de ce mot. Ceci permet d’accorder un mot ou de remplacer un pronom par les mots de la phrase qu’il représente.

    G comme génératif

    ChatGPT est capable de générer du langage : on lui expose un problème et il nous répond avec du langage – c’est un « modèle de langage ».

    La possibilité d’apprendre un modèle génératif avec un réseau de neurones date de plus de trente ans : dans un modèle d’auto-encodeur, la sortie du réseau est entraînée pour reproduire le plus fidèlement possible son entrée (par exemple une image de visage), en passant par une couche de neurones intermédiaire, choisie de petite taille : si on peut reproduire l’entrée en passant par une représentation aussi compacte, c’est que les aspects les plus importants de cette entrée (le nez, les yeux) sont conservés dans le codage de cette couche intermédiaire (mais les détails doivent être négligés car il y a moins de place pour représenter l’information). Ils sont ensuite décodés pour reconstruire un visage similaire en sortie.

    Utilisé en mode génératif, on choisit une activité au hasard pour la couche intermédiaire et on obtient en sortie, à travers le décodeur, quelque chose qui ressemblera à un visage avec un nez et des yeux mais qui sera un exemplaire inédit du phénomène considéré.

    schéma d’un auto-encodeur
    Les couches de neurones d’un modèle auto-encodeur : la première couche accueille les entrées, une couche intermédiaire les code de façon plus compacte et la dernière les décode pour retrouver le format original. Frédéric Alexandre, Fourni par l’auteur

    C’est par exemple en suivant ce procédé (avec des réseaux de grande taille) que l’on est capable de créer des deepfakes, c’est-à-dire des trucages très réalistes.

    Si on souhaite maintenant générer des phénomènes séquentiels (des vidéos ou des phrases), il faut prendre en compte l’aspect séquentiel du flux d’entrée. Ceci peut être obtenu avec le mécanisme attentionnel décrit plus haut, utilisé sous une forme prédictive. En pratique, si l’on masque un mot ou si on cherche le mot suivant, on peut prédire ce mot manquant à partir de l’analyse statistique des autres textes. À titre d’illustration, voyez à quel point vous êtes capables de lire une BD des Schtroumpfs et de remplacer chaque « schtroumpf » par un mot issu de l’analyse attentionnelle des autres mots.

    L’efficacité d’un simple mécanisme attentionnel (qui considère les autres mots importants du contexte mais pas explicitement leur ordre) pour traiter l’aspect séquentiel des entrées a été un constat majeur dans la mise au point des transformers (« Vous n’avez besoin que d’attention » titrait la publication correspondante : « Attention is all you need »), car auparavant les méthodes privilégiées utilisaient des réseaux plus complexes, dits récurrents, dont l’apprentissage est comparativement bien plus lent et moins efficace ; de plus ce mécanisme attentionnel se parallélise très bien, ce qui accélère d’autant plus cette approche.

    P comme pretrained

    L’efficacité des transformers n’est pas seulement due à la puissance de ces méthodes, mais aussi (et surtout) à la taille des réseaux et des connaissances qu’ils ingurgitent pour s’entrainer.

    Les détails chiffrés sont difficiles à obtenir, mais on entend parler pour des transformers de milliards de paramètres (de poids dans les réseaux de neurones) ; pour être plus efficaces, plusieurs mécanismes attentionnels (jusqu’à cent) sont construits en parallèle pour mieux explorer les possibles (on parle d’attention « multi-tête »), on peut avoir une succession d’une dizaine d’encodeurs et de décodeurs, etc.

    Rappelons que l’algorithme d’apprentissage des deep networks est générique et s’applique quelle que soit la profondeur (et la largeur) des réseaux ; il suffit juste d’avoir assez d’exemples pour entraîner tous ces poids, ce qui renvoie à une autre caractéristique démesurée de ces réseaux : la quantité de données utilisée dans la phase d’apprentissage.

    Ici aussi, peu d’informations officielles, mais il semble que des pans entiers d’internet soient aspirés pour participer à l’entrainement de ces modèles de langages, en particulier l’ensemble de Wikipedia, les quelques millions de livres que l’on trouve sur Internet (dont des versions traduites par des humains sont très utiles pour préparer des transformers de traduction), mais aussi très probablement les textes que l’on peut trouver sur nos réseaux sociaux favoris.

    Cet entrainement massif se déroule hors ligne, peut durer des semaines et utiliser des ressources calculatoires et énergétiques démesurées (chiffrées à plusieurs millions de dollars, sans parler des aspects environnementaux d’émission de CO₂, associés à ces calculs).

    Chat comme bavarder

    Nous sommes maintenant en meilleure position pour présenter ChatGPT : il s’agit d’un agent conversationnel, bâti sur un modèle de langage qui est un transformer génératif pré-entraîné (GPT).

    Les analyses statistiques (avec approches attentionnelles) des très grands corpus utilisés permettent de créer des séquences de mots ayant une syntaxe de très bonne qualité. Les techniques de plongement lexical offrent des propriétés de proximité sémantique qui donnent des phrases dont le sens est souvent satisfaisant.

    Outre cette capacité à savoir générer du langage de bonne qualité, un agent conversationnel doit aussi savoir converser, c’est-à-dire analyser les questions qu’on lui pose et y apporter des réponses pertinentes (ou détecter les pièges pour les éviter). C’est ce qui a été entrepris par une autre phase d’apprentissage hors-ligne, avec un modèle appelé « InstructGPT », qui a nécessité la participation d’humains qui jouaient à faire l’agent conversationnel ou à pointer des sujets à éviter. Il s’agit dans ce cas d’un « apprentissage par renforcement » : celui-ci permet de sélectionner des réponses selon les valeurs qu’on leur donne ; c’est une sorte de semi-supervision où les humains disent ce qu’ils auraient aimé entendre (ou pas).

    ChatGPT fait ce pour quoi il a été programmé

    Les caractéristiques énoncées ici permettent de comprendre que la principale fonction de ChatGPT est de prédire le mot suivant le plus probable à partir des nombreux textes qu’il a déjà vus et, parmi les différentes suites probables, de sélectionner celles qu’en général les humains préfèrent.

    Cette suite de traitements peut comporter des approximations, quand on évalue des statistiques ou dans les phases de décodage du modèle génératif quand on construit de nouveaux exemples.

    Ceci explique aussi des phénomènes d’hallucinations rapportées, quand on lui demande la biographie de quelqu’un ou des détails sur une entreprise et qu’il invente des chiffres et des faits. Ce qu’on lui a appris à faire c’est de construire des phrases plausibles et cohérentes, pas des phrases véridiques. Ce n’est pas la peine de comprendre un sujet pour savoir en parler avec éloquence, sans donner forcément de garantie sur la qualité de ses réponses (mais des humains aussi savent faire ça…).The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • De Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots

    Dans cet article. Frédéric Alexandre (Directeur de chercheur Inria) aborde ChatGPT en nous éclairant sur son fonctionnement à travers le prisme de la cognition et ce que nos données disent de nous à cet outil dit intelligent.  Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ».

    Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.

    En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

    Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches

    Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

    Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

    pieds d’un plongeur
    Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY

    Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

    Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

    Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

    C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

    Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

    L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

    Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

    Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

    Être conscients de ce que nos « likes » disent sur nous

    Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

    likes peints sur un mur argenté
    Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY

    Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

    Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

    Calculer avec des mots en prenant en compte leur signification

    En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

    Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

    [Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

    Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

    Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

    Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • L’IA peut tout faire sauf prétendre à des droits d’auteur ?

    Pas un jour où nous n’entendions parler de ChatGPT ou d’intelligence artificielle générative.  Parmi les points abordés, le respect des droits d’auteur fait souvent débat. Alors nième billet sur ce sujet ? Et bien, non ! Charles CUVELIEZ et Jean-Jacques QUISQUATER nous proposent d’inverser la question et de nous interroger sur la possibilité d’attribuer des droits d’auteur à une oeuvre créée à l’aide d’une IA. Pour ce faire, ils s’appuient sur un dossier émanant des Etats-unis où la question des droits d’auteur est traitée différemment de notre culture européenne, notamment avec une tension très forte entre la protection des droits d’auteur (qui est une exception) et la liberté individuelle.  Pascal Guitton
    Parmi les nombreuses questions soulevées par l’apparition des systèmes d’intelligence artificielle générative, figure celle sur les droits d’auteur relatifs aux données utilisées pour les entraîner. Elle touche bien entendu des systèmes comme ChatGPT, l’IA Act adopté en commission au Parlement européen le 11 mai dernier l’évoque. Mais, symétriquement, on pourrait aussi questionner les droits d’auteur sur une œuvre produite par l’IA. Curieusement, on n’en parle pas beaucoup et pourtant ChatGPT et ses consœurs sont directement concernées.

    De l’autre côté de l’Atlantique, l’organisme en charge des questions de droits d’auteur aux Etats unis (le Copyright Office) a voulu clarifier les choses avec des lignes directrices qui consacrent le cas par cas.  Il n’y a jamais eu de droit d’auteur donné à une œuvre créée par un algorithme sur une machine autonome sans intervention humaine.  En effet, octroyer des droits d’auteur à un logiciel reviendrait à lui octroyer des droits réservés aux personnes physiques. Mais qui sont ces auteurs ? Qui sont donc les bénéficiaires de ces droits : le(s) développeur(s) du système, l’entreprise le commercialisant, et au fond, pourquoi pas les utilisateurs experts (on parle maintenant de scripteurs d’IA) sachant tirer partie au mieux des IA.

    Le Copyright Office a notamment pris pour exemple l’affaire dite Zarya of the Dawn du nom d’une BD dont les images avaient été calculées à l’aide de MidJourney, un logiciel d’intelligence artificielle, mais dont le texte avait été créé par Kristina Kashtanova son autrice.  Dans ce cas, le Copyright Office n’a reconnu des droits d’auteur que pour le texte. Il y a eu d’autres variations : des œuvres où l’IA était citée comme co-auteur ou bien figurait dans les remerciements. De façon générale, le Copyright Act bannit tout auteur qui ne serait pas humain : un singe qui prend une photo n’aura pas de droit d’auteur.  Un photographe peut y prétendre (la Cour Suprême a tout de même dû statuer) mais un appareil qui prend automatiquement des photos, non, sauf à prétendre que l’avoir placé à tel endroit constitue un acte créatif.

    Couverture de l’album Zarya of the Dawn – Kris Kashtanova using Midjourney AI (Image extraite de WikiPedia)

    Dorénavant, le Copyright Office décomposera chaque œuvre en parties crées par IA de manière autonome et d’autres qui ne le sont pas. Il examinera dans quelle mesure l’IA a produit sa partie de manière autonome ou si une intervention humaine a été nécessaire au point de l’orienter avec une approche mentale, et donc une expertise, de sa part. Il faudra donc une mise en forme visible d’origine humaine (sic).

    ChatGPT

    C’est évidemment ChatGPT que le Copyright Office a en tête : en quelques instructions, on peut lui demander de construire une œuvre musicale ou littéraire qui est souvent bluffante.

    Ces quelques instructions ne peuvent prétendre à bénéficier du droit d’auteur, dit le Copyright Office. Tout le monde ne sera pas d’accord : il faut parfois un tel savoir-faire pour donner à ChatGPT la bonne instruction qu’on peut s’interroger pour savoir si on peut parler d’intervention humaine créative.

    Les droits d’auteur vont uniquement s’appliquer aux aspects émanant d’un humain dans ce qui aura été produit en commun par l’IA et l’humain, comprend-t-on dans les intentions du Copyright Office. Si un auteur réarrange ce que ChatGPT aura produit, il y a de l’espoir.

    Suite à l’affaire Zarya of the Dawn où Kristina Kashtanova avait initialement déclaré être l’autrice de l’ensemble de la BD, le Copyright Office a modifié son formulaire de déclaration en demandant désormais explicitement aux auteurs si certaines parties de leur œuvre avait été fabriquées à l’aide d’IA. Et s’ils ne savent pas le distinguer, le Copyright Office les contactera pour décider ensemble !

    En Europe, la directive sur les droits d’auteur s’applique mais elle représente au fond une exception à la liberté d’expression : le contenu auquel les droits d’auteur s’appliquent doivent résulter d’un effort intellectuel humain. Avec l’IA, ce dernier peut intervenir au moment de la conception ou de la touche finale : l’exécution reste souvent l’apanage de l’IA.

    Avec l’IA, on a encore une illustration de cette éternelle tension entre l’exception à la liberté d’expression qu’est le droit d’auteur et la protection de l’investisseur dans le développement de l’IA.

    Charles CUVELLIEZ (DSSI Belfius Banque et Ecole Polytechnique de Bruxelles, Université  de Bruxelles) & Jean-Jacques QUISQUATER (Ecole Polytechnique de Louvain, Université  de Louvain)

    Pour en savoir plus :

     

     

  • Qui a hacké Garoutzia ? En Avignon

    Un éditeur de binaire, Serge Abiteboul, et deux amis du blog, Laurence Devillers et Gilles Dowek, ont écrit une pièce qui sera présentée en grande première en Avignon, dans le cadre du festival off – les  15,  16, 17 juillet au Grenier à Sel. Si vous les connaissez, vous ne serez pas surpris que cela parle d’intelligence artificielle dans un texte plutôt déjanté. Pierre Paradinas.

  • Clap de fin pour Scilogs.fr

    La bataille pour une science accessible et gratuite n’est pas simple: elle nécessite de la passion, des bénévoles, des équipes, des infrastructures, des lecteurs et tout simplement des moyens. Celle de Scilogs.fr arrive à son terme. Ceci est le clap de fin d’une aventure de 10 ans. Laissons la parole à Philippe Ribeau-Gésippe, Responsable numérique du magazine PourlaScience.fr. Ikram Chraibi Kaadoud.
    Le blog « intelligence-mecanique » blog compagnon de https://www.lemonde.fr/blog/binaire
      accessible ici :

    https://scilogs.fr/intelligence-mecanique/intelligence-mecanique-de-quoi-parle-ton/
    est archivé là https://files.inria.fr/mecsci/scilogs.fr/intelligence-mecanique/
    pour garder les contenus accessibles.

    Chère Lectrice, Lecteurs,

    Cette année, cela fera 10 ans que Scilogs.fr existe. Cette plateforme de blogs avait été lancée en 2013 par Pour la Science avec l’idée de fédérer une communauté de blogueurs issus du monde de la recherche et réunis par l’envie de vulgariser leurs travaux avec l’exigence de rigueur qui fait la marque des magazines Pour la Science et Cerveau & Psycho.

    Depuis lors, près de 30 blogs, dont Intelligence Mécanique, ont ainsi été ouverts sur Scilogs.fr, et près de 3000 articles publiés, souvent passionnants.

    Mais proposer une plateforme telle que Scilogs.fr a un coût. Des coûts d’hébergement et de maintenance, d’une part, nécessaires pour mettre à jour les versions du système et intervenir en cas de panne ou d’attaque informatique. Et des ressources humaines, d’autre part, pour gérer les problèmes, recruter de nouveaux blogueurs, aider les auteurs ou promouvoir les nouveaux articles sur les réseaux sociaux.

    Nous avons consacré à Scilogs.fr autant de temps et d’investissements qu’il nous était raisonnablement possible de le faire, car nous étions convaincus que c’était un beau projet. Hélas, le succès n’a pas été à la hauteur de nos espérances, et, Scilogs.fr n’a jamais réussi à trouver un modèle économique viable.

    Nous sommes donc au regret d’annoncer que Scilogs.fr est arrêté  mais reste disponible

    Merci à toutes et tous,

    Philippe Ribeau-Gésippe

  • Un exercice avec ChatGPT

    Un exercice obligé en ce moment est de rédiger un texte avec ChatGPT pour illustrer ce que ce logiciel peut faire. Cela peut être une dissertation de philo pour le bac. Ici, Claire Mathieu, une amie et grande contributrice de binaire, demande à ChatGPT de rédiger le rapport de la mission Gillet au sujet de l’évolution de l’écosystème de la recherche en France.  Serge Abiteboul
    Cet article est repris de  Academia.hypotheses.org hébergé par la plateforme Hypothèses, une plateforme d’OpenEdition pour les blogs de recherche en sciences humaines et sociales.
    Sa version en pdf :  UtiliserChatGPT.

    Introduction

    Pour explorer le potentiel de ChatGPT comme assistant1, essayons la tâche de rédaction d’un rapport. Ici, nous avons pris pour exemple la mission confiée fin 2022 à Philippe Gillet par Sylvie Retailleau, ministre de l’Enseignement Supérieur et de la Recherche, lui demandant un rapport au sujet de l’évolution de l’écosystème de la recherche en France.

    https://www.flickr.com/photos/192902634@N05/52878130124/in/photolist-2oyEeQG-2ood7q4-2oo8aXS-2ooccEy-2oqTj89-2o89QAj-2oiMPXZ-2oq9UPn-2owVA36-2oespQo-2ob4nys-2oqs5pY-2ood3rc-2od9s9g-2owCwum-2oob2w1-2ovTvJf-2ocFAkw-2oAsvpm-2omMX5s-2oaKYyK-2om8AJR-2ooaR4H-2oo7Zdf-2obE6Pa-2ooaTzj-2oyScUy-2oqgFcH-2oi1iJR-2oAJXYt-2ocxZ7B-2ooc8uE-2o6m5bA-2oocfKb-2otrA6x-2ooccc9-2oo83WH-2oyfTds-2owANwt-2oigrZ4-2owV4pq-2odnFMW-2owouv8-2oyiwiL-2oq95Ge-2ousxEP-2kUcD6i-2ovtwKn-2oC8pJM-2o53ad8

    Crédit: Focal Foto,2023

    Conversation avec ChatGPT

    Prompt #1: Voici une lettre de mission de la ministre de l’enseignement superieur et de la recherche: Les deux dernières décennies ont été marquées par des transformations majeures qui ont conduit à l’émergence d’acteurs plus autonomes et maîtres de leur stratégie de recherche, à des politiques de site renforcées. a ministre, Madame Retailleau, a missionné Philippe Gillet sur « les évolutions de l’écosystème national de la recherche et de l’innovation », il s’agit justement de « poursuivre et renforcer ce qui a été mis en place à travers les PEPR ». Et dans cette logique la lettre de mission met en avant la « notion d’agences de programmes ». Que contiendra le rapport écrit en réponse à la lettre de mission?

    ChatGPT

    Le rapport écrit en réponse à la lettre de mission abordera les différentes dimensions de l’écosystème national de la recherche et de l’innovation, en se concentrant sur les évolutions et les améliorations possibles. Voici quelques éléments clés que le rapport pourrait inclure :

    1. Analyse de l’écosystème actuel : Le rapport dressera un état des lieux de l’écosystème national de la recherche et de l’innovation, en examinant les acteurs impliqués, les politiques en place et les résultats obtenus au cours des dernières décennies. Il identifiera les forces et les faiblesses de l’écosystème existant.
    2. Renforcement des acteurs autonomes : Le rapport mettra en avant l’émergence d’acteurs plus autonomes et maîtres de leur stratégie de recherche. Il proposera des mesures pour renforcer cette autonomie, en favorisant la collaboration entre les institutions de recherche, les universités, les entreprises et les organismes publics.
    3. Politiques de site renforcées : Le rapport examinera les politiques de site mises en place et évaluera leur efficacité. Il formulera des recommandations pour renforcer ces politiques, notamment en encourageant la spécialisation et la complémentarité des sites de recherche, en favorisant les synergies entre les acteurs locaux et en renforçant les partenariats public-privé.
    4. Les Plans d’Ensemble Pluriannuels de la Recherche (PEPR) : Le rapport évaluera l’impact des PEPR et proposera des mesures pour poursuivre et renforcer ce qui a été mis en place à travers ces plans. Il examinera la pertinence des priorités fixées, l’allocation des ressources et les mécanismes de suivi et d’évaluation.
    5. Notion d’agences de programmes : Le rapport explorera la notion d’agences de programmes dans le contexte de l’écosystème national de la recherche et de l’innovation. Il analysera les avantages potentiels de la création de telles agences, en termes de coordination, de financement ciblé et de promotion de la recherche de pointe. Il proposera des recommandations sur la manière de mettre en place ces agences et de les intégrer efficacement dans le paysage de la recherche et de l’innovation.

    Le rapport fournira également des données statistiques, des exemples de bonnes pratiques nationales et internationales, ainsi que des propositions concrètes pour améliorer l’écosystème de la recherche et de l’innovation en réponse aux orientations de la lettre de mission.

    Commentaire : Dans cette première réponse, ChatGPT utilise les bons éléments de langage, mais il se contente de rappeler des définitions de termes (tout en se trompant sur la signification de l’acronyme PEPR) et fait beaucoup de recommandations génériques (analyser, explorer, examiner, faire un état des lieux, faire des recommandations) qui valent pour n’importe quel rapport sur n’importe quoi. Ce n’est pas cela que doit contenir le rapport. Il faut lui demander de creuser.
    Prompt #2: que pourraient être ces propositions concrètes ?

    ChatGPT

    Voici quelques exemples de propositions concrètes qui pourraient être incluses dans le rapport :

    1. Renforcement de la coopération interinstitutionnelle : Encourager les collaborations entre les institutions de recherche, les universités et les entreprises en facilitant l’échange d’expertise, de ressources et de bonnes pratiques. Mettre en place des incitations et des mécanismes de soutien financier pour promouvoir les partenariats public-privé.
    2. Développement de pôles d’excellence : Identifier et soutenir les domaines de recherche où la nation peut se positionner en tant que leader mondial. Investir dans ces pôles d’excellence en fournissant des ressources supplémentaires, en favorisant le recrutement de talents et en établissant des infrastructures de pointe.
    3. Accroissement des financements compétitifs : Augmenter les financements alloués à la recherche et à l’innovation par le biais de programmes compétitifs. Encourager les chercheurs et les institutions à participer à des appels à projets, en mettant l’accent sur l’excellence scientifique, l’impact socio-économique et la collaboration internationale.
    4. Renforcement du transfert de technologie : Mettre en place des mécanismes pour faciliter le transfert des connaissances et des technologies issues de la recherche vers le secteur privé. Encourager les partenariats entre les chercheurs et les entreprises, promouvoir la création d’entreprises innovantes et simplifier les procédures de valorisation de la recherche.
    5. Promotion de la recherche interdisciplinaire : Encourager la collaboration entre les différentes disciplines scientifiques en soutenant la recherche interdisciplinaire. Créer des incitations pour les chercheurs à travailler ensemble sur des projets transversaux et favoriser l’émergence de nouvelles approches et découvertes grâce à cette synergie.
    6. Renforcement des mécanismes d’évaluation et de suivi : Améliorer les processus d’évaluation et de suivi de la recherche et de l’innovation. Mettre en place des critères clairs pour évaluer l’impact et la qualité des projets de recherche, et utiliser ces évaluations pour allouer les financements de manièr plus efficace.
    7. Promotion de la mobilité des chercheurs : Encourager la mobilité internationale des chercheurs en facilitant les échanges, les collaborations et les séjours de recherche à l’étranger. Mettre en place des programmes de bourses et des infrastructures de soutien pour promouvoir la mobilité et l’échange d’idées.

    Ces propositions sont données à titre d’exemples et peuvent varier en fonction des besoins et des spécificités de chaque pays. Le rapport pourrait également inclure des recommandations sur les modalités de mise en œuvre de ces propositions, les ressources nécessaires et les indicateurs de suivi et d’évaluation.

    Commentaire : cette fois-ci, ChatGPT a fait des recommandations qui pourraient effectivement être mises dans le rapport. Cependant, les mots “ces propositions..  peuvent varier en fonction… des spécificités de chaque pays” montrent que ce serait un rapport avec des recommandations génériques pour la recherche, mais pas spécialement en France. Voyons si on peut obtenir quelque chose de plus précis.
    Prompt #3: Ce serait spécifiquement pour la France.

    ChatGPT

    Bien sûr, en prenant en compte le contexte français, voici quelques propositions concrètes spécifiques à l’écosystème de recherche et d’innovation en France :

    1. Renforcement du financement de la recherche : Accroître les investissements publics dans la recherche et l’innovation afin d’atteindre les objectifs fixés, notamment en augmentant les budgets alloués aux organismes de recherche tels que le CNRS, l’INSERM, et le CEA.
    2. Simplification des procédures administratives : Réduire la bureaucratie et simplifier les procédures administratives liées aux demandes de financement et aux projets de recherche, afin de libérer plus de temps et de ressources pour la recherche effective.
    3. Promotion de la recherche collaborative : Encourager les collaborations entre les organismes de recherche, les universités et les entreprises en facilitant les partenariats et en mettant en place des incitations pour les projets de recherche collaborative. Favoriser la création de consortiums de recherche public-privé
      pour stimuler l’innovation.
    4. Renforcement de la recherche fondamentale : Reconnaître l’importance de la recherche fondamentale en tant que socle de l’innovation et de la découverte scientifique. Allouer des ressources supplémentaires aux laboratoires de recherche fondamentale et favoriser la liberté académique des chercheurs.
    5. Développement de structures de soutien à l’innovation : Mettre en place des structures dédiées au soutien à l’innovation, telles que des incubateurs et des accélérateurs, pour accompagner les chercheurs et les entrepreneurs dans le processus de transfert de technologie et de création d’entreprises.
    6. Renforcement de l’attractivité des carrières scientifiques : Mettre en œuvre des mesures visant à attirer et à retenir les talents scientifiques, tels que l’augmentation des salaires des chercheurs, l’amélioration des conditions de travail et la création de perspectives de carrière attractives.
    7. Internationalisation de la recherche : Favoriser la participation des chercheurs français à des collaborations internationales, en encourageant les échanges, les partenariats et la mobilité des chercheurs à l’échelle mondiale. Développer des programmes spécifiques pour attirer des chercheurs étrangers de haut niveau en France.

    Ces propositions sont des exemples qui pourraient être envisagés pour renforcer l’écosystème national de la recherche et de l’innovation en France. Elles nécessitent une analyse plus approfondie et une évaluation de leur faisabilité et de leur impact potentiel, ainsi que des discussions plus larges avec les parties prenantes concernées pour définir les mesures les plus adaptées à la situation spécifique du pays.

    Commentaire : cette fois-ci c’est spécifique à la France. On voit apparaître les noms des trois plus grands organismes de recherche français (CNRS, CEA, INSERM), la bureaucratie est identifiée comme un problème, etc. Il est intéressant de comparer dans ses grandes lignes cette réponse avec la précédente ! Mais en fait c’est plus un plan de rapport qu’un rapport complet, et il faudrait développer chaque partie. (Je note cependant que la dernière phrase est obsolète car des programmes spécifiques pour attirer des chercheurs étrangers ont été développés depuis quelques années.) Je choisis le point 2 (simplification des procédures administratives, un sujet dont nous avons discuté au CS du CNRS) et lui demande de le développer.
    Prompt #4: Concrètement comment simplifier les procédures administratives ?

    ChatGPT

    Pour simplifier les procédures administratives dans le domaine de la recherche et de l’innovation, voici quelques mesures concrètes qui pourraient être prises en compte en France :

    1. Rationalisation des formulaires et des demandes de financement : Simplifier et harmoniser les formulaires de demande de financement afin de réduire la charge
      administrative pour les chercheurs et les équipes de recherche. Éviter les redondances et les exigences excessives en matière de documentation.
    2.  Centralisation des processus administratifs : Mettre en place des structures centrales ou des guichets uniques chargés de la gestion administrative des projets de recherche. Cela permettrait de regrouper les demandes, les rapports et les procédures de suivi au sein d’une seule entité, réduisant ainsi les démarches pour les chercheurs.
    3. Utilisation des technologies numériques : Développer des plateformes umériques conviviales et intuitives pour la soumission en ligne des demandes de financement, le suivi des projets et la communication avec les organismes de recherche. Automatiser les processus lorsque cela est possible pour réduire les délais et les erreurs.
    4. Simplification des règles de gestion financière : Clarifier et simplifier les règles de  gestion financière applicables aux projets de recherche, en tenant compte des  spécificités de la recherche scientifique. Réduire les contraintes administratives  iées à la justification des dépenses et faciliter la gestion des budgets alloués.
    5. Formation et assistance aux chercheurs : Fournir une formation et un soutien adéquats aux chercheurs sur les procédures administratives, les règles de  financement et les exigences documentaires. Mettre à leur disposition des ressources en ligne, des guides pratiques et des personnes-ressources pour les accompagner dans leurs démarches administratives.
    6. Évaluation des pratiques administratives : Réaliser des évaluations régulières des pratiques administratives en place pour identifier les points de blocage et les sources de complexité. Réviser et adapter les procédures en fonction des retours d’expérience des chercheurs et des gestionnaires de projet.
    7. Coordination interinstitutionnelle : Promouvoir la coordination et la coopération la gestion des projets de recherche. Faciliter les échanges d’informations et la mutualisation des bonnes pratiques pour harmoniser les procédures administratives.

    Ces mesures visent à réduire la bureaucratie et à simplifier les procédures administratives pour les chercheurs et les équipes de recherche, afin de leur permettre de se concentrer davantage sur leurs travaux scientifiques. Il est important de mener une analyse approfondie des processus existants et de travailler en étroite collaboration avec les parties prenantes pour mettre en œuvre ces mesures de simplification de manière efficace.

    Commentaire : tout ceci semble de bon sens. Pour voir s’il est capable de remplir ces sections en les développant de façon plus détaillée, je choisis une de ses propositions, la réduction des contraintes administratives liées à la justification des dépenses (car je sais que des collègues ne se font pas rembourser certaines choses simplement parce que c’est administrativement trop compliqué) et lui demande de la développer.
    Prompt #5: Peux-tu donner un exemple de réduction des contraintes administratives liées à la justification des dépenses ?

    ChatGPT

    Certainement ! Voici un exemple concret de réduction des contraintes administratives liées à la justification des dépenses dans le contexte de la recherche :

    Actuellement, les chercheurs doivent souvent fournir de nombreuses pièces ustificatives détaillées pour chaque dépense effectuée dans le cadre d’un projet de recherche. Cela peut inclure des factures, des reçus, des rapports de dépenses détaillés, des autorisations spécifiques, etc. Cette procédure peut être chronophage et complexe, entraînant une charge administrative supplémentaire pour les chercheurs  Pour simplifier cette procédure, une approche pourrait consister à mettre en place une méthode simplifiée de justification des dépenses basée sur des seuils prédéfinis. Par exemple :

    1. Seuils de dépenses : Établir des seuils de dépenses en fonction de la nature des dépenses et de leur montant. Par exemple, un seuil de 100 euros pour les petites dépenses courantes et un seuil de 500 euros pour les dépenses plus importantes
    2.  Justification simplifiée pour les petites dépenses : Pour les dépenses en dessous du seuil prédéfini (par exemple, 100 euros), les chercheurs pourraient être dispensés de fournir des pièces justificatives détaillées. Ils pourraient simplement déclarer la nature générale de la dépense et son montant total dans un rapport de dépenses global.
    3. Justification allégée pour les dépenses intermédiaires : Pour les dépenses situées entre les seuils prédéfinis (par exemple, entre 100 et 500 euros), une justification simplifiée pourrait être demandée. Il pourrait s’agir de fournir un justificatif de paiement, tel qu’un relevé de carte de crédit, une facture récapitulative ou une note de frais résumée.
    4. Justification complète pour les grandes dépenses : Les dépenses dépassant le seuil prédéfini le plus élevé (par exemple, 500 euros) pourraient nécessiter une justification complète et détaillée, conformément aux procédures existantes. Cette approche permettrait de réduire la charge administrative liée à la justification des dépenses de faible montant, tout en conservant des mécanismes de contrôle pour les dépenses plus importantes. Cela permettrait aux chercheurs de consacrer plus de temps à leurs travaux de recherche et de réduire la complexité administrative associée à chaque dépense.

    Il est important de noter que la mise en place d’une telle approche nécessite une évaluation minutieuse des risques et des implications financières, ainsi qu’une adaptation des politiques et des procédures existantes en matière de justification  des
    dépenses.

    Commentaire : Alors là, je suis bluffée. C’est concret, pertinent, réaliste. Rien à dire. Il n’y aurait plus qu’à faire le même travail de prompts qui demandent des détails sur chacun des points, en le guidant lorsque ses suggestions ne me plaisent pas ou ne correspondent pas aux orientations suggérées par la lettre de mission (que pour bien faire j’aurais du recopier en entier), et j’ai l’impression que cela mènerait à un rapport complet et utilisable.

    Conclusion

    Comment a-t-on pu arriver à une telle qualité ? Pour répondre à mes demandes, ChatGPT se promène dans un espace mathématique dont les liens ont été préalablement construits par l’analyse d’un très grand nombre de documents.

    Dans ma première question, j’ai essayé de donner un contexte qui lui ferait se positionner dans une région particulière de l’espace mathématique : la région qui, à ce que j’imagine, est occupée par des bouts de textes de documents et rapport administratifs sur la recherche française. Les deux questions suivantes ont permis de préciser le contexte pour mieux le positionner.

    Une fois cela réussi, ChatGPT s’est mis à construire ses réponses en s’inspirant de bouts de phrases qui se trouvent dans cette zone de l’espace. C’est un peu comme si j’avais lu tout un ensemble de rapports, projets, propositions sur l’évolution de la recherche en France, et que j’en eusse extrait un texte synthétisant une partie de ce qui s’y trouvait. Mais au lieu de passer des semaines ou des mois à ce travail de collecte et d’analyse de l’information, j’ai laissé ChatGPT s’en charger.

    Pour obtenir en quelques heures un rapport complet, il faudra continuer à poser des questions pour développer chaque élément, en corrigeant le tir lorsque la direction prise ne convient pas, et en évitant de remonter à un niveau de généralité qui produirait des recommandations inutiles. Il faudra pour cela acquérir l’art de poser des bonnes questions de façon à obtenir de bonnes réponses.

    Cette méthode n’est pas exempte de dangers : d’une part, ChatGPT se base sur les documents produits avant 2021, ce qui peut l’amener à faire des suggestions obsolètes qui ne seraient plus à l’ordre du jour ; d’autre part, même si je peux par mes questions orienter et guider le rapport vers les pistes qui m’intéressent le plus, c’est ChatGPT qui fait les suggestions de recommandations, et il peut très bien ne pas mentionner quelque chose qui se trouve dans l’un ou l’autre des documents et qui m’aurait plu si j’en avais connu l’existence, mais qui est trop marginal pour être facilement repéré par le radar de ChatGPT. (Cela dit, un travail personnel classique risquerait aussi de passer à côté, faute de temps pour tout lire). De plus, il y a un risque de plagiat : par exemple, la dernière suggestion de ChatGPT, avec une procédure à base de seuils, est si précise qu’on peut se demander si elle n’a pas été copiée à partir d’un document particulier.

    Étant donné la façon dont ChatGPT procède, il n’y aura probablement pas de création, d’idée complètement nouvelle. Il n’en demeure pas moins qu’il est désormais possible pour moi de court-circuiter le travail de lecture, d’assimilation, de sélection, et de synthèse des travaux existants sur la réforme de la recherche en France, pour obtenir en quelques heures un rapport utilisable et qui, grâce à mes questions qui guident ChatGPT dans son exploration, reflètera cependant jusqu’à un certain point es priorités et ma perspective.

    Évidemment, même avec l’aide de ChatGPT, je ne peux pas produire ainsi un rapport intéressant sur n’importe quel sujet : j’utilise ma propre connaissance du domaine pour orienter mes questions et sélectionner parmi les réponses de ChatGPT ce qui me semble le plus pertinent dans la construction du rapport.

    En m’appuyant sur ChatGPT pour produire un rapport, je ne me serai pas instruite comme je l’aurais fait par l’approche traditionnelle, mais j’aurai gagné énormément de temps. C’est trop tentant pour ne pas être mis en application partout ce gain de temps est significatif. Ainsi, cet exemple d’utilisation montre que ChatGPT risque de transformer certaines activités professionnelles qui jusqu’à présent étaient à l’abri des transformations technologiques : par exemple, à l’Assemblée Nationale il pourrait être envisageable de réduire le nombre de collaborateurs parlementaires ; et dans les ministères, les onéreux rapports d’experts demandés à des consultants tels que McKinsey pourraient être remplacés par quelques heures de conversation gratuite avec ChatGPT. Cela permettrait de faire des économies substantielles, pour un résultat qui pourrait en moyenne se révéler tout aussi bon ou même supérieur. On ne regrettera pas la disparition des cabinets de conseils.

    Claire Mathieu, CNRS

    1. L’autrice a transmis la version complète de l’échange qu’elle a obtenu de ChatGPT, sans en corriger les coquilles ortho-typographiques. Nous reproduisons le document “Utiliser ChatGPT” .pdf en htlm par souci d’accessibilité. [↩]
  • Robotinationer avec les Pti’Debs c’est le pied !

    Les associations des Petits Débrouillards  forment un mouvement associatif international d’éducation populaire à la culture scientifique et technique,  mettant la pédagogie active et la démarche scientifique au centre des méthodes de médiation. Et quand un chercheur Inria va participer à une de ses actions, il revient avec un tel enthousiasme qu’il a envie de partager cette rencontre au sein d’un quartier. Témoignage en images. Marie-Agnès Enard et Pascal Guitton .

    Il est 8h30, je suis un chercheur en informatique depuis des années, et ce mercredi je vais aller aider deux animatrices scientifiques qui vont proposer à des enfants de construire des petits robots en carton recyclé pour commencer à comprendre la robotique et la pensée informatique.|

    (voir la présentation de l’atelier sur ce lien et le site d’une des animatrices).

    Je suis en plein cœur de la vieille ville de Grasse, si jolie, et je cherche le Café des Roses, Place aux Herbes, un peu perdu. Une devanture est ouverte, juste à côté de la fontaine et des maisons de pierre du XIXème, où c’est jour de marché alimentaire. Ce n’est ni un commerce, ni une entreprise, juste un lieu ouvert avec des tables et de quoi s’asseoir, quelques jeux de société, et des jeux pour enfants, et de quoi offrir le café. J’y demande mon chemin, et la jeune femme qui accueille me sourit : en fait, je suis arrivé.

    Dans quelques minutes elle saura que je me nomme Thierry et elle Zoulikha; non elle ne connaît ni la chanteuse algérienne, ni la poétesse féministe du même prénom, oui son prénom a une signification (belle et bien portante, me dira le web) comme tous les prénoms de ces parties du monde de la chine aux amériendien·ne·s, mais elle ne s’en est jamais soucié. Elle anime ce lieu pour toutes et tous, de tous âges et de tout milieux, et propose qu’on installe notre atelier de culture scientifique … sur la place, en pleine rue.

    Ça on l’avait jamais fait. Aucun boucher d’un marché n’avait eu la gentillesse de pousser son camion de quelques centimètres pour qu’on installe les tables, les kits pédagogiques et les outils à utiliser. On avait pas encore juste attendu que les enfants passent sur la voie publique, jusqu’à être une bonne douzaine, que la petite sœur fasse venir la grande et son frère, qu’une autre maman installe la grand-mère au milieu des enfants pour s’initier avec nous, qu’une gentille dame atypique découvre pouvoir construire un robot et s’amuser comme une enfant de sa réussite, que des touristes finlandais et flamands viennent se faire expliquer l’approche pédagogique (voir cet article de présentation) et saluent que ces kits robotiques soient essentiellement fait de matériel recyclés (à part moins de 3€ de composants électriques), ou qu’une responsable de l’IME local note devoir nous recontacter pour élargir les publics que nous avons le plaisir de toucher, avec ces actions de médiation scientifique ultra simplifiées : à destination des publics qui sauraient moins profiter des ressources plus élaborées, qu’on partage usuellement depuis des années.

    Aucun angélisme de notre part, dans ce quartier où choukrane (شكرا) veut plus souvent dire merci que thank-you, et où nos animatrices franco-portugaise et d’origine brésilienne ont découvert que le portugais cap-verdien est suffisamment éloigné du leur pour que ce soit, avec bonheur, à travers des gestes et quelques mots-clés que l’activité a pu être partagée. Beaucoup d’autres sont simplement venu·e·s voir, glanant juste une explication ou repartant seulement avec un mini grain de science, surpris que soit facile à piger. Il y a aussi celles et ceux qui ne se sont pas arrêté, parce que la science ne pouvait définitivement pas les concerner, dégoûté peut-être, ou ne pouvant oser essayer, et cet (unique, en une matinée) jeune qui passait et qu’il a fallu gentiment rattraper pour qu’il ne parte pas avec un des outils.

    Il est midi, au pied de la fontaine qui, avec sa grosse coupe de fruits sculptée au sommet, surplombe la douzaine de petits robots qui zigzaguent sur le sol pavé en une danse saccadée, dans les rires et les hourras des enfants de tous âges, qui ont toutes et tous réussi l’atelier.

     

     

     

     

     

    Tout ça n’était qu’une petite goutte d’eau, il faudrait tellement plus pour que la France, bleue blanc rouge, multi-colore ou arc en ciel, se rassemble pour mieux comprendre le monde numérique auquel personne ne peut échapper, sans juste le consommer ou le subir. Heureusement, demain, et tous les jours à venir, sur place, les Pti’Debs sont là, comme Benoit ou Soledad, au contact pérenne de ces jeunes pour les emmener de la médiathèque à la conviction que la science c’est aussi pour elle et eux dans un monde qu’eils peuvent maîtriser, et y bâtir leur avenir.

    Une rencontre avec un lieu et avec des personnages parfois insolites … aux Petits Débrouillards,   Albert Jacquard a développé cette vision de « l’art de la rencontre » avec la diffusion de la culture scientifique comme un partage, une collaboration, comme il en parle ici, à la radio ou comme on lit à travers cet hommage. Une telle rencontre telle qu’il l’a décrite, par le biais des sciences, apporte une dimension supplémentaire qui nous fait découvrir l’autre avec empathie, par le truchement de ce partage d’un bout de sciences.

    Benoit de Ricaud, Animateur aux Petits Débrouillards, Thierry Viéville, chercheur Inria.

  • Le logiciel libre, l’open source et l’Etat. Échange avec Stefano Zacchiroli

    Professeur en informatique à l’école Télécom Paris de l’Institut Polytechnique de Paris, Stefano Zacchiroli revient dans cet entretien sur les caractéristiques du logiciel libre qui en font un mouvement social de promotion des libertés numériques des utilisateurs. Nous publions cet entretien dans le cadre de notre collaboration avec le  Conseil national du numérique qui l’a réalisé.

    Ce texte est proposé par le Conseil National du Numérique et nous le co-publions conjointement ici, dans le cadre de notre rubrique sur les communs numériques.

    Qu’entendons-nous par les termes de logiciel libre et open source ? Quels mouvements portent-ils ?

    Le mouvement des logiciels libres vient principalement des sciences et des universités, où l’esprit de partage existe depuis la nuit des temps avant même l’arrivée de l’informatique. Bien avant l’utilisation du terme “logiciel libre”, les scientifiques se sont naturellement mis à partager les codes sources des modifications logicielles qu’ils faisaient sur leur ordinateurs pour les faire fonctionner.

    Autour des années 1980, cette pratique a été interprétée comme un mouvement de libération des droits des utilisateurs de logiciels, notamment grâce à Richard Stallman, ingénieur américain, qui a inventé le terme Free Software. L’idée de cette vision éthique et philosophique de pratiques qui existaient déjà est qu’il ne doit pas y avoir d’asymétrie entre les droits qu’ont les producteurs des logiciels (c’est à dire les développeurs aujourd’hui) et les utilisateurs de ces logiciels. Ce mouvement s’articule notamment autour des 4 libertés du logiciel libre promues par la Free Software Foundation fondée par Richard Stallman : la liberté d’utiliser le logiciel, celle de l’étudier, celle de re-distribuer des copies du logiciel et et enfin celle de le modifier et de publier ses versions modifiées. Si l’utilisateur bénéficie de ces libertés, alors il a les mêmes droits, voire le même pouvoir, que leurs créateurs sur les logiciels qu’il utilise.

    Quelques années plus tard, un autre mouvement est apparu : celui de l’open source. Ce dernier a la particularité d’adopter une stratégie marketing afin de promouvoir les idées du logiciel libre sous l’angle le plus intéressant aux yeux de l’industrie du logiciel. À l’inverse du mouvement porté par Richard Stallman, l’objectif n’est pas de porter un message de libération des droits des utilisateurs, mais de montrer que le développement de logiciels de manière collaborative, à l’instar du logiciel libre, est économiquement et techniquement plus efficace. En mobilisant des cohortes de développeurs issus des quatre coins du monde, on répond beaucoup plus rapidement aux besoins des utilisateurs. Si le code source d’un logiciel est libre, il sera mis à disposition de tous et tout développeur intéressé peut y contribuer pour tenter de l’améliorer, et ce de façon totalement gratuite. À l’inverse, le code source d’un logiciel propriétaire ne sera accessible qu’à son créateur et seul ce dernier pourra le modifier. Cette stratégie a très bien fonctionné et a été adoptée par les entreprises de l’informatique qui ont donné accès aux parties les moins critiques de leurs logiciels pour permettre à des bénévoles d’y contribuer, gagnant ainsi en souplesse de développement et en efficacité.

    D’un côté, on a donc un mouvement axé sur les libertés numériques et de l’autre, une stratégie axée sur l’optimisation et la réduction des coûts. Toutefois, quand bien même ces distinctions idéologiques sont bien présentes, les différences pratiques ne sont pas si nettes. En effet, les listes des licences de logiciels tenues par les organismes de chaque mouvement, la Free Software Foundation pour les logiciels libres, et l’Open Source Initiative pour l’open source, sont quasi identiques.

    Quelles sont les différences pratiques entre un logiciel libre et un logiciel propriétaire ?

    Les libertés garanties par le logiciel libre existent précisément parce que la plupart des logiciels propriétaires ne les assurent pas. Prenons en exemple 3 des libertés promues par le mouvement du logiciel libre.

    À première vue, la liberté de modifier le logiciel ne concerne pas les utilisateurs non aguerris, qui n’ont ni le temps ni les compétences pour le faire, ce qui est non sans lien avec une vision un peu élitiste à l’origine du mouvement. Il s’agit alors de donner les droits aux utilisateurs techniquement compétents pour les appliquer. En général, ce sont de grands utilisateurs comme les entreprises ou les administrations publiques qui trouvent un intérêt à modifier le code des logiciels qu’elles utilisent. C’est même très stratégique pour elles car sans cette liberté, elles ne peuvent pas adapter l’outil à leurs besoins et sont dépendantes des choix de leur fournisseur, voire ne peuvent pas en choisir d’autres. En économie c’est ce qu’on appelle un effet de lock in (verrouillage en français) : un client est bloqué par un fournisseur qui est le seul pouvant fournir un service spécifique. Malgré tout, cette liberté de modifier représente tout de même un intérêt pour les utilisateurs sans compétence technique. S’ils expriment un besoin d’ajustement, un développeur (potentiellement leur prestataire) pourra toujours modifier le code pour l’adapter à leurs besoins. Dans le cas d’un logiciel propriétaire, c’est strictement impossible et l’utilisateur devra attendre que le fournisseur prenne en compte ses demandes.

    La liberté d’utilisation existe ensuite pour contrer la tendance des logiciels propriétaires à restreindre l’utilisation à une seule application. Le logiciel n’est alors utilisable que sur une machine prédéfinie et nulle part ailleurs. Quand il est libre, on peut utiliser le logiciel absolument comme on le souhaite, même pour le mettre en concurrence.

    La liberté d’étudier les codes est quant à elle importante dans notre société pour des raisons de transparence. Avec un logiciel propriétaire, nous ne pouvons jamais être certains que les données transmises sur son fonctionnement sont actuelles ou complètes. C’est exactement la question qui se pose sur le prélèvement des données personnelles par les grandes entreprises. Avec un logiciel libre, nous avons un accès direct à son code, nous permettant de l’étudier, ou de le faire étudier par un expert de confiance.

    Comment et pourquoi les grandes entreprises du numérique sont attachées aux logiciels libres ?

    À l’origine, le mouvement du logiciel libre n’était pas vu d’un très bon œil par le monde industriel de l’informatique. En effet, à l’époque se développait toute une industrie du logiciel dont le modèle économique était fondé sur la vente de copies de logiciels propriétaires. La seule manière d’utiliser un logiciel était alors de le charger sur sa machine via une cassette puis une disquette et un CD-Rom que les entreprises vendaient à l’unité. L’écosystème du libre qui promouvait la copie gratuite mettait ainsi à mal ce modèle économique.

    La situation a depuis changé. De moins en moins de logiciels sont exploités directement sur nos machines : aujourd’hui, la plupart s’exécute sur des serveurs loin de chez nous, c’est ce qu’on appelle le cloud computing (en français informatique en nuage). L’enjeu n’est désormais plus de garder secret les codes des logiciels installés chez les utilisateurs mais de protéger ceux des serveurs sur lesquels sont stockées les données récoltées. Les entreprises ouvrent alors le code de certaines de leurs technologies qui ne sont plus stratégiques pour leur activité. Par exemple, les entreprises ont pu ouvrir les codes sources de leur navigateur web car elles ne fondent pas leur modèle économique sur leur vente, mais sur la vente des services auxquels on accède via ces navigateurs web.

    Il est cependant important de relever que ces grandes entreprises du numérique gardent bien souvent le contrôle sur le développement des projets open source qu’elles lancent. Par exemple, Google a lancé un projet open source appelé Chromium sur lequel s’appuie son navigateur web phare Chrome. Les contributeurs de Chromium sont en réalité en grande majorité des employés de Google. Même si un développeur peut modifier à sa guise sa version de Chromium, en ajoutant plus de modules pour protéger sa vie privée par exemple, il n’y a que très peu de chance que ses changements soient acceptés dans la version officielle. Cela permet à Google de garder la mainmise sur la direction stratégique du projet open source.

    On sait aujourd’hui que les logiciels libres ont pu contribuer à l’implémentation des monopoles des grandes entreprises du numérique1 : en libérant le code source de cette technologie, ces entreprises vont chercher à la diffuser au maximum pour la rendre populaire et affirmer un standard sur le marché, pour ensuite vendre un service connexe. Dès lors, pour dépasser ces monopoles, les logiciels libres sont nécessaires mais ne suffisent pas. Même si l’on avait accès à tous les codes sources des services de ces entreprises, il n’est pas sûr que l’on soit capable d’opérer des services de la même qualité et interopérables sans avoir la même masse de données.

    L’Etat a-t-il un rôle à jouer pour diffuser l’utilisation des logiciels libres ?

    « Il est essentiel que l’Etat investisse cette question pour créer une dynamique économique dans laquelle des entreprises recrutent et rémunèrent les développeurs du logiciel libre. »

    La réponse dépend des échelles. Au niveau de logiciels de petite taille, il y a énormément de solutions et de modèles économiques qui utilisent exclusivement du logiciel libre et qui fonctionnent très bien. Par exemple, de nombreuses entreprises en France proposent des cloud privés open source qui hébergent des services de calendrier partagé, partage de fichiers, vidéoconférences, etc ; des outils devenus indispensables pour les entreprises et les administrations. Comme les solutions existent, il faut que l’Etat marque fermement sa volonté politique de choisir un fournisseur de solutions libres plutôt que de se tourner vers des solutions propriétaires. Il est néanmoins nécessaire de s’assurer d’avoir les compétences en interne pour maintenir le logiciel et garantir la pérennité de ses choix. En France, il existe de nombreux exemples d’acteurs ayant franchi le pas : dans mon travail je constate que beaucoup d’universités utilisent des solutions libres, notamment pour leur environnement de travail. Dès qu’on se tourne vers des solutions de plus grande envergure, cela se complique. Nous avons les compétences en termes de qualités qui ne sont toutefois pas suffisantes en termes de quantité pour rivaliser sur des services d’aussi grande échelle que les services de messagerie électronique comme Gmail par exemple. Il nous faut alors renforcer la formation pour fournir plus d’ingénieurs sur le marché.

    « Si historiquement les logiciels libres ne concernaient qu’une partie relativement petite de la population, aujourd’hui tout le monde est concerné. »

    Finalement, il est essentiel que l’Etat investisse cette question pour créer une dynamique économique dans laquelle des entreprises recrutent et rémunèrent les développeurs du logiciel libre. On ne peut plus faire peser la charge du passage à l’échelle seulement sur des bénévoles. Si l’État insiste dans ses demandes d’achat de service pour n’avoir que des solutions libres, cela va potentiellement créer un marché de fournisseurs de services autour des logiciels libres qui vont recruter dans le domaine.

    L’Etat est conscient de l’importance et de la nécessité de sa transition vers le logiciel libre, mais son adoption concrète reste aujourd’hui limitée. En France, nous sommes très avancés sur la réflexion stratégique des problématiques du numérique, mais il faudrait maintenant plus de volonté pour faire passer ces réflexions stratégiques à l’acte. Nous pouvons le faire, cela a déjà été fait dans le passé dans plusieurs secteurs et il s’agit d’un vrai enjeu de souveraineté. Si historiquement les logiciels libres ne concernaient qu’une partie relativement petite de la population, aujourd’hui la totalité de population est concernée. L’Etat doit s’en servir pour guider toute décision technique dans le futur et faire du logiciel libre sa norme.

    1 Pour aller plus loin : Le pillage de la communauté des logiciels libres, Mathieu O’Neil, Laure Muselli, Fred Pailler & Stefano Zacchiroli, Le Monde diplomatique, janvier 2022

  • Le CNNum et le blog Binaire explorent ensemble les communs numériques

    Partageant l’ambition de questionner et d’éclairer la réflexion autour des enjeux du numérique, le Conseil national du numérique et le blog Binaire du Monde s’associent pour construire une collection d’entretiens sur les communs numériques.

    Le Conseil national du numérique étudie depuis plusieurs mois les enjeux liés aux communs numériques, de la philosophie aux modèles économiques, en passant par l’engagement des acteurs et les relais du secteur public. Fidèle à sa méthode ouverte et collective, il réalise dans ce cadre des entretiens avec des experts, disponibles sur ce lien.

    Depuis janvier 2021, le blog de vulgarisation sur l’informatique Binaire du Monde consacre de nombreux entretiens aux communs numériques. Académiciens, acteurs publics, militants partagent leur expérience dans des articles aussi instructifs que variés et donnent plusieurs clés pour appréhender au mieux tout le potentiel des communs numériques.

    Dans le cadre de cette collaboration, nous publions pour la première fois de manière conjointe un entretien réalisé avec Vincent Bachelet, doctorant en droit privé à l’université Paris-Saclay. Le chercheur nous y livre plusieurs pistes de réflexion sur la façon dont l’économie solidaire et sociale peut participer à la structuration et la valorisation des projets de communs numérique. Profitez de cette lecture sur Binaire ou sur le site du Conseil.

    N’hésitez pas à parcourir les différents entretiens publiés :
    – dans la rubrique Communs numériques du blog Binaire en cliquant ici !
    – sur le site du Conseil national du numérique en cliquant ici !

    Vous connaissez des experts et souhaiteriez voir leur parole relayée ? Vous pouvez envoyer des suggestions à info@cnnumerique.fr ou binaire-editeurs@inria.fr.

    À propos du Conseil national du numérique : Créé en 2011, le Conseil national du numérique est une instance consultative indépendante chargée de conduire une réflexion ouverte sur la relation complexe des humains au numérique. Son collège interdisciplinaire est composé de membres bénévoles nommés pour deux ans par le Premier ministre aux domaines de compétences variés (sociologue, économiste, philosophe, psychologue, anthropologue, informaticien, avocat, journaliste…) et de parlementaires désignés par les présidents de l’Assemblée nationale et du Sénat.

    À propos de Binaire : binaire est un blog de vulgarisation sur l’informatique, indépendant, tenu par des académiques, qui parle aussi bien de la technologie que de la science, d’enseignement, de questions industrielles, d’algorithmes rigolos, d’algorithmes pas rigolos, de gentilles data, de méchants bugs, bref, de tous les sujets en lien avec le monde numérique qui nous entoure.

     

  • Économie sociale et solidaire et communs

    Doctorant en droit privé à l’université Paris-Saclay, Vincent Bachelet décrit comment les outils juridiques existants, notamment issus de l’économie sociale et solidaire, peuvent participer à la structuration et la valorisation des projets de communs numériques. Nous publions cet entretien dans le cadre de notre collaboration avec le  Conseil national du numérique qui l’a réalisé.

    Ce texte est proposé par le Conseil National du Numérique et nous le co-publions conjointement ici, dans le cadre de notre rubrique sur les communs numériques.

    Pourquoi rapprocher le monde des communs numériques avec celui de l’économie sociale et solidaire ?
    Le rapprochement entre l’économie sociale et solidaire (ESS) et les communs numériques était presque évident. Déjà parce que les deux poursuivent le même objectif, à savoir repenser l’organisation de la production et sortir de la pure logique capitaliste du marché. Aux côtés des logiciels libres et de l’open source, les communs numériques participent en effet à un mouvement venant repenser notre manière d’entreprendre le numérique. S’ils se rejoignent dans l’ambition de redéfinir le droit d’auteur par l’utilisation de licences inclusives et non exclusives, chacun de ces trois termes désignent des réalités distinctes. Le logiciel libre a été une révolution dans la façon dont il a « retourné » le monopole conféré par les droits d’auteurs pour permettre l’usage et la modification des ressources numériques par toutes et tous. L’open source a proposé une lecture plus pragmatique et « business compatible » de cette nouvelle approche et en a permis la diffusion. Ces deux mouvements n’envisagent cependant pas les aspects économiques de la production des ressources, et c’est cet « impensé » que viennent adresser les communs numériques.

    Si aujourd’hui on entend souvent que le logiciel libre a gagné, c’est surtout parce qu’il a été récupéré par les gros acteurs traditionnels du numérique. En consacrant une liberté absolue aux utilisateurs sans questionner les modalités économiques de la production de ces ressources, la philosophie libriste a pu entraîner une réappropriation des logiciels libres par ces entreprises. Par exemple, l’ennemi public historique des libristes, Microsoft, est aujourd’hui l’un des plus gros financeurs de logiciels libres. Conscients des risques de prédation des grandes entreprises, le monde des communs a construit des instruments juridiques pour protéger leurs ressources en repensant la formule des licences libres, ce qui va aboutir à la création des licences dites à réciprocité. Ces licences conditionnent les libertés traditionnellement octroyées à certaines conditions, notamment l’exigence de contribution ou la poursuite d’une certaine finalité.

    L’exemple de la fédération coopérative de livraison à vélo Coopcycle – dont je fais partie – est intéressant car par son statut et le type de licence utilisé, il matérialise le rapprochement entre les communs numériques et l’ESS. CoopCycle utilise une licence libre dans laquelle des clauses ont été ajoutées pour réserver l’utilisation commerciale du code source aux seules structures de l’ESS. Le but de ces obligations de réciprocité est ainsi d’empêcher qu’un autre projet récupère le code source pour créer une plateforme de livraison commerciale. Toutefois, cette licence ne suffit pas par elle-même à structurer le projet et garantir sa soutenabilité économique dans le temps. Il a donc fallu réfléchir à un mode d’organisation fonctionnel qui donne la propriété du logiciel aux coursiers qui l’utilisent. Le choix s’est alors porté sur le statut de société coopérative d’intérêt collectif (SCIC) qui intègre les coursiers dans la gouvernance du projet de façon majoritaire.

    Au bout du compte, le rapprochement avec l’ESS met à jour des tensions qui touchent tout mouvement réformiste, à savoir celles des moyens à employer pour parvenir à ses fins. Parce que la portée inconditionnelle accordée aux libertés par le mouvement libriste engendrait des limites à la pérennisation de leur projet, les porteurs de projets de communs numériques ont adopté une approche plus rationnelle en mobilisant les outils juridiques de l’ESS.

    Comment l’ESS peut-elle permettre la valorisation des communs numériques ?
    À l’inverse des communs numériques, l’ESS possède un cadre légal solide, consacré par la loi relative à l’économie sociale et solidaire de 2014, dite loi Hamon.

    Initialement, le réflexe en France pour monter un projet d’innovation sociale est de fonder une association loi 1901. Cette structure répond à un certain nombre de problématiques rencontrées dans l’organisation de projets de communs numériques. Elle dote le projet d’une personnalité juridique, encadre une gouvernance interne, fait participer tout type d’acteurs, etc. Cependant, elle se fonde sur le financement via la cotisation des membres, l’appel au don ou l’octroi de subventions, soit des financements précaires qui ne permettent pas de porter un modèle auto-suffisant et soutenable économiquement.

    J’ai constaté que la structure la plus adaptée en droit français pour parvenir à cette soutenabilité est la société coopérative d’intérêt collectif (SCIC). Encadrées par une loi de 2001, les SCIC ont « pour objectif la production et la fourniture de biens et de services d’intérêt collectif qui présentent un caractère d’utilité sociale ». Cette structure a ainsi l’avantage d’inscrire une activité commerciale dans les statuts tout en se conformant aux principes fondamentaux de l’ESS, qui correspondent bien à ce que recherchent les porteurs de projets de communs numériques. Ainsi, la gouvernance est ouverte à une diversité de parties prenantes dans laquelle les sociétaires sont à la fois les bénéficiaires et les producteurs du service ou produit, mais aussi des personnes publiques ; tout en suivant la règle 1 personne = 1 voix. Théoriquement, cela renouvelle la façon dont l’acteur public peut soutenir les communs numériques en participant directement à sa gouvernance sans préempter le reste des sociétaires.

    Toutefois, il demeure à mon sens trois grandes limites à ce statut. La première tient aux exigences et complexités du cadre juridique des SCIC. À l’inverse du statut des associations qui est assez souple, celui des SCIC impose le respect d’un grand nombre de règles qui peuvent être difficilement compréhensibles pour tout un chacun, car en grande partie issu du droit des sociétés commerciales. Ensuite, l’insertion d’un projet cherchant une lucrativité limitée et un fonctionnement démocratique dans une économie capitaliste et libérale n’est pas des plus évidentes. Enfin, tout en présentant une rigidité qui peut le rendre difficile à manier, le statut de SCIC permet des arrangements institutionnels, comme la constitution de collèges de sociétaires qui viennent pondérer les voix, qui peuvent venir diluer certains principes coopératifs, comme la règle 1 personne = 1 voix.

    L’ESS bénéficie-t-elle de l’investissement des communs numériques dans son champ ?
    “Si l’ESS vient apporter une structuration juridique au mouvement des communs numériques, ces derniers ont permis l’intégration des questions numériques dans au sein de l’ESS.”

    Ces deux mondes se complètent très bien. Si l’ESS vient apporter une structuration juridique au mouvement des communs numériques, ces derniers ont permis l’intégration des questions numériques au sein de l’ESS.

    Le recours aux logiciels libres a été une évidence pour les acteurs de l’ESS et ils ont un rôle important, notamment pour l’organisation numérique du travail, aujourd’hui indispensable. Les logiciels libres mettent à disposition tout un tas de ressources pensées pour le travail communautaire de façon gratuite ou du moins à moindre coût. Alternatives aux services proposés par les GAFAM, ils permettent surtout d’être alignés avec la conscience politique des acteurs de l’ESS.

    Toutefois, le recours aux logiciels libres dans le cadre de tels projets d’ESS pose des questions quant à la rémunération du travail de production et de maintenance de ces outils. Initialement, les utilisateurs des logiciels libres sont des personnes en capacité de développer et de maintenir ces derniers, ce qui n’est plus le cas aujourd’hui. De plus, au fur et à mesure que les projets libres ont gagné en notoriété, un panel de nouvelles fonctions est apparu aux côtés des enjeux de développements techniques, comme la documentation, l’animation de la communauté, etc. Tout ce travail invisible non technique mais indispensable a alors besoin d’être valorisé, ce qui doit passer par une rémunération du travail effectué.

    L’affiliation des projets de communs numérique à l’ESS permet de mettre en valeur ces enjeux de rémunération. Là où les logiciels libres n’envisagent pas systématiquement une rémunération, l’ESS vient poser un cadre juridique prévoyant des mécanismes de valorisation économique de toute contribution. En valorisant ces activités, l’ESS bénéficie réciproquement des nombreux apports venant des logiciels libres et des communs numériques.

    Ce rapprochement est-il une réponse pour encourager la participation de l’État dans le développement de communs numériques ?

    “Le simple fait que tous les acteurs publics utilisent les solutions libres constituerait un grand pas en avant pour l’écosystème.”

    Il est difficile de trouver une bonne réponse sur la participation que l’État doit prendre dans le développement de communs numériques. Cela peut à la fois faciliter le développement du commun numérique en injectant des moyens mais aussi remettre en question le fondement pour lequel il a été créé. Toute implication de l’acteur public dans un projet qui se veut profondément démocratique et horizontal présente un risque. Et cela a déjà été le cas par le passé. La participation d’un acteur public dans la gouvernance d’une SCIC peut entraîner l’échec du projet du commun. Face à des particuliers, et même s’il n’a qu’une voix, l’acteur public peut involontairement prendre le pas sur la gouvernance du projet, et ce, malgré les meilleures intentions du monde. Les contributeurs individuels initiaux peuvent se désengager du projet pensant que leur participation ne vaut rien à côté des moyens de l’acteur public. Dans ce cas, même si le projet perdure, il demeure un échec en tant que commun numérique.

    L’avantage de rapprocher l’ESS et les communs numériques est que cela permet de mettre en exergue les blocages existants et de réfléchir à des solutions. Avant d’envisager une potentielle participation d’un acteur public dans un projet de commun numérique, il est nécessaire de penser la structuration du projet. Les SCIC apportent des premiers éléments de réponse, mais il est nécessaire de mettre en place des gardes fous juridiques pour assurer la résilience du commun lors de l’arrivée de l’acteur public, et ainsi éviter que le projet devienne une société classique ou finisse par disparaître.

    Plus globalement, là où l’État peut jouer un rôle sans se heurter à la question de la participation, c’est dans son rapport aux logiciels libres. Le simple fait que tous les acteurs publics utilisent les solutions libres constituerait un grand pas en avant pour l’écosystème. Le ministère de l’Éducation nationale est moteur en ce sens : le ministère utilise le logiciel libre de vidéoconférence BigBlueButton et contribue à son amélioration. Toutefois, cette adoption généralisée dans l’administration n’est pas si évidente. Les acteurs vendant des logiciels propriétaires ont adopté des stratégies pour rendre les utilisateurs dépendants de ces solutions. La migration vers des solutions libres ne peut se faire sans un accompagnement continu et une formation des utilisateurs qui ne sont pas forcément à l’aise avec l’outil informatique et qui ont l’habitude de travailler avec un logiciel depuis toujours.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Contrôler l’accès aux sites web pour adultes : est-ce possible ?

    On aimerait protéger les enfants des sites pornos, obliger ces sites à vérifier l’âge de leurs utilisateurs. Mais est-ce même possible ? Deux chercheurs du CNRS nous expliquent comment la technique permet de le faire en s’appuyant sur une identité numérique, mais qu’une telle identité n’existe pas au niveau international. Et puis, les VPN permettent de contourner facilement de tels dispositifs nationaux. (Facilement : quelle proportion de la population sait utiliser un VPN, même si c’est hyper simple ?) Serge Abiteboul et Claire Mathieu

    Pour mettre fin à l’exposition des enfants aux contenus pornographiques en ligne, le ministre Jean-Noël Barrot voudrait des « systèmes de vérification d’âge fiables, anonymes et sans fichage des utilisateurs », qui seraient mis en œuvre par les sites pornographiques (voir la capture d’écran ci-dessous). Comment peut-on vérifier un âge de façon « anonyme » sur Internet ? Derrière cette question d’apparence anodine se cache un défi scientifique et technologique qui intéresse les chercheur.se.s de longue date.

    Capture d’écran d’une page de https://presse.economie.gouv.fr/10052023-dp-projet-de-loi-securiser-et-reguler-lespace-numerique/

    Une mise en œuvre impossible avec les outils existants

    Aujourd’hui, si vous devez montrer que vous avez plus de 18 ans (par exemple dans un bar), il n’y a pas 36 solutions : vous montrez votre carte d’identité. Le barman vérifie votre âge et jette un œil à la photo. Rien n’est stocké, et vous récupérez votre carte immédiatement. Sur Internet, les choses se compliquent : on pourrait par exemple imaginer que vous envoyez un scan de votre pièce d’identité au site pour adultes. La vérification de votre âge va donc se faire à partir d’une « copie » de votre pièce d’identité ; cependant, le site peut désormais conserver cette copie ! Bien sûr, il peut prétendre l’effacer, mais comment être certain qu’il le fasse ? Il y a de nombreux sites, et peu de moyens de garantir qu’ils soient tous de confiance.

    Une fois cette copie conservée, les problèmes commencent : votre accès au site n’est évidemment pas anonyme, et le site peut, s’il le souhaite, revendre vos données privées à des acteurs malveillants voulant identifier des personnes fréquentant certains sites (à des fins publicitaires, ou pour de l’extorsion), ou même se faire passer pour vous auprès d’autres sites qui utiliseraient le même procédé d’authentification.

    Une mise en œuvre possible dans le contexte national, grâce à la carte d’identité numérique

    Un tel procédé n’est pas acceptable, et ne satisfait évidemment pas les contraintes d’une vérification « anonyme et sans fichage » comme énoncées par Monsieur Barrot. Cela reste vrai même si le site s’engage à effacer ces données, à les brouiller durant la vérification, ou à ne jamais consulter le serveur où elles sont stockées : une promesse n’est qu’une promesse, et il est impossible d’en garantir la tenue pour tous les sites concernés. C’est technologiquement impossible.

    Quelles alternatives s’offrent à nous ? Une possibilité serait de recourir à une identité numérique, offrant plus de flexibilité qu’une carte d’identité classique. Comme la carte à laquelle nous sommes habitués, une identité numérique est une donnée associée de façon unique à un.e individu.e, et contenant diverses informations à son sujet (âge, genre, lieu de naissance…). Un avantage important d’une telle identité, par rapport à une carte d’identité classique, c’est qu’il existe des mécanismes permettant de convaincre un interlocuteur (par exemple, un site web) que notre identité numérique satisfait certaines conditions (par exemple, être majeur) sans en donner de copie à l’interlocuteur et tout en lui cachant les autres informations (notre nom, par exemple) !

    Concrètement, on peut concevoir une identité numérique comme une boîte digitale fermée qui contiendrait les informations susmentionnées. Tout le monde peut voir cette boîte, la stocker, la copier, mais personne ne peut voir ce qu’elle contient. Pour en voir le contenu, il faut disposer d’une « clé digitale » permettant de l’ouvrir – et vous êtes seul propriétaire de cette clé digitale. (Il ne faut pas la partager : cela reviendrait à donner votre carte d’identité à quelqu’un d’autre).

    S’il ne faut jamais révéler cette clé, comment alors démontrer notre identité à un interlocuteur ? Pour cela, il existe des mécanismes permettant de montrer à quelqu’un que l’on possède la clé permettant d’ouvrir notre « boîte digitale », mais sans jamais lui transmettre de copie de notre clé. Vous pouvez imaginer que la personne vous tende des cadenas (fermés) ayant la même serrure que votre boîte, et que vous lui rendiez ces cadenas ouverts : votre interlocuteur sera convaincu que vous « possédez » une clé qui fonctionne, mais n’aura aucune idée de ce à quoi elle ressemble (et ne pourra donc pas en faire construire une copie) !

    Jusqu’ici, on a vu comment on pourrait éviter que votre identité numérique ne soit copiée / volée / revendue. Mais on n’a pas encore parlé d’anonymat lorsqu’il faut révéler son âge… Eh bien, de façon surprenante, ces mêmes méthodes qui permettent de « prouver » informatiquement que l’on possède la clé de la boîte permettent de faire bien plus : en utilisant des méthodes connues sous le nom de « preuves à divulgation nulle de connaissance » (zero-knowledge proofs, en anglais), il est en effet possible de démontrer que la boîte contient une certaine information, sans en révéler les autres informations ! En fait, on peut même aller bien plus loin : il est possible de démontrer que l’on possède une clé pouvant ouvrir « une certaine boîte » dont le contenu indique un âge supérieur à 18 ans (par exemple), « sans même révéler de quelle boîte il s’agit » !

    Ces procédés reposent sur des mécanismes ingénieux développés depuis les années 80 dans les travaux de chercheurs, et qui commencent à être utilisés à grande échelle, notamment dans le cadre des cryptomonnaies. Pour comprendre un peu comment ça marche, prenons une petite énigme : je dispose de cent cadenas (initialement ouverts), numérotés de 1 à 100, et je prétends posséder la clé de « l’un d’entre eux », mais je ne veux pas vous révéler laquelle. Comment puis-je vous en convaincre ? (Si vous le souhaitez, vous pouvez interrompre votre lecture et y réfléchir quelques minutes.)

    Voilà une solution : à partir des cinquante premiers cadenas, vous créez un « cercle de cadenas », en accrochant le cadenas 1 au 2, puis le 2 au 3, etc, puis le 50 au 1. Vous faites de même avec les cadenas 51 à 100, mais en faisant passer le cercle au travers du cercle précédent, comme sur l’image ci-dessous :

    Vous me tendez maintenant les deux cercles imbriqués, je m’isole, et je reviens en vous tendant les deux cercles désimbriqués (mais toujours clos). Je peux facilement le faire si je possède la clé de l’un des cadenas – n’importe lequel – et c’est a priori impossible sinon. Vous voilà donc convaincu que je possède l’une des clés, sans savoir laquelle ! Les travaux des chercheur.se.s sur les « preuves zero-knowledge » donnent des équivalents numériques de ce type de méthodes. Ils permettent de prouver qu’une identité appartient à une liste d’identités autorisées, ou, dans le cas qui nous occupe, que notre identité numérique est bien associée à un âge supérieur à 18 ans – un peu comme si vous montriez votre carte d’identité recouverte d’une feuille opaque découpée de façon à ne laisser apparaître que le champ indiquant votre date de naissance.

    Toutes ces méthodes, en revanche, nécessitent crucialement que soit mise en place une identité numérique universelle. Et c’est là que le bât blesse : Monsieur Jean-Noël Barrot parle de contraindre les sites pornographiques à mettre en place eux-mêmes une solution. Ils en seront bien incapables ! C’est aux États seuls que peut revenir la création d’une identité numérique nationale. Les sites web, en l’absence d’une telle identité numérique, peuvent seulement demander à voir votre carte d’identité physique, mais n’ont dans ce cas aucun moyen de garantir votre anonymat, au-delà d’une promesse (bien facile à rompre) de ne pas stocker ou utiliser cette information. ((Les identités numériques existent déjà mais ne sont utilisées que par 3 millions de français.)

    Un contournement international facile par les VPN

    Et même si la France se lance dans la création d’une telle identité numérique, cela ne signifie pas que d’autres pays le feront. Depuis ces pays, n’importe qui pourra toujours accéder à des sites pour adultes, sans vérification prouvée et anonyme de son âge. Or, consulter un site en prétendant venir d’un autre pays est à la portée de toutes et tous : des technologies largement répandues, comme les VPNs, permettent aux utilisateurs de faire transiter leurs communications par l’intermédiaire de serveurs tiers. La crise du Covid a dramatiquement accéléré le déploiement de ce type de service au sein des entreprises et administrations. Dans ce contexte, le VPN a permis aux télétravailleurs de rejoindre le réseau interne de leur employeur de façon sûre, c’est-à-dire en garantissant la confidentialité des données transmises sur le réseau Internet.

    Exploitant la même brique technologique, de nombreux services commerciaux mettent également à disposition des serveurs dans des pays étrangers au choix. Leur usage s’est répandu dans un contexte de loisirs pour contourner les restrictions de diffusion des opérateurs de diffusion. On se connecte ainsi à travers un serveur en Grande Bretagne pour pouvoir regarder la BBC, un serveur en Italie pour regarder la RAI, ou un serveur aux États-Unis pour regarder le dernier opus d’une certaine série de Fantasy avant les collègues de bureau.

    Techniquement, le principe à l’œuvre est celui d’un « Relais Colis » numérique : plutôt que d’envoyer et recevoir des colis depuis sa boîte aux lettres personnelle (ce qui révélerait inévitablement notre localisation), on passe par l’intermédiaire d’un serveur-relais qui transmet nos communications à son destinataire. C’est ainsi l’adresse du relais qui est révélée au destinataire et non pas la nôtre. L’utilisateur du service a ainsi caché son adresse : seul le service de relais VPN a besoin de connaître l’adresse effective du client. En choisissant un relais à l’étranger, on loue ainsi une adresse à l’étranger le temps de la communication et on peut contourner la loi française.  Il pourrait être tentant de filtrer le contenu des communications VPN afin de restreindre leur usage : encore une fois, la cryptographie rend cela impossible. Les communications entre le client et le relais VPN sont chiffrées, utilisant la technologie qui sécurise aujourd’hui vos achats en ligne. Restreindre un usage reviendrait à restreindre l’autre.

    Reste aux plateformes la possibilité de détecter l’usage d’un relais VPN : dans ce jeu du chat et de la souris à l’échelle planétaire, certaines plateformes maintiennent des listes d’adresses interdites car identifiées comme appartenant à des services VPN commerciaux. En réponse, ces derniers changent régulièrement les adresses de leurs relais afin de rester sous le seuil de détection. Avec 2^128 (plusieurs centaines de sextillions !) adresses disponibles, la partie de cache-cache promet d’être haletante.

    Conclusion

    Sans loi internationale, un VPN suffit à contourner le contrôle d’accès par les sites pornographiques. L’article de loi proposé ne pourra donc ériger qu’une faible barrière à l’accès des enfants aux sites web réservés aux majeurs, et à moins que l’État ne généralise la carte d’identité numérique, cela se fera au détriment de l’anonymat et de la sécurité des données des utilisatrices et utilisateurs. Un investissement et un risque conséquents pour un résultat faible : plutôt que par un contrôle d’accès numérique, il faut chercher d’autres approches pour éviter d’exposer les enfants aux contenus pornographiques en ligne.

    Geoffroy Couteau et Pierre-Évariste Dagand,  CNRS

    Voir aussi :
    La fréquentation des sites internet par les mineurs doit être une priorité de santé publique

     

  • ChatGPT et test de Turing inversé

    Erwan Le Merrer,  chercheur Inria, étudie le fonctionnement des plateformes du Web et analyse leurs comportements. Il préside le conseil scientifique de la Société informatique de France. Il nous propose une réflexion sur un sujet qui fait énormément parler aujourd’hui, ChatGPT et les modèles génératifs. Turing a proposé un test pour savoir si un humains pouvait distinguer des réponses émanant d’une intelligence artificielle de celles produites par d’autres humains. Erwan montre que dans une inversion étonnante, le test est aujourd’hui posé aux intelligences artificielles. Pierre Paradinas

    ChatGPT et les autres modèles génératifs sont amenés à modifier profondément nos usages. La génération instantanée de textes, d’images et de vidéos, inspire déjà quantité d’applications. Au delà de l’objectif affiché, la nature des sources de données sur lesquelles ChatGPT va poursuivre sa construction est critique.

    Image du jeu classique « snake »

    Le test de Turing est une expérience proposée en 1950 par Alan Turing et consistant pour un expérimentateur à deviner si la réponse à une question émane d’un être humain ou d’un ordinateur. L’expérimentateur est à l’aveugle par rapport au questionné, la vision de ce dernier étant occultée par un mur. La finalité du test est de questionner la distinguabilité de l’être humain des processus numériques en cours d’élaboration à l’époque. L’application aujourd’hui dans d’autres contextes est par exemple : étant donnée une copie de devoir à corriger pour un enseignant, a-t-elle été rédigée par l’étudiant ou par ChatGPT ?

    Les textes et données présents sur le web sont (encore) en grande partie le fait d’humains : journalistes, blogueurs, scientifiques, passionnés ou utilisateurs de réseaux sociaux. ChatGPT s’en nourrit pour construire le modèle probabiliste qui le dirige. Sans ces données, pas d’apprentissage et donc de génération satisfaisante. Mais voila, des textes ainsi générés sont déjà utilisés plus ou moins directement (peut-être sans modification) pour alimenter les sites web, et autres contenus de documents partagés [1].

    Il résulte la possibilité d’un cercle vicieux : ChatGPT devra être mis à jour fréquemment pour s’adapter aux événements ou nouvelles connaissances ; les nouveaux contenus aspirés pour être ingurgités seront ils alors des contenus déjà générés par ce même ChatGPT ? Ce serait problématique à plus d’un sens. On peut ici faire le parallèle avec des techniques relativement similaires dites de génération adversarielles (GANs), ou deux modèles d’apprentissage machine se font face. L’un pour améliorer sa génération de données essaie de tromper le second, qui lui essaie de discriminer ces données reçues d’autres données émanant cette fois d’êtres humains. L’intuition est simple : si le premier modèle génère par exemple des images trop facilement discriminables d’autres images réelles, alors il ne fait pas bien son travail. Il s’améliore alors jusqu’à ce que cette génération ne permette plus au second modèle de juger correctement du fait que ces images sont générées, avec plus d’une chance sur deux. Le premier modèle a alors “convergé” et atteint son objectif de génération indistinguable de données.

    Nous revoilà devant cette question d’indistinguabilité, cette fois concernant les données d’apprentissage de ChatGPT : les données glanées sur le web sont-elles le fait d’humains, de ChatGPT, ou d’autres modèles génératifs ? Mais l’expérimentateur du test de Turing est cette fois un processus numérique — ChatGPT lui même — plutôt qu’une personne : à ChatGPT d’arriver à distinguer sa propre création, ou des variantes manipulées par des personnes, dans cette instance inversée du test de Turing.

    Et on peut douter du succès de ChatGPT sur ce test, même à court terme. Ce dernier est bien précisément entrainé pour produire des sorties indistinguables de textes produits par des humains. Des chercheurs proposent de forcer ces modèles génératifs à embarquer des traces qui les confondent dans chacun de leurs textes générés (techniques dites de “tatouage” [2]). D’autres proposent au contraire une attaque pour contrer le tatouage qui paraphrase le texte généré pour ainsi permettre de rendre inopérant ce tatouage [3].  Ils fournissent au contraire une preuve d’impossibilité (i.e., d’indistinguabilité), qui s’appuie sur la nécessaire convergence de la distribution des mots dans les phrases générées vers celle naturellement présente dans les textes humains [3], au fur et à mesure de l’amélioration des capacités de ChatGPT ou de ses compétiteurs. Le problème est évidemment le même pour un système concurrent (e.g., Bard de Google) qui consommerait du ChatGPT, et inversement.

    Il est ici central de rappeler que l’indistinguabilité statistique de la formation de phrases n’a rien à voir avec l’indistinguabilité de la véracité ou non de ce que disent ces mêmes phrases : elles peuvent être syntaxiquement parfaites et sembler cohérentes, mais contenir des erreurs factuelles. Or ChatGPT est entraîné pour répondre parfaitement à ce premier objectif, mais pas au second. Lorsque le web sera alors peuplé de données non distinguables, le problème technique sera d’imaginer ce qu’il adviendra de la convergence d’un ré-apprentissage périodique pour ChatGPT, qui n’a aucun intérêt pratique à ingurgiter ses propres sorties. Un regain du nombre d’erreurs factuelles peut alors survenir dans ces textes générés, pour être ensuite intégrés sur le web de façon consciente ou non. Et ce dans une itération continue de la forme “génération, insertion sur le web, ingestion, ré-apprentissage”, etc.

    Les conséquences sociétales à craindre sont probablement une dilution encore plus grande de la capacité d’attribution aux créateurs ou penseurs, et conséquemment un risque de confusionnisme accru par la présence en ligne d’affirmations contraires concernant tous les faits possibles.

    Que deviendra le ver quand le fruit sera pourri ?

    Erwan Le Merrer, Inria

    Références :

    [1] https://www.theguardian.com/technology/2023/may/02/chatbot-journalists-found-running-almost-50-ai-generated-content-farms
    [2] A Watermark for Large Language Models, Arxiv, 2023.
    [3] Can AI-Generated Text be Reliably Detected?, Arxiv, 2023.

  • ChatGPT ? Voulez-vous comprendre ce que c’est ?

    ChatGPT. Avant d’en parler, de croire qu’il va tout faire, même la vaisselle, d’en avoir peur parce qu’il va détruire les emplois, de s’émerveiller parce qu’il a dit quelques phrases qui avaient l’air intelligentes, de le traiter de nul parce qu’il dit des bêtise, de l’engueuler parce qu’il refuse de dire une absurdité, avant de nous faire une opinion, peut-être  pourrions-nous passer un peu de temps à essayer de comprendre ce que c’est ? Serge Abiteboul.

    Chiche ?

    Pour ça, vous pouvez écouter David Louapre qui explique si bien, les bases de ChatGPT, et comment il a été conçu à partir du modèle de langage GPT :

    Et vous pouvez trouver quelques mots de plus sur son blog pour en savoir plus (en particulier sur la notion de « transformer »), ou même, aller en discuter dans son salon discord.

    Et bien entendu vous pouvez bien sûr, soyez fous, essayer ChatGPT !

    Oui, mais encore ? Comment mieux comprendre comment se manipule le langage humain au sein de tels algorithmes ? C’est dans cette vidéo que David vous expliquera cette mécanique :

    Il l’explique aussi de manière textuelle sur son blog.

    Attendez … peut-être souhaitez-vous aussi retourner aux bases et mieux comprendre ces histoires d’apprentissage machine, en particulier l’apprentissage profond, si performant et tant utilisé ? David est encore là :

    Et il propose même une version textuelle des explications.

    Alors ChatPGT et cie. ? Peut-être avant de se faire une opinion, cela vaut le coup de le démystifier, de comprendre ce que c’est, ce que l’on peut et veut en faire, de manière sereine et éclairée et, au-delà, de se doter d’une culture scientifique en informatique.

    En tout cas, retenons que les informations fournies par ChatGPT peuvent être erronnées, y compris en violation du RGPD , qui stipule que les données personnelles traitées doivent être exactes, comme cela est discuté ici, tandis que nou nous sommes tous amusés à tester cela sur nous même.

    Thierry Viéville, chercheur Inria, et surtout merci à David Louapre.

    Pour aller plus loin

    – Une vidéo de l’équipe de recherche Inria flowers visant collégiens et lycéens en particulier

    – On a aussi cette très intéressante discussion radiophonique qui discute des usages avec ces risques.

    – Une formation citoyenne https://classcode.fr/iai développée avec des spécialistes en sciences du numériques et sciences de l’éducation (voir cet article scientifique) est librement utilisable et réutilisable.

    – Pour se former aux sciences du numérique en général https://classcode.fr/snt (en particulier avec un résumé sur l’histoire de l’intelligence artificielle) est en partage.

     

     

  • La révolution de la microbiologie par le numérique

    Un nouvel « Entretien autour de l’informatique ». Pascale Cossart est une biologiste française, une Pasteurienne, professeur de classe exceptionnelle à l’Institut Pasteur depuis 2006. Ses travaux ont notamment porté sur l’étude des mécanismes impliqués dans les infections bactériennes. Grâce à des approches multidisciplinaires, Pascale Cossart a véritablement démarré une nouvelle discipline, la « microbiologie cellulaire », et mis en lumière de nombreuses stratégies utilisées par les bactéries lors de l’infection. Elle a été la Secrétaire perpétuelle de l’Académie des Sciences pour la deuxième section (chimie, la biologie et la médecine) de 2016 à 2021. Depuis 2022, elle est scientifique invitée à l’EMBL Heidelberg.

     

    Pascale Cossart

    B : Pourrais-tu nous parler de ta discipline de recherche ?

    PC : Je travaille à la frontière entre la microbiologie et la biologie cellulaire. Depuis 1986, je m’intéresse aux infections par des bactéries qui vivent à l’intérieur des cellules ; cela m’a conduite à des études sur les bactéries (de la microbiologie), et sur les cellules (de la biologie cellulaire), et sur la façon dont les bactéries pénètrent et vivent dans les cellules, que ce soit au niveau des tissus ou des organismes entiers.

    En général, après avoir analysé des mécanismes sur des cellules en culture, nous validons nos résultats sur des modèles animaux pour comprendre la maladie humaine. On est à la limite de la médecine, mais ce qui m’intéresse surtout, ce sont les mécanismes fondamentaux : comprendre comment un microbe provoque une maladie, comment une maladie s’installe, comment des maladies donnent des signes cliniques, et comment l’organisme peut échapper à cette maladie.

    A l’époque de Pasteur, à la fin du XIXe siècle, les microbiologistes cherchaient à identifier le microbe responsable de telle ou telle maladie (peste ou choléra ?). Maintenant on cherche à comprendre comment un microbe produit une maladie.

    Il y a différentes catégories de microbes : des bactéries, des parasites, des virus. Nous travaillons sur les bactéries qui sont des cellules uniques (des petits sacs) sans noyau mais qui ont un chromosome. Les mammifères (nous !), les plantes ont des millions de cellules différentes qui ont un noyau contenant des chromosomes. Les chromosomes sont faits d’ADN, composé qui a été découvert dans les années 50. Il a ensuite été établi que l’ADN était la molécule essentielle pour la transmission du patrimoine génétique, le génome. L’ADN, c’est la molécule de la vie !

    Parmi les bactéries certaines sont inoffensives, d’autres sont pathogènes !

    C’est pour leurs travaux ici, à l’Institut Pasteur, sur des bactéries non pathogènes et sur leur ADN que François Jacob, Jacques Monod et André Lwoff ont obtenu le prix Nobel. Ils s’intéressaient au chromosome bactérien et à la façon dont les bactéries en se nourrissant, produisent des protéines, grandissent, et se divisent en deux (division binaire !) en générant une descendance identique à la bactérie initiale.

    À la fin des années 70, on a assisté à l’explosion de la biologie moléculaire, c’est à dire la biologie des molécules, héritée de la découverte de l’ADN. À la fin des années 80, les chercheurs en biologie moléculaire cherchaient à comprendre comment les molécules fonctionnent, alors que les chercheurs en biologie cellulaire s’intéressaient à la façon dont les cellules fonctionnent.

    J’étais chercheuse à ce moment clé. Il y avait des avancées du côté bactéries, et aussi du côté des cellules de mammifères, grâce en particulier aux nouveaux microscopes. On pouvait donc commencer à observer des infections par les bactéries pathogènes. On pouvait combiner biologie moléculaire et biologie cellulaire, en essayant de comprendre les interactions entre composants bactériens ou ceux de la cellule hôte dans le cas d’infections. C’est sur cela qu’ont porté alors mes travaux. Cela a conduit à l’émergence d’une nouvelle discipline que nous développions, qui s’intéressait en particulier à ce qui se passe dans les cellules quand arrive un corps étranger. Pendant un colloque que j’ai organisé sur ce sujet, un journaliste de Science nous a conseillé de donner un nom à cette discipline : nous avons proposé la microbiologie cellulaire. J’ai fait partie des lanceurs de cette discipline, la microbiologie cellulaire.

    Cette discipline a été rapidement acceptée, avec un livre fondateur, des revues, et aujourd’hui des professeurs et des départements de microbiologie cellulaire.

    Cellules humaines infectées par la bactérie Listeria monocytogenes : en bleu le noyau des cellules, en rouge les bactéries et en vert l’actine, un composant de la cellule infectée que la bactérie recrute et utilise pour se déplacer et éventuellement passer d’une cellule à une autre.

    B : Pourrais-tu nous expliquer en quoi consiste le travail dans ce domaine ?

    PC : Quand une bactérie essaie d’entrer dans une cellule, la bactérie s’adapte à la cellule et vice versa. Le travail dans le domaine consiste à observer la bactérie qui rentre et parfois se promène dans la cellule, on la filme. On choisit plutôt des cellules faciles à cultiver, et pour la bactérie, j’ai choisi Listeria monocytogenes. Je l’ai choisie avec soin pour ses propriétés uniques. On la trouve dans l’environnement ; elle peut parfois contaminer des aliments, et ainsi par l’alimentation atteindre dans le tractus intestinal, parfois traverser la barrière intestinale et arriver au foie, à la rate, ou au placenta et éventuellement au cerveau. Elle est capable d’aller jusqu’au fœtus. Elle cause des gastroentérites, des accouchements prématurés, des méningites. On a beaucoup avancé dans la connaissance du processus infectieux mais on ne comprend encore pas bien comme elle va jusqu’au cerveau.

    Plus concrètement, dans un labo, on cultive la bactérie dans des tubes contenant un liquide nutritif. On cultive soit la bactérie originale soit des mutants de la bactérie. Dans un autre coin du labo, on fait pousser des cellules. La suite dépend de la question qu’on se pose. En général on met les bactéries ou les mutants sur les cellules et on observe ce qui se passe ou ce qui ne se passe pas avec certains mutants.

    On peut aussi infecter des animaux, ce qui est bien sûr très règlementé. Si j’injecte la bactérie par voie orale dans une souris, est-ce qu’elle arrive au foie ? Comment la souris réagit-elle ? On a une multitude de questions à poser.

    B : Tu te doutes que Binaire s’intéresse aux apports du numérique dans ta discipline.

    PC : On a vécu une double révolution avec le numérique : du côté de la bactérie avec la génomique, et du côté de la cellule et de l’infection, avec l’imagerie numérique.

    B : Commençons par la génomique si tu veux bien.

    PC : Les bactéries n’ont pas de noyau, Elles ont un chromosome, c’est-à-dire un grand ADN circulaire. Au début de mes travaux sur Listeria, on ne connaissait rien sur son chromosome, c’est-à-dire son génome. Pour le comprendre, on a d’abord créé des mutants, avec différents outils génétiques : par exemple on peut mettre la bactérie Listeria à côté d’une autre bactérie qui va injecter dans son ADN, un transposon. On obtient alors une « banque de mutants » parmi lesquels on cherche, par exemple, un mutant non invasif, c’est-à-dire qui ne parvient pas à entrer dans les cellules.

    L’ADN consiste en une séquence de lettres. Pour trouver l’endroit où le gène a été interrompu, on réalise le « séquençage » de l’ADN situé à côté du transposon. Les différentes techniques de séquençage de l’ADN sont apparues vers la fin des années 70. Au début on ne pouvait séquencer que des petits fragments. J’ai réalisé à l’époque mon premier séquençage, avec une technique chimique. Je lisais les séquences et j’écrivais les résultats dans un cahier.

    Et puis, on a obtenu des séquences de plus en plus longues qu’on a entrées dans des ordinateurs. On a pu utiliser des programmes pour trouver des ressemblances entre des séquences. On pouvait « aligner des séquences », c’est-à-dire les positionner pour en faire ressortir les régions similaires. L’informatique nous permettait de faire ce qu’on n’arrivait plus à faire à la main, quand les séquences grandissaient.

    Les techniques ont alors progressé et dans le cadre d’un consortium européen que je dirigeais, nous avons publié en 2000 le séquençage du génome de Listeria qui comporte 3 millions de lettres. À titre de comparaison, le génome humain, qui a été séquencé plus tard, a 3 milliards de lettres. Au début, le travail de séquençage était lent et considérable, il exigeait de faire collaborer plusieurs labos, chacun travaillant dans son coin sur certaines régions de l’ADN chromosomique. L’ordinateur est devenu indispensable pour assembler les morceaux de séquences et analyser les résultats.

    Nous avons donc séquencé le génome de Listeria monocytogenes, l’espèce pathogène, et aussi celui d’une cousine non-pathogène, Listeria innocua. L’observation des différences entre les séquences a été une mine d’or de découvertes. La comparaison des deux génomes ouvrait une infinité de possibilités d’expériences. On pouvait réaliser des mutations ciblées, en inactivant tel ou tel gène, présent chez L. monocytogenes et absent chez Listeria innocua et tester si le mutant obtenu était encore virulent.

    Il reste beaucoup de travail à faire, notamment, sur des bactéries pour lesquelles on ne sait pas grand-chose, en particulier, parce qu’on ne sait pas les cultiver, comme c’est le cas pour les bactéries anaérobies de l’intestin, du sol ou des océans

    La grande révolution à l’heure actuelle, c’est la métagénomique. Les machines sont devenues très performantes pour séquencer l’ADN. Elles séquencent des mélanges d’ADN et sont capables d’identifier tous les ADN différents présents et donc les espèces d’où ils proviennent. Par exemple, dans la mission Tara, une goélette récolte du microbiome marin. Les séquenceurs vont être capables d’identifier des milliers de petits bouts de séquences d’ADN. Un logiciel va faire le catalogue des espèces présentes. Tout ceci serait impensable sans ordinateur.

    B : Est-ce qu’un séquençage prend beaucoup de temps ?

    PC : Avant, en 2000, séquencer un génome bactérien prenait au moins dix-huit mois. Maintenant, en trois jours on a la séquence et les premières analyses. L’ordinateur sait comparer deux génomes l’un à l’autre, ou encore comparer un génome à une banque de génomes. Il sait « regarder » le génome et faire son « analyse grammaticale », identifier les gènes et donc les protéines que ces gènes peuvent produire. C’est une révolution. Des tâches qui auraient pris des années pour des humains sont maintenant faites très rapidement par des ordinateurs.

    Cela nous permet maintenant de nous tourner vers les microbiotes, ces grandes assemblées de micro-organismes. On peut analyser les microbiotes de l’intestin, la bouche, l’environnement (les sols, les océans)… Cela ouvre des possibilités extraordinaires comme de comprendre pourquoi certaines personnes sont malades, pourquoi certains sols sont stériles.

    B : Nous pourrions maintenant passer aux apports de l’imagerie cellulaire.

    PC : Le passage de l’observation des images par l’homme à l’analyse des images par l’ordinateur a fait passer les conclusions tirées, du stade subjectif au stade objectif : deux cellules ne sont jamais identiques. Le scientifique pouvait observer par exemple qu’une bactérie semblait entrer mieux ou plus vite dans une cellule que dans une autre. Mais cette observation était relativement subjective. Il était difficile de la rendre objective : alors on refaisait des manips des milliers de fois et on calculait des moyennes. Ceci prenait un temps fou. L’imagerie numérique nous permet d’observer de nombreuses cellules en même temps. La microbiologie cellulaire est une discipline qui a évolué considérablement avec le numérique.

    Les techniques d’imagerie reposent sur l’usage de marqueurs fluorescents avec lesquels on peut marquer la membrane extérieure de la cellule, ou le noyau, ou les mitochondries, etc. On utilise des programmes qui ressemblent aux programmes de reconnaissance faciale pour reconnaitre les marqueurs fluorescent qu’on a placés. On peut répondre à des questions comme : en combien de temps la bactérie va-t-elle arriver au noyau ? L’imagerie numérique est beaucoup plus sensible que l’œil humain, elle nous donne accès à des événements qui auraient échappé à l’observation à l’œil nu.

    On obtient de plus en plus de données qu’on peut stocker. On fait des analyses statistiques sur ces données pour répondre à différents types de questions qui permettent de comprendre dans notre cas les facteurs qui sont critiques pour qu’une infection prenne place.

    B : Tu nous as dit qu’il y avait une multitude de questions à poser. On ne peut pas les poser toutes. Il faut choisir. La sérendipité joue-t-elle un rôle pour trouver réponse à des questions intéressantes ?

    PC : Oui, très important. Pasteur disait à peu près : la science sourit aux esprits préparés ! J’ai eu une grande chance dans ma vie, c’est de trouver un mutant de Listeria que je ne cherchais pas. C’était en 1990. Ça a été une histoire incroyable.

    Un collègue, Dan Portnoï avait découvert grâce à ses travaux en microscopie électronique, la capacité exceptionnelle de Listeria à se mouvoir à l’intérieur des cellules et à passer d’une cellule à l’autre. Son résultat avait passionné les biologistes cellulaires qui cherchaient à comprendre comment en général les cellules bougent par exemple lors du développement d’un organisme.

    C’était l’époque pré génomique. Je cherchais dans une banque de mutants un mutant qui, sur des boîtes de Pétri, ne faisait pas de halo dans du jaune d’œuf. Rien à voir donc a priori. Et je trouve un mutant qui ne fait plus ce halo. Je demande à une postdoc de vérifier au microscope si cette bactérie passe bien d’une cellule à l’autre. Elle m’appelle alors qu’elle était au microscope : « Viens voir ! » Ce mutant était incapable de motilité intracellulaire. En l’analysant, nous avons trouvé le gène et donc la protéine responsables de la motilité. Le hasard m’a donc permis de réaliser une belle avancée en biologie cellulaire, parce que ça a permis de comprendre non seulement la motilité des bactéries mais aussi celle des cellules de mammifères.

    Mais pour une telle histoire, il fallait savoir profiter de l’occasion. Dans notre métier, on doit en permanence se poser des questions précises, évaluer si elles sont importantes et si on a les moyens techniques pour y répondre. Il faut aussi sans cesse être aux aguets de choses inattendues !

    B : Est-ce que le numérique continue à transformer le domaine.

    PC : Oui. Récemment on a vu des applications dans la prédiction des structures de protéines avec Alphafold. La cristallographie de protéines et l’analyse de diffusion de rayons X sur les cristaux de protéines nous permettaient de comprendre leurs structures 3-dimensionnelles, c’est à dire le repliements de protéines dans l’espace. On pouvait ensuite essayer de prédire comment des protéines s’assemblent, mais c’était très compliqué et à petite échelle. On pouvait aussi essayer de prédire comment inhiber la fonction d’une protéine en introduisant un composé dans un endroit clé pour toute la structure de la protéine.

    Alphafold part d’énormes bases de données sur les structures tridimensionnelles de protéines. Dans les programmes d’Alphafold, des logiciels d’apprentissage automatique (machines learning) combinent toute une gamme de techniques pour prédire comment un repliement pourrait de produire, et proposent des configurations spatiales aux scientifiques. Cela ouvre des possibilités fantastiques pour comprendre comment fonctionnent les protéines, et a donc des potentialités médicales incroyables.

    Serge Abiteboul et Claire Mathieu

    Pour aller plus loin

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’avenir de la réalité virtuelle sera hybride et physiologique

    Réalité virtuelle, réalité augmentée, interfaces cerveau-ordinateur (BCI en anglais), autant de domaines relativement peu connus du grand public et qui sont appelés à se développer dans un futur proche. Pour mieux comprendre quelles questions ils soulèvent, nous nous sommes entretenus avec Anatole LECUYER (Directeur de recherches Inria à Rennes).  Pascal Guitton 

    Binaire : pourrais-tu commencer par nous expliquer ton parcours de formation ?

    Anatole Lecuyer : Après un bac scientifique et des classes préparatoires, j’ai intégré l’école Centrale de Lille. La formation généraliste m’a globalement intéressé mais je me suis surtout amusé pendant mon stage de 3ème année. Je suis allé à l’université Simon Fraser à Vancouver où j’ai développé un outil de simulation visuelle pour une main robotisée. Ce fut une révélation : avec ce type de recherches je pouvais enfin faire dialoguer mes intérêts pour la science et pour les expressions  graphiques voire artistiques. Je ne m’en rendais pas compte à cette époque (été 1996) mais j’avais la chance de participer à l’émergence de la réalité virtuelle qui était encore balbutiante et pratiquement inexistante en France.

    Anatole LECUYER – Copyright Innovaxiom

    Après ce stage, j’ai travaillé pendant deux ans dans l’industrie aéronautique mais avec comme objectif de préparer une thèse et tout d’abord de composer le sujet qui m’intéressait. En 1998, j’ai démarré une thèse à Orsay sous la direction de Sabine Coquillart (Inria) et Philippe Coiffet (CNRS) sur l’utilisation des retours haptiques et visuels pour la simulation aéronautique en lien avec Aérospatiale (devenue EADS par la suite). C’était un sujet très précis, « délimité » comme je l’avais souhaité, mais je dois dire qu’un grain de sable s’y est introduit : le dispositif haptique que j’utilisais est tombé en panne et a été indisponible pendant 6 mois. Il a donc fallu « réinventer » une nouvelle approche et m’est alors venu l’idée du pseudo-haptique : comment produire des sensations haptiques sans utiliser aucun dispositif mécanique (ce que faisait le bras robotisé en panne) et en les remplaçant par des stimuli visuels. Comment donc générer des « illusions haptiques » exploitant un autre sens : la vision. Il est amusant de constater avec le recul que ce travail a été couronné de succès alors qu’il n’était absolument pas planifié mais résultait d’un accident de parcours ! A la fin de ma thèse soutenue en 2001, j’avais trouvé ma voie : je voulais faire de la recherche en réalité virtuelle mon métier.

    B : parle-nous de ce début de carrière

    AL : Après un an passé au CEA, j’ai été recruté en 2002 comme chargé de recherche Inria dans l’équipe SIAMES à Rennes. La première chose que je retiens est le décalage entre d’une part, l’impression d’avoir enfin réussi à atteindre un objectif préparé de façon intensive depuis plusieurs années et après un processus de sélection assez complexe et puis, d’autre part, le démarrage d’une nouvelle vie scientifique qui était totalement à construire. Cela n’a pas été simple ! Parmi beaucoup d’autres choses, je suis gré à Bruno Arnaldi, le responsable de SIAMES, de m’avoir proposé de travailler immédiatement avec un stagiaire pour en quelque sorte relancer la machine, explorer de nouvelles voies et finalement rebâtir un projet scientifique. C’est en tout cas, une expérience qui me sert quand, à mon tour, j’accueille aujourd’hui un nouveau chercheur dans l’équipe.

    binaire : tu as travaillé sur beaucoup de sujets, quel domaine te semble central dans ton activité

    AL : sans nul doute, c’est la réalité virtuelle (RV) qui est au cœur de toutes mes recherches, que ce soit pour l’interaction, les équipements technologiques, la perception humaine… Je la définirais comme « la mise en œuvre de technologies immersives qui permettent de restituer en temps réel et d’interagir avec des univers synthétiques via des interfaces sensorielles permettant de procurer un sentiment de « présence » aux utilisateurs ». Je tiens à rappeler que même si beaucoup la découvrent depuis peu, elle existe depuis plus d’une quarantaine d’années avec une communauté très active de chercheurs et d’ingénieurs, des concepts éprouvés, des revues/conférences…. Située à l’intersection de domaines variés comme l’interaction hommes-machine, le traitement du signal, l’intelligence artificielle, l’électronique, la mécatronique sans oublier les facteurs humains (perception, sciences cognitives), cette technologie permet de simuler la plupart des activités humaines, ce qui ouvre notre travail à des collaborations interdisciplinaires extrêmement variées et enrichissantes.

    B : tu pourrais nous fournir un exemple ?

    AL : en 2005, nous avons imaginé de combiner la RV avec les technologies d’interfaces cerveau-ordinateur (ICO, ou BCI pour Brain Computer Interface en anglais) et le traitement des signaux cérébraux issus d’électro-encéphalogrammes (EEG) ouvrant ainsi une voie nouvelle d’hybridation technologique. A cette époque, l’objectif principal était d’interagir avec des environnements virtuels ; on parlait alors de commande « par la pensée », ce qui était un abus de langage. Aujourd’hui on parle plutôt de commande « par l’activité cérébrale », ce qui est plus précis. Concrètement, il s’agit de détecter l’activité cérébrale et d’interpréter les signaux recueillis comme des entrées pour piloter un ordinateur ou modifier un environnement virtuel. En 4 ans, nous avons développé un logiciel baptisé OpenViBE qui s’est vite imposé comme une plate-forme de référence dans le domaine. Chaque nouvelle version est téléchargée environ 5000 fois et l’article le présentant a été cité environ 800 fois. Mais le plus intéressant est de constater qu’il réunit des communautés très diverses : neurosciences bien entendu mais aussi RV, arts, jeux vidéo, robotique… Avec Yann Renard et Fabien Lotte les co-créateurs d’OpenViBE, nous sommes toujours aussi émerveillés de cette réussite.

    Jeu vidéo « multi-joueur » contrôlé directement par l’activité cérébrale. Les deux utilisateurs équipés de casques EEG jouent ensemble ou l’un contre l’autre dans un jeu de football simplifié où il faut marquer des buts à droite (ou à gauche) de l’écran en imaginant des mouvements de la main droite (ou gauche) – © Inria / Photo Kaksonen

     B : et si maintenant nous parlions d’Hybrid l’équipe de recherche que tu animes à Rennes ?

    AL : si je devais résumer la ligne directrice d’Hybrid, je dirais que nous explorons l’interface entre les technologies immersives et d’autres approches scientifiques notamment en termes d’exploitation de signaux physiologiques. Ce qui était un pari il y a 10 ans s’est progressivement imposé comme une évidence. On peut par exemple remarquer qu’une des évolutions des casques RV est d’y intégrer de plus en plus de capteurs physiologiques, ce qui réalise notre hypothèse initiale.

    Pour illustrer cette démarche, je peux évoquer des travaux réalisés pendant la thèse de Hakim Si-Mohammed et qui ont été publiés en 2018. C’était la première fois que l’on utilisait conjointement un casque de Réalité Augmentée (Microsoft Hololens) et un casque EEG. Nous avons d’abord montré qu’il était possible d’utiliser simultanément ces deux technologies, sans risque et avec des bonnes performances. Puis, nous avons proposé plusieurs cas d’usage, par exemple pour piloter à distance un robot mobile, ou encore pour contrôler des objets intelligents dans une maison connectée (collaboration avec Orange Labs) permettant notamment d’allumer une lampe ou d’augmenter le volume de la télévision sans bouger, en se concentrant simplement sur des menus clignotants affichés dans les lunettes de réalité augmentée.

    Utilisation conjointe de lunettes de réalité augmentée et d’une interface neuronale (casque électro-encéphalographique) pour piloter à distance et sans bouger un robot mobile

     binaire : en 10 ans, comment observes-tu l’évolution de l’équipe ?

    AL : au démarrage, nous avons beaucoup travaillé sur le plan scientifique pour jeter les bases de notre projet. Au fil des rencontres que nous avons eues la chance de réaliser dans nos différents projets, la question des impacts sociétaux est devenue de plus en plus centrale dans nos activités. Je pense notamment au domaine médical, d’abord grâce à OpenViBE qui était initialement conçu pour pouvoir assister des personnes en situation de handicap privées de capacité d’interagir.

    On peut ensuite évoquer le projet HEMISFER initié avec Christian Barillot pour contribuer à la rééducation de personnes dépressives chroniques ou dont le cerveau a subi des lésions post-AVC en développant des outils combinant EEG et IRM en temps réel. Bien que lancé en 2012, nous n’obtiendrons les résultats définitifs de ce travail que cette année en raison de la complexité des technologies mais aussi des essais cliniques. Mais les premiers résultats à notre disposition sont déjà très positifs. Dans cette dynamique, nous avons mené plusieurs sous-projets autour du NeuroFeedback, c’est-à-dire des techniques permettant à un utilisateur équipé d’un casque EEG d’apprendre progressivement à contrôler son activité cérébrale, grâce à des retours sensoriels explicites. Une des tâches les plus employées pour les tester consiste à demander à l’utilisateur de faire monter une jauge visuelle en essayant de modifier activement ses signaux EEG. On observe qu’il est parfois difficile, voire même impossible pour certaines personnes, de maîtriser leur activité cérébrale pour générer les signaux utiles pour interfacer un tel système informatique. Nous travaillons pour tenter de comprendre ces difficultés : sont-elles liées à des traits de personnalité ? Sont-elles amplifiées par un déficit d’accompagnement du système ? C’est un sujet passionnant. Et les perspectives d’applications thérapeutiques, notamment pour la réhabilitation, sont très riches.

    Il y a 3 ans, grâce à l’arrivée dans notre équipe de Mélanie Cogné qui est également médecin au CHU de Rennes, nous avons franchi un pas supplémentaire en pouvant dorénavant tester et évaluer nos systèmes au sein d’un hôpital avec des patients. Cette démarche que nous n’imaginions pas il y une quinzaine d’années s’est progressivement imposée et aujourd’hui, nous ressentons au moins autant de plaisir à voir nos travaux utilisés dans ce contexte qu’à obtenir un beau résultat scientifique et à le voir publié.

    Je pense par exemple au projet VERARE que nous avons lancé pendant la crise COVID avec le CHU Rennes. Nous étions isolés chacun de notre côté et il a fallu coordonner à distance le travail de plus d’une dizaine de personnes ; ce fut très complexe mais nous avons réussi à le faire. Le projet visait à faciliter la récupération des patients se réveillant d’un coma profond et qui incapables de se nourrir ou de se déplacer. Notre hypothèse était qu’une expérience immersive dans laquelle l’avatar associé au patient se déplacerait chaque jour pendant 9 minutes 10 jours de suite dans un environnement virtuel agréable (une allée boisée dans un parc par exemple) contribuerait à préserver, voire rétablir des circuits cérébraux afin de déclencher un processus de rééducation avant même de quitter leur lit. Nous avons donc équipé des patients avec un casque de RV dès leur réveil au sein du service de réanimation, ce qui n’avait encore jamais été réalisé. Pour évaluer de façon rigoureuse cette expérimentation, les médecins réalisent actuellement une étude clinique qui n’est pas encore terminée, mais d’ores et déjà, nous savons que les soignants et les patients qui utilisent notre dispositif en sont très satisfaits.

    binaire : comment souhaites-tu conclure ?

    AL : Eh bien, en évoquant l’avenir, et le chemin qu’il reste à parcourir. Car même si la communauté des chercheurs a fait avancer les connaissances de façon spectaculaire ces 20 dernières années, il reste encore des défis majeurs et très complexes à relever.  Tellement complexes, qu’il est indispensable de travailler de façon interdisciplinaire autour de plusieurs axes, pour espérer améliorer à l’avenir et entre autres : les dispositifs immersifs (optique, mécatronique), les logiciels (réseaux, architectures), les algorithmes  (modélisation, simulation d’environnements toujours plus complexes), les interactions humain-machine 3D (notamment pour les déplacements ou les sensations tactiles) ou encore la compréhension de la perception des mondes virtuels et ses mécanismes sous-jacents.

    Tous ces défis laissent espérer des perspectives d’application très intéressantes dans des domaines variés : la médecine, le sport, la formation, l’éducation, le patrimoine culturel, les processus industriels, etc… s

    Mais en parallèle à ces questionnements scientifiques riches et variés, apparaissent d’autres enjeux très importants liés à la diffusion à grande échelle de ces technologies, avec des réflexions à mener sur les aspects éthiques, juridiques, économiques, et bien-sûr environnementaux. Tous ces sujets sont passionnants, et toutes les bonnes volontés sont les bienvenues !

    Pascal Guitton

    Références

  • Apprends à ranger ton sac à dos pour que les trains soient moins en retard

    Épisode 2 de la série « Henri Potier à l’école de la complexité » : Quand on conçoit un algorithme, une question est : « est-ce qu’il fait bien le boulot ? » Une autre est : « combien de temps il va prendre ?» Si ça met deux plombes pour me dire où trouver une pizza, ça m’intéresse moins. Le domaine qui traite du temps que va prendre un algorithme (ou de la quantité de mémoire dont il va avoir besoin) s’appelle « la complexité algorithmique ». Un premier article de la série « Henri Potier à l’école de la complexité » avait expliqué comment compter le temps de calcul d’un algorithme. Dans ce deuxième article, nous allons explorer des problèmes importants pour lesquels aucun algorithme efficace n’est connu, et on ignore même s’il en existe. Serge Abiteboul et Charlotte Truchet

    Hermine et Renaud ont enfin trouvé une carte qui localise l’emplacement de tous les horcruxes, ces objets renfermant une partie de l’âme de l’infect Vous-Savez-Qui et qu’il faut absolument détruire pour espérer vaincre le seigneur des ténèbres.

    Le temps de nos héros étant limité, il leur faut tous les récupérer en moins de 3 heures 8 minutes et 30 secondes. Renaud planche depuis de longues minutes déjà pour déterminer s’il existe un itinéraire assez rapide permettant de récupérer tous les horcruxes et de revenir au château, lorsqu’un pigeon apporte un message.

    2 – 5 – 1 – 3 – 4 – 7 – 6 – 2        S.N.

    – Guesguecé ? se demande Renaud, qui s’apprête à le jeter à la poubelle.
    – Mais arrête, c’est peut-être un message important, c’est signé Sirius Noir ! s’exclame Hermine. C’est sûrement un indice, on dirait un ordre dans lequel on peut récupérer les horcruxes. Regarde, il y a les mêmes numéros sur la carte !
    – Génial, ne traînons pas, prends ton balai, on y va !
    – Calme-toi un peu, Renaud, ça pourrait aussi être un piège. C’est peut-être signé par le Serpent Nagini finalement.
    – Un serpent ? On est foutus !
    – Mais non, peu importe l’auteur du message après tout, il suffit de vérifier qu’il nous donne un parcours assez rapide. Si on essaie de nous induire en erreur avec un chemin trop lent, je m’en apercevrai et on ignorera l’indice quel qu’en soit l’auteur. La carte indique les temps de voyage entre tous les emplacements d’horcruxes, il nous suffit d’additionner les temps du parcours proposé par le message pour le vérifier.

    1. Godric’s Hollow 2. Poudlard 3. Pré-au-Lard 4. Orphelinat Wool 5. Chemin de Traverse 6. Azkaban 7. Ministère de la Magie
    1. Godric’s Hollow 0 25 25 61 26 66 52
    2. Poudlard 25 0 7 42 21 41 29
    3. Pré-au-Lard 25 7 0 38 27 42 27
    4. Orphelinat Wool 61 42 38 0 63 31 19
    5. Chemin de Traverse 26 21 27 63 0 54 47
    6. Azkaban 66 41 42 31 54 0 18
    7. Ministère de la Magie 52 29 27 19 47 18 0

    Tableau des distances :

    Sur cette carte, le trajet 2-1-3-6-5-7-4-2 par exemple demande un temps de parcours de 25 + 25 + 42 + 54 + 47 + 19 + 42 = 254 minutes en balai volant, tandis que le chemin 2-5-1-3-4-7-6-2 de Sirius Noir n’en prend que 21 + 26 + 25 + 38 + 19 + 18 + 41 = 188, ce qui est tout juste moins que les 3 heures 8 minutes et 30 secondes.

    – Ah ouais, pas bête ! admire Renaud. Trop facile en fait !
    – Pas tant que ça… Sans l’indice de Sirius Noir, on était foutus, rappelle-toi. Tu te cassais la tête pour résoudre le problème mais tu étais vraiment très loin du compte ! Ce genre d’indice, on appelle ça un certificat.
    – Mais comment est-ce que tu sais tout ça, encore ?
    – Si tu passais un peu de temps à la bibliothèque, tu le saurais aussi ! Ici la question était de savoir s’il existait un chemin de moins de 3 heures 8 minutes et 30 secondes. L’indice de Sirius Noir est une preuve que la réponse est oui, puisqu’il nous donne un chemin qui convient. Et si la réponse avait été non, personne n’aurait pu nous fournir un chemin suffisamment court, puisqu’il n’en aurait pas existé. Nous n’aurions donc jamais été convaincus par une fausse information car aucune n’aurait donné un parcours de moins de 3h8min30s.
    – Donc un indice c’est un chemin, et on n’a plus qu’à le vérifier !
    – C’est un poil plus complexe, Renaud ! Un indice peut effectivement être la solution à un problème qu’on essaie de résoudre, comme c’était le cas pour les horcruxes. Mais dans le cas général, un indice correct doit convaincre que la réponse est oui, même s’il ne fournit pas nécessairement de solution à proprement parler. En fait, il n’y a pas toujours de notion évidente de ce qu’est une « solution » pour certains problèmes, et dans ce cas l’indice doit convaincre autrement. Réfléchis par exemple à un indice pour certifier qu’un nombre est premier… pas évident !

    « Al-Khwârizmî (professeur de magie mathématique) : » : comment convaincre votre ami qu’un nombre n’est pas premier ? Facile.

    L’entier N n’est pas premier signifie qu’il possède un diviseur propre d. Il suffit alors de donner d comme indice. Pour se convaincre qu’il s’agit d’un indice correct, il suffit de vérifier que d divise bien N.

    Mais maintenant comment convaincre votre ami qu’un nombre est premier ? Il n’est pas si simple de trouver un indice car c’est une propriété de non-existence : « il n’existe pas de diviseur propre ». Il semble donc qu’il faille vérifier tous les diviseurs possibles pour se convaincre. Alors n’y a-t-il pas d’indice concis ? En fait si, mais c’est (beaucoup) plus compliqué, Renaud tu n’es pas obligé de cliquer : Certificats de Pratt (Wikipédia en anglais)

    – Ah… Mais il y a d’autres problèmes où Sirius nous envoie des indices ?
    – Il y en a toute une ribambelle, Renaud, on les regroupe dans une classe appelée NP. Ce sont tous les problèmes pour lesquels il existe un algorithme efficace pour vérifier des indices : si la réponse à notre problème est oui, il existera au moins un indice qui peut être validé par l’algorithme. Mais si la réponse est non, aucune fausse information ne pourra le duper.
    – Par vérification efficace, tu veux dire qu’on peut le vérifier en un nombre polynomial d’opérations comme l’autre fois (* voir épisode 1), c’est-à-dire dans la classe P si je me souviens bien ?
    – Parfois tu m’impressionnes Renaud, c’est bien ça. Par exemple pour les chemins, l’algorithme de vérification est le suivant : il suffit juste d’ajouter les temps du parcours, ce qui se fait en un nombre polynomial d’opérations (donc dans P). Avec l’indice de Sirius Noir, il y a 7 durées ce qui nécessite 6 additions, plus une comparaison avec notre limite de temps. Plus généralement, s’il y avait n emplacements d’horcruxes, on aurait besoin de (n-1) additions plus une comparaison finale, la vérification d’une solution peut donc s’effectuer en n opérations c’est donc polynomial.
    – Pourquoi on ne cherche pas un algo qui résout le problème directement plutôt que d’attendre un indice ?
    – On aimerait bien… mais c’est parfois difficile de trouver un algorithme efficace, on n’en connaît pas toujours. NP n’est rien d’autre qu’un ensemble de problèmes, dont beaucoup sont très intéressants et qu’on aurait envie de résoudre efficacement en pratique. Par exemple, le problème d’ordonnancement des trains (où il s’agit de faire circuler des trains le plus rapidement possible sans qu’il y ait de collision) pour avoir moins de retard sur le Poudlard Express. Les mangemorts, eux, aimeraient savoir rapidement factoriser des nombres pour déverrouiller tous nos systèmes de sécurité basés sur RSA. Et moi j’aimerais réussir à organiser mon sac à dos optimalement pour partir en expédition contre les horecruxes.

    Si P=NP ça voudrait dire qu’on peut résoudre tous ces problèmes rapidement.

    – Si j’ai bien compris pour montrer cette égalité il suffit de montrer que les problèmes de NP sont dans P, car on sait déjà que tous les problèmes de P sont aussi des problèmes de NP non ?
    – Tu as pris de la potion d’intelligence aujourd’hui, Renaud, qu’est-ce qui te fait penser ça ?
    – Ben c’est facile si tu prends un problème de P, on peut déjà avoir la réponse avec un algorithme polynomial A. Il suffit alors d’ignorer l’indice qu’on nous donne.
    – Exactement, bravo ! Tu as fait l’inclusion facile. Reste l’autre, tu pourrais devenir riche et célèbre. Personne ne sait comment résoudre efficacement les trois problèmes précédents. Mais il y a quelque chose d’extraordinaire car si tu sais organiser ton sac à dos alors les trains seront moins en retard, et tu pourras en fait même résoudre efficacement tous les autres problèmes de NP.
    – Hein que quoi ?
    – Tu peux reformuler tous les problèmes de NP comme un problème de rangement de sac à dos.
    – Reformuler comme un problème de sac à dos ? Je comprends rien à ce que tu racontes Hermine !
    – Si tu veux mesurer la distance terre-lune, tu peux juste chronométrer combien de temps la lumière met pour parcourir terre-lune et en déduire la distance (car on connaît la vitesse de la lumière). Tu as reformulé un problème de distance en un problème de temps. C’est la même chose entre n’importe quel problème NP et le problème d’organisation du sac à dos : on peut aussi reformuler tout problème NP comme un problème de sac à dos. Les problèmes comme le sac à dos qui permettent d’exprimer tous les autres de NP, on les appelle des problèmes NP-complets.
    – Ça ressemble à de la magie, t’aurais pas un exemple pour que je comprenne bien ?

    Imagine qu’à une soirée tu veuilles répartir les gens en trois groupes, de sorte qu’au sein de chaque groupe tout le monde se connaît. On appelle ce problème 3CC (Couverture par 3 Cliques). On peut représenter ça par un graphe : chaque sommet représente une personne, et une arête entre deux sommets signifie que ces deux personnes se connaissent.Pour résoudre ce problème tu peux te ramener à un autre problème : celui de la coloration de graphes en trois couleurs (3col). Le but est de donner une couleur à chaque sommet de sorte que deux sommets reliés par une arête ne soient pas de la même couleur.

    Pour reformuler 3CC en 3col, il suffit de transformer le graphe de 3CC en supprimant les arêtes existantes et en ajoutant celles qui n’existaient pas.Après coloration du nouveau graphe, on obtient les groupes en mettant ensemble les sommets d’une couleur identique.On a ainsi transformé la recherche d’une couverture par 3 cliques en la recherche d’une coloration en 3 couleurs.

    – Si on peut transformer ainsi tout problème de NP en un problème B (dans NP), on dit que B est NP-complet. Le plus incroyable est non seulement qu’il existe bel et bien de tels problèmes NP-complets, qui capturent donc toute la difficulté et la diversité des problèmes que l’on trouve dans la classe NP, mais en plus c’est le cas de beaucoup de problèmes naturels et importants en pratique.
    – Pas mal cette notion de NP-complétude, ça me laisse sans voix.
    – Ça tombe bien, parce que tu as assez parlé Renaud, SN nous a laissé l’indice qui va bien. Allons chercher ces fameux horcruxes.

    Sylvain Perifel, maître de conférences, Université Paris Cité, et Guillaume Lagarde, chercheur indépendant.