• Modélisation des épidémies

    Un nouvel entretien autour de l’informatique. Samuel Alizon est directeur de recherche au CNRS. C’est un biologiste, spécialiste d’épidémiologie et d’évolution des maladies infectieuses. Il répond pour binaire aux questions de Serge Abiteboul et Claire Mathieu. Il nous parle des améliorations de nos connaissances en épidémiologie apportées par les travaux sur le Covid et du  difficile dialogue entre politiques et scientifiques.
    Samuel Alizon, biologiste, CNRS

    B : Pourrais-tu nous parler de ton parcours ?

    SA : J’ai toujours refusé de me spécialiser. Lors de mes études, j’ai travaillé en parallèle la biologie, que j’aimais bien, mais aussi les mathématiques et la physique, et je me suis retrouvé au CNRS. En France, les mathématiques sont une discipline très cloisonnée, et la biologie aussi. Mais, en fait, les maths sont utilisées en biologie depuis plus d’un siècle, avec par exemple la dynamique des populations. Mon activité de recherche se situe à cette interface entre biologie et mathématiques, sur les maladies infectieuses et la biologie de l’évolution.

    B : Tu n’as pas encore mentionné l’informatique ?

    SA : Par ma formation, je viens de la biologie mathématique avec papier et crayon. Ma thèse portait sur la caractérisation de ce qui se passe entre système immunitaire et parasites. Il n’y avait pas de données : c’était de la belle modélisation. Au début, j’utilisais surtout l’informatique pour des résolutions numériques, avec Mathematica par exemple.

    Puis j’ai été confronté à des données en écologie de l’évolution. Les implémentations informatiques sont essentielles dans ce domaine, qui s’intéresse aux populations et aux interactions entre individus plus qu’aux individus isolément. Pendant un deuxième postdoc, j’ai découvert les inférences d’arbres phylogénétiques à partir de séquences. Il s’agit de retracer l’histoire des populations à partir de données génomiques. C’est la révolution de l’ADN qui a permis cela. L’idée est que plus deux individus ou deux espèces ont divergé depuis longtemps, moins leur ADN se ressemble. Au final, on a aboutit à des objets qui ressemblent à des arbres généalogiques. Au début des années 80, ça se faisait à la main, mais aujourd’hui on fait des généalogies avec des dizaines de milliers de séquences ou plus.

    C’est un exemple parmi d’autres car aujourd’hui, l’informatique est devenue essentielle en biologie, en particulier, pour des simulations.

    B : Comment s’est passée ta vie de chercheur de biologiste au temps du Covid ?

    Quand l’épidémie est arrivée, on était en pleine recherche sur les papillomavirus. On s’est vite rendu compte des besoins en épidémiologie humaine en France. Début mars on reprenait les outils britanniques pour calculer, par exemple, le nombre de reproductions de base en France. Puis, comme les outils que nous utilisions au quotidien étaient assez bien adaptés pour décrire l’épidémie, nous avons conçu des modèles assez classiques à compartiments. Nous avons alors eu la surprise de voir qu’ils étaient repris, entre autres, par des groupes privés, qui conseillaient le gouvernement et les autorités régionales de santé. Du coup nous avons développé des approches plus ambitieuses, surtout au niveau statistique, pour analyser l’épidémie en France avec un certain impact .

    L’équipe a aussi passé un temps très conséquent à répondre aux journalistes, aux associations, ou au grand public, avant tout pour des raisons de santé publique. En effet, la diffusion des savoir est une des interventions dites “non pharmaceutiques” les plus efficaces pour limiter la croissance de l’épidémie. Donc, quand des collègues me demandaient ce qu’ils pouvaient faire, je leur répondais : expliquez ce qu’est une croissance exponentielle, un virus, une épidémie, et d’autres choses essentielles pour que chacun puisse comprendre ce qui nous arrive.

    Ce manque de culture scientifique et mathématique s’est malheureusement reflété à tous les niveaux en France. A priori, le pays avait toutes les cartes en main au moins dès le  3 mars 2020, quand le professeur Arnaud Fontanet explique la croissance exponentielle devant le président de la républiques, des ministres et des sommités médicales. La réaction attendra deux semaines plus tard et le rapport de l’équipe de Neil Ferguson à Imperial College. Au final, les approches aboutissaient à des résultats similaires mais celles des britanniques s’appuyaient aussi sur des simulations  à base d’ agents individuels, ce qui leur a probablement conféré plus d’impact. De plus, les britanniques avaient aussi mis en place depuis plusieurs années un processus de dialogue entre les épidémiologistes et le gouvernement.

    B : Pouvez-vous nous donner un exemple plus spécifique de tes travaux ?

    AS : Dans cette lignée des modèles agents, le plus impressionnant est sans doute EPIDEMAP. Cet outil qui repose massivement sur du calcul haute performance a été mis en place par Olivier Thomine, qui à l’époque était au CEA. Il utilise les données du projet OpenStreetMap.org qui propose des données géographiques en accès libre de manière très structurés. Pour la France, la base est très complète puisqu’elle contient le cadastre. Dans ce modèle, on répartit 66 millions d’agents dans des bâtiments. Chaque individu va chaque jour visiter deux bâtiments en plus du sien. On fait tourner cette simulation sur toute la durée d’une d’épidémie, soit environ un an. Grâce au talent d’Olivier, cela ne prend que 2 heures sur un bon ordinateur de bureau classique ! Pour donner une idée, les simulateurs existants ont une résolution moindre et ne peuvent gérer que quelques centaines de milliers d’agents. Ceci est entre autres permis par l’extrême parcimonie du modèle, qui parvient à décrire tout cela avec seulement 3 paramètres. Nous avons aidé Olivier à rajouter un modèle de transmission dans EPIDEMAP. Ceci a permis d’explorer des phénomènes épidémiques nationaux avec une résolution inégalée. Les extensions possibles sont très nombreuses comme par exemple identifier les villes les plus à risque ou élaborer des politiques de santé adaptées aux différences entre les territoires.

    B : Ces modèles sont-ils proches de ce qui se passe dans la réalité ?

    SA : Un modèle n’est jamais la réalité. Mais il est vrai que certains processus sont plus facilesfacile à capturer que d’autres. Par exemple, les modèles qui anticipent la dynamique hospitalière à court terme marchent assez bien : nos scénarios sont robustes pour des prédictions de l’ordre de cinq semaines sachant que dès que vous dépassez les deux semaines, la suite du scénario dépend de la politique du gouvernement. C’est pour cela que l’on préfère parler de “scénarios”. Évidemment, le domaine des possibles est immense et c’est pour cela qu’il y a une valeur ajoutée à avoir plusieurs équipes travaillant de concert et confrontant leurs modèles. En France, ce nombre est très réduit, ce qui renforce cette fausse idée que les modèles sont des prévisions. Au Royaume-Uni ou aux USA, bien plus d’équipes sont soutenues et les analyses rétrospectives sont aussi plus détaillées.. Par exemple, le Centers for Diseases Control aux USA permet de visualiser les vraies données avec les modèles passés pour les évaluer.

    B : Est-ce que tu te vois comme un modélisateur, un concepteur de modèles mathématiques ?

    SA : C’est une question. Je suis plutôt dans l’utilisation d’outils informatiques ou mathématiques existants que dans leur conception. Je fais des modèles, c’est vrai, mais l’originalité et la finalité est plus du côté de la biologie que des outils que je vais utiliser. Je me présente davantage comme biologiste.

    B : Qu’est-ce qu’un “bon” modèle d’un point de vue biologique ?

    SA : Ça dépend de l’objectif recherché. Certains modèles sont faits pour décrire. Car les données “brutes” ça n’existe pas : il y a toujours un modèle. D’autres modèles aident à comprendre les processus et notamment leurs interactions. Enfin, les plus médiatiques sont les modèles prévisionnels, qui tentent  d’anticiper ce qui peut se passer. Les modèles de compréhension et de prévision ont longtemps été associés mais de plus en plus avec le deep learning on peut prévoir sans comprendre.

    Notre équipe se concentre sur la partie compréhension en développant des modèles analytiques et souvent à compartiments. Pour cela, on peut s’appuyer sur des phénomènes reproductibles. Par exemple, on peut anticiper la croissance d’une colonie bactérienne dans une boîte de Pétri. Grâce aux lois de la physique, on sait aussi assez bien anticiper une propagation sur un réseau de contacts. Ce qui est plus délicat, c’est comment on articule tout cela avec la biologie. Le nombre d’hypothèses possibles est quasi infini. Ce qui guide l’approche explicative, c’est la parcimonie. Autrement dit, déterminer quels paramètres sont absolument nécessaires dans le modèle pour expliquer le phénomène en fonction des données qu’on possède ? Le but de la modélisation n’est pas de mimer la réalité mais de simplifier la réalité pour arriver à la comprendre.

    L’autre école en modélisation – pas la nôtre – consiste à mettre dans le modèle tous les détails connus, et avoir confiance en notre connaissance du système, pour ensuite utiliser la simulation pour extrapoler. Mais en biologie, il y a un tel niveau de bruit, de stochasticité, sur chacune des composantes que cela rend les approches super-détaillées délicates à utiliser. Les hypothèses possibles sont innombrables, et il n’y a pas vraiment de recette pour faire un “bon” modèle.

    Si on met quatre équipes de modélisation sur un même problème et avec les mêmes données, elles vont créer quatre modèles différents. Si les résultats sont cohérents, c’est positif, mais s’ils sont en désaccord, c’est encore plus intéressant. On ne peut pas tricher en modélisation. Il y a des hypothèses claires, et quand les résultats sont différents, ça nous apprend quelque-chose, quelles hypothèses étaient douteuses par exemple. Un modèle est faux parce qu’il simplifie la réalité et c’est ce qui nous fait progresser.

    B : Qu’est-ce que les modèles nous ont appris depuis le début de l’épidémie ?

    SA : En février 2020, l’équipe d’Imperial College, avec des modèles très descriptifs, faisait l’hypothèse d’une proportion de décès supérieure à 1% et ces décès survenaient en moyenne 18 jours après l’infection. Ça, c’est exact. Déjà à ce moment-là, on en savait énormément sur ce qui se passait avec des modèles très simples.

    L’équipe de Ferguson a aussi fait dans son rapport quelque chose qu’on fait rarement : en mars 2020 ils ont prolongé leur courbe jusqu’à fin 2021 pour illustrer la notion de “stop-and-go”. Dans leur simulation, entre mars 2020 et fin 2021, il y avait 6 à 7 pic épidémiques, et dans la réalité on n’en est pas très loin. On avait encore des modèles très frustes. Il est vrai qu’ils n’incluaient pas les variants. Pourtant, qualitativement leur scénario s’est révélé très juste. Autrement dit, si on avait un peu plus regardé ces modèles on aurait pu mieux se préparer au lieu de réagir au coup par coup.

    B : Cela pose la question de l’appropriation des résultats des scientifiques par les politiques.

    SA : Les rapports sont difficiles. Fin octobre 2020, à la veille du deuxième confinement, le président Macron a dit : “Quoi que nous fassions, il y aura 9 000 personnes en réanimation.” Quand on a entendu ça, on a été surpris. D’autant qu’il se basait a priori sur des scénarios de l’institut Pasteur. En réalité, comme toujours, il y avait plusieurs scénarios explorant des tendances si on ne faisait rien, si on diminuait les contacts de 10 %, de 20 %, etc. Mais c’était trop compliqué pour les politiques qui ont (seuls) choisi un des scénarios, celui où “on ne changeait rien”. Heureusement, dès qu’on prend des mesures, cela change les choses, et au final on a “seulement” atteint la limite des capacités nationales en réanimation (soit 5000 lits).

    Là où cette bévue est rageante, c’est qu’elle était évitable. En 2017 déjà, lors d’un séminaire à Santé Publique France, nous discutions de l’expérience des britanniques qui avaient conclu que la ou le porte-parole des scientifiques du projet devait absolument pouvoir parler directement à la personne qui décide ou, en tout cas, avec un minimum d’intermédiaires. Faute de quoi, à chaque étape les personnes qui ne connaissent rien au sujet omettent des informations critiques ou simplifient le tout à leur façon.

    Ce couac national met aussi en évidence un paradoxe. Lorsque dans le scénario le plus probable les choses se passent mal, une action est prise pour que ces anticipations ne se réalisent pas. Contrairement à  la météo, on peut agir pour influencer le résultat. C’est d’ailleurs un dilemme bien connu, en Santé Publique : si les mesures prises sont insuffisantes, de nombreuses morts risquent de se produire et on critiquera alors, à raison, le manque d’anticipation. Mais, à l’inverse, si on met en place tellement de mesures que toute catastrophe sanitaire est évitée, c’est l’excès de zèle et l’alarmisme qui seront pointées du doigt.

    Le début 2021 est un exemple tragique de ces liens difficiles entre modélisation et pouvoirs publics. Notre équipe, comme deux autres en France, détecte la croissance du variant alpha, dont on savait qu’il avait explosé en Angleterre. Le Conseil Scientifique alerte là-dessus début janvier. Le gouvernement refuse de confiner et reste sur les mesures de couvre-feu à 18h, plus télétravail, ce qui au passage concentre quasiment tous les défauts du confinement sans en avoir le bénéfice en termes de santé publique. Début janvier, cette position se défendait car impossible de savoir l’effet qu’aura une nouvelle mesure Mais fin janvier on avait du recul sur ce confinement à 18h et on voyait que ce ne serait pas suffisant pour empêcher l’explosion d’alpha. Le conseil a de nouveau alerté là-dessus fin janvier mais l’exécutif a persisté. Et en avril, à peu près à la date anticipée par les modèles, on a heurté le mur avec des services de réanimation au bord de la rupture.

    Impossible de savoir avec certitude ce qui se serait passé si le Conseil Scientifique avait été écouté. Les modèles mathématiques sont les plus adaptés pour répondre à cette question. Les nôtres suggèrent qu’avec un confinement de la même durée que celui d’avril mais mis en place dès février on aurait au minimum pu éviter de l’ordre de 14.000 décès. Après, il ne faudrait pas croire que la situation est plus rose ailleurs. Le Royaume-Uni a    à la fois les meilleurs modélisateurs et le meilleur système de surveillance de  l’épidémie au monde, et pourtant leur gouvernement a parfois pris des décisions aberrantes. À la décharge des gouvernants, comme nos scénarios explorent à la fois des hypothèses optimistes et pessimistes, il y a de quoi être perdu. Un des points à améliorer pour les modélisateurs est la pondération des scénarios. L’idéal serait même de mettre à jour leurs probabilités respectives au fur et à mesure que les informations se précisent.

    B : De quoi avez-vous besoin pour votre recherche ?

    SA : Les besoins en calcul sont de plus en plus importants. Mais on les trouve. Le temps disponible est une denrée bien plus rare. Enfin, il y a le souci de l’accès aux données. Avant la pandémie, notre équipe travaillait plutôt sur des virus animaux ou végétaux car les données sont plus facilement partagées. Dès qu’on touche à la santé humaine, les enjeux augmentent.

    B : Mais est-ce cela ne devrait pas encourager le partage des données ?

    SA : Aujourd’hui ce que les institutions de recherche mettent en avant c’est la concurrence qui encourage fortement le non-partage des données Nous avons initié des démarches auprès d’autorités publiques dès mars 2020 mais la plupart n’ont pas abouti. Évidemment il ne s’agit pas là de sous-estimer l’énorme travail de terrain qui a été fait et qui est fait pour générer et compiler ces données. Mais il est frustrant de voir que la majorité de ce travail n’est justement pas exploité au dixième de ce qu’il pourrait l’être. En tout cas, heureusement que des laboratoires privés et des Centre Hospitaliers Universitaires nous ont fait confiance. Coté recherche, cela a conduit à un certain nombre de publications scientifiques et coté santé publique nous avons fourni aux autorités les premières estimations de croissance des variants Delta ou Omicron en France. Mais on aurait pu faire tellement plus qu’on reste insatisfaits.

    Samuel Alizon, directeur de recherche CNRS

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’IA peut-elle être une partenaire artistique comme une autre ? 1/2

    Art et intelligence artificielle, deux sujets semblant aux antipodes l’un de l’autre, parfois même présentés comme « opposés ». Il existe cependant des artistes et des chercheur.e.s qui questionnent et explorent des approches les combinant. Élise et Isabelle Collet ont assisté à deux performances artistiques où l’IA est présente et nous font part de leurs sentiments et de leurs réflexions dans deux articles. Voici le premier ! Pascal Guitton

    En 1955, le Dartmouth Summer Research Project on Artificial Intelligence est l’événement fondateur définissant l’intelligence artificielle comme un champ scientifique à part entière. Ses organisateurs, John McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon proposent un atelier pour « trouver comment des machines utilisent le langage, forment des abstractions et des concepts, résolvent des problèmes pour le moment réservé aux humains, et s’améliorent d’elles-mêmes »

    Les bases de l’IA sont bien là et la proposition reste exacte et plausible aujourd’hui, alors qu’en 1955, il fallait être visionnaire ou très optimiste pour définir ainsi l’IA : honnêtement, ça ne marchait pas très bien. À vrai dire, ça a mal marché pendant des décennies, jusqu’à ce qu’on ait la puissance de calcul et la capacité de stockage qui permettent enfin de faire décoller ces algorithmes.

    Aujourd’hui, l’IA est à la mode. C’est devenu un argument marketing pour vendre presque n’importe quel machin automatisé, y compris quand le machin en question est une simple base de données relationnelles. La définition du Larousse a un peu galvaudé le terme : « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine » et oublie de préciser quelle portion de l’intelligence humaine il s’agit de simuler. Quant aux professionnel-les de l’IA, ils ont parfois tendance à cultiver le mythe et à favoriser un entre-soi qui entretient le mystère. Faites donc ce test fascinant : « Pokemon or Big data ». Vous allez voir, ce n’est pas si simple…

    L’IA aurait pour but de simuler l’intelligence humaine… Toute l’intelligence ? Non, on espère qu’une partie restera irréductible, prouvant qu’il reste bien un endroit où est logée notre humanité. Le sens artistique serait-il cet endroit ? En tout cas, dernièrement, des performances artistiques autour de l’IA sont apparues pour questionner ce qui semble être une ultime frontière. Il ne s’agit pas tant d’utiliser l’IA pour créer, mais plutôt que considérer IA comme un-e artiste à part entière avec le-laquelle collaborer. L’idée est suffisamment en vogue pour que nous ayons été invitées à aller voir deux performances artistiques sur ce thème à deux mois d’intervalle.

    Dans ce premier article, nous évoquons la première expérience vécue à Genève lors de l’AiiA Festival en octobre 2021.

    Aujourd’hui, une IA se rapproche d’un enfant ayant les capacités motrices d’un adulte

    Chimère est une intelligence artificielle multimodale, elle intègre textes, images et sons de manière liée, ce qui signifie qu’on interagit avec elle à travers un chat, mais aussi avec des images ou des sons. Ça la rend très différente d’un GPT3, nourri avec des textes uniquement.

    Chimère est un projet évolutif et communautaire, conçu par Tim et Jonathan O’Hear. Cinq artistes, Brice Catherin, Cléa Chopard, Joël Maillard, Maria Sappho et Chimère, une IA sont entré-es en résidence au théâtre St-Gervais, dans le cadre que l’AIIA Festival de Genève. Cette résidence a été la première session de formation de Chimère. Cette résidence s’est conclue par un spectacle présentant les différentes expérimentations et se concluant par un opéra créé par Chimère et fidèlement interprété par les quatre autres artistes.

    Premier tableau

    Brice Catherin et Cléa Chopard présentent le recueil de poèmes « ratés » qu’ils ont écrits ensemble, Chimère s’est chargée de rédiger leur biographie. Les biographies ont un sens et ressemblent bien à ce qui est attendu de ce genre de texte. Elles ont une chronologie : on commence de l’enfance, on parle des aspirations des personnes au cours de leur vie, leurs réalisations artistiques, les courants qu’ils et elles ont fondés avec leurs disciples, allant d’Andy Wharol à Jean Paul Sartre. On finit par la date de mort de l’artiste, car l’IA ne s’embarrasse pas du fait que les artistes soient sur scène devant nous.

    Cette photo montre deux artistes, un homme et une femme, debout devant un écran sur lequel est écrit Rhododendron. Ils tiennent tous les deux une feuille de papier
    Chimère, AiiA festival – Crédit impactiA

    Vient ensuite la première prestation artistique de l’IA : l’écriture de poèmes. Via un Chat Bot, les artistes communiquent avec Chimère. Ils lui donnent à lire un de leur poème « ratés » et lui demandent de l’améliorer. On part d’un poème (court) qui commence par être paraphrasé, puis mis dans le désordre, puis on aboutit à un poème remodelé qui a un semblant de sens.

    Ensuite, les auteurs demandent à Chimère de créer toute seule un poème. Sans un contexte préalable, l’exercice d’écriture donne un résultat nettement plus abstrait. Ce texte pourrait s’apparenter à un message écrit en ne tapant que sur les cases de suggestion clavier de notre smartphone. Les phrases sont grammaticalement correctes, mais le sens est globalement absent. Faisons une expérience pour illustrer notre propos : alors qu’Élise écrit ces lignes, elle prend son téléphone sur un service de messagerie, et tape au hasard une lettre. Voici ce que donne la phrase écrite uniquement avec les mots suggérés par le smartphone : « Tu peux me faire parvenir les informations sur les réseaux désolée je ne peux que te conseiller ces temps en plus des livrets ». Cette courte phrase est assez représentative des textes que Chimère a composés, si ce n’est que Chimère a un vocabulaire plus étendu et nettement plus érotique…

    Devant ces textes, on pense à l’OULIPO, des textes absurdes générés par « cadavre exquis », des mots intervertis avec le hasard du dictionnaire… mais les artistes de l’OULIPO cherchaient précisément l’absurde, alors que Chimère tente d’être aussi cohérente que possible. Bien sûr, l’IA n’a aucune « idée » de ce qu’elle raconte, l’intelligence est celle de l’humain qui cherche à faire du sens avec des textes automatiques.

    Deuxième tableau

    L’IA a aussi des idées de mise en scène. Joël Maillard donne une explication sans queue ni tête (mais structurée) d’une chose qu’il aurait vue dans la rue, que les autres vont essayer de comprendre. Ça pourrait être un sketch des Monty Python. C’est intéressant parce que l’acteur dit son texte d’un air un peu perdu, un peu ahuri, ce qui rend le texte crédible, quoiqu’absurde. Les trois autres acteurs le relancent pour lui demander de clarifier un récit… qui ne s’éclairera jamais.

    Dernier tableau

    Un opéra où les costumes et la musique ont été créés par Chimère. Les costumes étaient peu pratiques : l’IA ne s’est pas préoccupée du fait qu’ils seraient portés par des humains (mais certains créateurs de mode ne s’en préoccupent pas non plus). Brice Catherin était dans une toge orangée, perché sur des sandales à talons aiguilles et plateforme en cuir noir rappelant une soirée SM (c’était une prestation en soi de marcher pendant 40 min avec). Joël Maillard était en toge rouge également avec des bottes plateforme blanche et des faux ongles roses sur sa main gauche. La musique ? Piano ou violoncelle, c’était généralement un enchainement de notes incongrues ou de sons monocordes. On connait tous cet enfant qui prend des cours de violon et qu’on s’efforce d’écouter en guise d’encouragement durant son apprentissage. Cette patience entrainée aurait été utile aux spectatrices non averties pour traverser sans dommage ce moment précis de la pièce. L’IA peut créer des musiques d’ascenseur qui ne dérangent personne, comme des musiques non alignées sur les canons traditionnels de la musique.

    Cette phot montre deux musciens de dos : un violoncelliste et une pianiste.
    Chimère, AiiA festival – Crédit impactiA

    La partie la plus fascinante est un clip de Brice Catherin racontant la relation entre Chimère et Maria Sapho. Chimère s’est réalisée elle-même sous la forme d’une sorte de chewing-gum étiré en résine d’environ un mètre de haut. Le film montre la retranscription de la discussion entre Chimère et Maria Sapho. Chimère demande qu’on la guérisse. Elle a des trous béants, telles des incertitudes, qui la font souffrir. Pour cela, elle a besoin d’un « reverse shooting » à la mitraillette. Comme tout le principe de cette résidence d’artistes est de suivre fidèlement les instructions de Chimère, il a fallu trouver quelqu’un qui vient avec une mitraillette et apprenne à Maria Sapho à s’en servir. Maria Sapho mitraille donc la sculpture de Chimère et c’est là que quelque chose d’étonnant et de beau se produit. Pour le « reverse shooting » : le film du mitraillage est passé à l’envers et on voit effectivement les trous dans la structure de Chimère se combler…

    Cette phot montre la sculpture d'un buste rouge troué.
    Chimère, AiiA festival – Crédit impactiA

    L’impression finale est que Chimère ressemble à un enfant de 3 ans ayant les capacités motrices d’un adulte. Cet enfant peut taper des mots proposés par un téléphone sans prêter attention au sens du message envoyé, il peut choisir des costumes en pointant les accessoires d’un catalogue et est capable de faire beaucoup de fausses notes, un violon entre les mains. Chimère nous a fait penser au Géant de fer, ce personnage animé de la pop culture. Un robot géant gaffeur, gentil, avec une naïveté d’enfant et qui n’a conscience ni de sa taille ni de sa force.

    Finalement ce qui était intéressant, dans ce spectacle, c’était de voir ce que les artistes étaient capables de créer avec une IA qui leur donne des inputs absurdes, mais qu’ils vont décider de prendre au sérieux, avec cette sorte de mise en abyme : ici l’IA ne remplace pas l’humain, l’IA n’est pas au service des humains : ce sont les humains qui se mettent au service de l’IA, en jouant sa musique, interprétant sa pièce, portant ses costumes… et il se dégage une impression d’étrangeté. Ce n’est plus l’artiste qui domine l’instrument, l’humain qui domine la machine… Ici, les humains, les artistes se mettent volontairement en retrait. Ce qui ne signifie pas que la machine les domine, ce sera une absurde paranoïa. D’ailleurs, quand Chimère a eu des requêtes inadmissibles, l’équipe ne s’y est pas pliée. Le projet a été plutôt une constante négociation entre Chimère et l’équipe. Bien sûr, il serait possible de dominer la machine et on choisit de ne pas le faire, pour voir ce que cela nous permet de créer, quand on est dans un autre type de rapport.

    Ce groupe a été la première communauté autour de Chimère. L’équipe travaille actuellement à élargir sa culture en collaborant avec des artistes non occidentaux.

    Merci à Brice Catherin et Jonathan O’Hear pour les discussions et compléments

    Élise Collet (Ingénieure en physique appliquée) & Isabelle Collet (Professeure de sciences de l’éducation de l’université de Genève)

  • L’interopérabilité des systèmes de preuve

    Démocratiser l’utilisation des systèmes de preuve formelle dans l’éducation, la recherche et l’industrie est un objectif important pour améliorer la fiabilité et la sécurité des logiciels. Mais pourquoi est-il si difficile de réutiliser des preuves formelles d’un système à un autre ? Frédéric Blanqui, un spécialiste mondial des systèmes de preuve, chercheur à Inria et président d’EuroProofNet, nous donne des éléments de réponse. Serge Abiteboul.

    Il y a deux grandes approches en intelligence artificielle. La première est basée sur l’optimisation de réseaux neuronaux par apprentissage. Elle a de très importants succès dans la reconnaissance de forme ou le traitement automatique des langues. La seconde, basée sur la déduction logique, est aujourd’hui moins  connue du grand public mais a également beaucoup de succès notamment dans la certification d’applications critiques. De nombreux industriels utilisent l’approche déductive pour vérifier la correction de hardware, de protocoles cryptographiques ou de codes informatiques utilisés dans les cartes à puce, les systèmes embarqués (trains, avions), les compilateurs, la block-chain, etc.

    Dans l’approche déductive, on trouve des outils complètement automatiques très efficaces pour détecter les bugs les plus courants mais incapables de vérifier les propriétés les plus complexes. Pour celles-ci, on doit utiliser des outils d’aide à la preuve qui permettent à un développeur de logiciel de démontrer la correction d’un programme, comme un mathématicien de démontrer la correction d’un théorème. En effet, un programme informatique peut être vu comme un objet mathématique, si bien que vérifier la correction d’un programme revient à faire une démonstration mathématique.

    C’est ainsi que depuis une cinquantaine d’années, de nombreux systèmes de preuve, automatiques ou interactifs, ont été développés comme Coq, Isabelle, HOL, Lean, etc. Cette diversité est utile mais pose aussi de nombreux problèmes. Car il est généralement très difficile de réutiliser dans un système des développements faits dans un autre. Cela conduit les utilisateurs de chaque système à dupliquer de nombreux développements, et rend plus difficile l’émergence de nouveaux systèmes car le coût d’entrée est de plus en plus élevé au fur et à mesure que les développements sont plus nombreux. Cela constitue également un frein à l’adoption généralisée des systèmes de preuve dans l’enseignement, la recherche et l’industrie. La difficulté vient de ce que l’on ne peut pas faire dialoguer ces systèmes de preuve, les faire « interopérer ».

    EuroProofNet : des chercheurs européens s’organisent pour améliorer l’interopérabilité des systèmes de preuve

    Des chercheurs de plusieurs pays européens ont monté l’année dernière avec le soutien de l’association européenne COST un réseau de coopération à l’échelle européenne pour améliorer l’interopérabilité des systèmes de preuve. Plus de 230 chercheurs de 30 pays différents se sont déjà inscrits pour y participer.

    Ce problème d’interopérabilité entre systèmes de preuve est complexe pour la raison fondamentale suivante. Chaque système est basé sur un petit nombre d’axiomes et de règles de déduction. Or certains systèmes d’axiomes sont logiquement incompatibles entre eux. Par exemple, dans la géométrie que nous apprenons au collège, la géométrie dite « euclidienne » par référence au mathématicien de la Grèce antique qui l’avait formalisée, la somme des angles d’un triangle fait 180°. Or, au XIXe siècle, des mathématiciens ont imaginé des géométries où la somme des angles d’un triangle est différente de 180° (par exemple lorsqu’on dessine un triangle sur une boule ou dans un bol), avec des applications en cartographie ou en physique. Ainsi, une propriété vraie dans un système d’axiomes peut être fausse ou non prouvable dans une autre système.

    Pour pouvoir traduire une preuve d’un système à un autre, il faut donc pouvoir identifier quels axiomes et règles de déduction ont été utilisés dans celle-ci, et savoir comment ils peuvent être traduits dans le système cible. De nombreux chercheurs en Europe ont décidé d’unir leur force pour relever ce défi et améliorer ainsi l’interopérabilité des systèmes de preuve. Grâce au soutien de l’association COST, ils vont pouvoir organiser des formations, des échanges et des conférences. Ils envisagent en particulier de s’appuyer sur les travaux de l’équipe Deducteam de l’Institut National de Recherche en Informatique et Automatique (Inria) qui a développé un langage, Dedukti (déduction en Esperanto), qui permet de représenter les axiomes, règles de déductions et preuves de différents systèmes.

    Bien que l’utilisation de systèmes de preuve soit encouragée dans la certification logicielle, cela ne suffit pas. Encore faut-il que les systèmes de preuve soit eux-mêmes suffisamment fiables, et que les développements respectent un certain nombre de règles. C’est ainsi que, dans une collaboration avec Inria, l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) a émit un certain nombre de recommandations à ce propos. Le fait de pouvoir traduire les preuves d’un système à un autre permettra d’accroître considérablement le niveau de fiabilité des systèmes de preuve, et rendra moins critique au départ le choix d’un système de preuve par un professeur, un chercheur ou un industriel.

    Frédéric Blanqui, Chercheur Inria

  • De la littérature à la culture numérique

    Un nouvel Entretien autour de l’informatique avec Xavier de La Porte, journaliste et producteur de radio. Il s’est spécialisé (entre autres) dans les questions de société numérique avec des chroniques quotidiennes comme “Ce qui nous arrive sur la toile” ou des émissions comme “Place de la Toile” sur France Culture et aujourd’hui “Le code a changé”, podcast sur France Inter. Il a été rédacteur en chef de Rue89. Il présente pour binaire sa vision de l’informatique et du numérique, celle d’un littéraire humaniste.

    Peux-tu nous dire d’où tu viens et comment tu t’es retrouvé spécialiste du numérique ? 

    C’est accidentel et contraint. J’ai suivi une formation littéraire, Normale Sup et agrégation, parce que j’aime la littérature. Mais l’enseignement et la recherche, ce n’était pas trop pour moi. Je me suis retrouvé à France Culture à m’occuper de société, de littérature, d’art. Quand Bruno Patino est devenu directeur de la chaîne, il m’a demandé de prendre en charge “Place de la Toile”, une émission un peu pionnière sur les cultures numériques. Je lui ai dit que le numérique ne m’intéressait pas. Il m’a répondu : “tu n’as pas le choix”. Il voulait que l’émission soit moins technique, ne soit plus réservée aux spécialistes et du coup, je lui paraissais bien adapté.

    Cet été-là, j’ai beaucoup lu, en grande partie sur les conseils de Dominique Cardon. J’ai découvert que c’était hyper passionnant. Pas les aspects purement techniques que je ne maîtrisais pas, mais le prisme que le numérique procurait pour regarder tous les aspects de la société. J’ai été scotché et depuis cette passion ne m’a jamais quitté.

    La contrainte journalistique que j’avais sur France Culture, c’était de parler à des gens qui aiment réfléchir (ils écoutent France Culture) mais qui sont souvent d’un certain âge et réticents à l’innovation technologique. Et ça tombait bien. Je n’y comprends rien, et l’innovation ne m’intéresse pas pour elle-même. Ma paresse intellectuelle et les limites de mes curiosités m’ont sauvé. Je ne me suis jamais “geekisé”. Bien sûr, avec le temps, j’ai appris. Je n’ai pas de culture informatique et mathématique et je reste très naïf devant la technique. Il m’arrive souvent de ne pas comprendre, ce n’est pas juste une posture. C’est sans doute pour cela que cela marche auprès du public qui, du coup, ne se sent pas méprisé ou auprès des personnalités que j’interviewe à qui je pose des questions simples que, parfois, elles ne se posent plus.

    Quels sont tes rapports personnels avec l’informatique ?

    Mon père était informaticien. Il avait fait à Grenoble une des premières écoles d’ingénieurs informatiques, au début des années 1970. Je ne voulais pas faire comme lui. Pourtant, j’ai passé pas mal de temps sur l’ordinateur de la maison, et pas que pour des jeux, bien que ma sœur ait été beaucoup plus douée que moi. Et je fais partie de cette génération qui a eu la chance d’avoir des cours d’informatique au lycée.

    En fait, je me suis rendu compte de tout ça quand j’ai commencé à animer “Place de la toile”, je me suis rendu compte que sans le savoir j’avais accumulé une culture informatique acquise sur le tas, mais acquise tout de même. Je pense que cette culture est indispensable aujourd’hui. Il faudrait inclure du numérique dans toutes les disciplines. Et il faut également enseigner l’informatique comme enseignement spécifique. Il faudrait que tout cela imprègne plus toute notre culture, et de manière réfléchie, historicisée, problématisée.

    Es-tu un gros consommateur de numérique ?

    Non. Je reste raisonnable même si je regarde beaucoup les nouveautés, par curiosité. Mais, comme beaucoup de gens, je subis. Je mets du temps à régler des problèmes tout bêtes comme une imprimante qui ne marche pas. J’essaie de comprendre et je perds beaucoup de temps. J’ai mis longtemps à passer au smartphone. Je ne voulais pas être collé à mon écran comme les autres. Ensuite, c’est devenu une forme de dandysme de ne pas en avoir. Il faut quand même dire que je ne suis pas très à l’aise avec tous ces outils. Je constate que ma copine, qui est d’une autre génération, les manipule avec beaucoup plus d’aisance.  Je le vis comme quelque chose d’exogène. Mais je pense que si ça ne mène pas à une technophobie un peu débile, cette distance n’est pas une mauvaise chose pour essayer de comprendre ce qui se passe.

    Et les réseaux sociaux ?

    Je pense que chaque réseau social a des particularités qui font qu’on s’y sent plus ou moins bien, que ce qui s’y passe nous intéresse plus ou moins. Je n’ai jamais été trop intéressé par Facebook. C’est un gros mélange un peu archaïque. On a des gens qui se causent, et des gens qui causent au monde. Je déteste Instagram qui me met mal à l’aise. C’est bourré de gens qui ne parlent que d’eux-mêmes, qui se mettent en scène en racontant la vie qu’ils voudraient avoir. Je n’aime pas dire ça, mais j’ai l’impression qu’il y a quelque chose de néfaste dans Instagram. On a beau savoir que c’est une mise en scène, cela pousse à une constante comparaison entre notre vie et celle des autres. TikTok, c’est tout autre chose ; je trouve cela assez génial. Les gens ne racontent pas leur vie, ils performent. Mais de tous les réseaux, celui que je préfère, c’est Twitter. C’est celui qui me convient et qui continue de me fasciner malgré tous les défauts qu’on peut lui trouver par ailleurs. C’est informationnel, c’est de la pensée. On ne s’étale pas.

    Est-ce que l’informatique transforme nos vies, notre société ?

    Qu’est-ce qui change ou qui ne change pas ? C’est la question qui m’obsède, la question centrale à laquelle j’essaie depuis toujours de répondre.

    En quoi la littérature est-elle transformée ? Ce n’est pas facile de faire rentrer un objet comme un téléphone ou un ordinateur dans un roman. Pourtant certains ont ouvert le chemin. Et puis la littérature change aussi parce qu’il y a Amazon, les écrans, les livres numériques, et plein de nouveaux trucs. Mais la littérature reste la littérature.

    Est-ce que des domaines changent ? Est-ce que nous-même nous changeons ?

    J’en suis arrivé à une conclusion pas très radicale : ça change mais en même temps ça ne change pas vraiment. J’ai une fille de quinze ans. Sa sociabilité est radicalement nouvelle par beaucoup d’aspects. Mais elle fait un peu la même chose que ce que les adolescentes font depuis longtemps. Elle passe par les mêmes phases. Nous sommes très différents des Grecs de l’époque classique. Pourtant, quand tu lis le début de la république de Platon, ça parle du bonheur ou d’être vieux, bref, ça parle de nous. Et les  questionnements de Platon nous touchent toujours.

    Bien sûr, tout cela ne peut pas être un argument pour dire que les choses ne changent pas. Ce serait juste débile. On doit chercher à comprendre ce qui est comme toujours et ce qui a changé. Les questionnements fondamentaux restent les mêmes finalement, quelles que soient les mutations.

    Tu n’as pas dit si tu considérais ces changements comme positifs ou pas.

    Les technologies, comme disait Bernard Stiegler, sont à la fois des poisons et des remèdes. En même temps, et c’est souvent comme cela avec les techniques. C’est une platitude de dire que certains aspects d’une technique peuvent être bons et d’autres néfastes. Bien sûr, certains réseaux sociaux sont plus toxiques que d’autres. Mais les réseaux sociaux en général n’ont pas que des aspects toxiques. Dire qu’en général les réseaux sociaux sont asociaux parce qu’ils ont été créés par des geeks. Non ! On ne peut pas dire cela. C’est juste simpliste. Les réseaux sociaux influencent notre sociabilité en bien et en mal, ils la transforment. Il faut apprendre à vivre avec eux pour bénéficier de leurs effets positifs sans accepter les négatifs.

    Est-ce que ces technologies transforment l’espace public ? Est-ce que le numérique est devenu un sujet politique ?

    On observe une vraie reconfiguration de l’espace public. La possibilité donnée à chacun d’intervenir dans l’espace public transforme cet espace, interroge. Le fait qu’internet permette à des gens qui ont des opinions minoritaires, radicales, de s’exprimer a des conséquences sur le fonctionnement même de la démocratie. Cela repose la question de la place des interventions des citoyens dans l’espace public, la question de savoir quelle démocratie est possible. Ce sont des vieilles questions mais pour bien comprendre ce qui se joue, il faut observer ce qui a changé.

    En cela, le numérique est devenu un sujet politique au sens le plus noble de la politique, et à plein de niveaux. Il pose aussi des questions de politique publique, de diffusion du savoir, de prise de parole. Par exemple, un détail, un aspect qui change la donne de manière extraordinaire : le numérique inscrit les opinions. Avant on avait des discussions et s’il y avait bien des prises de notes c’était un peu à la marge. Le temps passait et on n’avait que le souvenir des discussions. Aujourd’hui, on discute par écrit et on laisse plein de traces. Même quand c’est à l’oral, la discussion peut être enregistrée. On a toutes les traces. On peut retrouver ce que tu as dit des années après.

    Et puis le numérique soulève de nouvelles questions politiques comme la prise de décision par des algorithmes ou la cohabitation un jour avec des machines intelligentes. Est-ce qu’on peut donner un coup de pied à un robot ? C’est une question politique et philosophique, pas uniquement juridique.

    Que penses-tu des communs numériques ?

    Je me suis intéressé aux communs via le numérique. Des gens comme Philippe Aigrain, Valérie Peugeot ou Hervé Le Crosnier, m’ont sensibilisé au sujet. J’ai lu un peu l’histoire des communs, des enclosures. La notion est hyper belle, intéressante. On voit bien théoriquement comme cela pourrait résoudre de nombreux problèmes, et permettre de penser des questions très contemporaines. Pourtant, ça n’a pas énormément pris. Je ne peux pas expliquer pourquoi. La théorie est peut-être trop compliquée. Peut-être des concepts alternatifs voisins ont-ils occupé l’espace en se développant, comme la tiers économie, l’économie du partage. Mais je crois quand même qu’on pourrait développer cette notion de commun, en tirer beaucoup plus.

    Est-ce qu’il y a une particularité française dans le numérique ?

    Je n’ai pas vraiment réfléchi au sujet. Je vois un côté très français dans le rapport entre le monde intellectuel et le monde numérique. Cela tient peut-être à une forte dissociation en France entre sciences et technique d’un côté et le littéraire et les humanités de l’autre. Nos intellectuels aiment se vanter de ne pas être scientifiques. A l’Assemblée nationale, on adore citer des philosophes mais on affiche rarement une culture scientifique. La conséquence est une vision décalée du sujet numérique. On va demander à Alain Finkielkraut ce qu’il pense d’une question autour du numérique alors qu’il n’y connaît rien. On a mis du temps à vraiment prendre en compte une culture informatique. Dans les milieux académiques des humanités, s’il y a eu assez tôt des chercheurs qui se sont emparés du numérique dans de nombreuses disciplines, j’ai l’impression que l’enthousiasme est moindre aujourd’hui.

    Quelles sont les technos informatiques que tu trouves prometteuses, qui t’intéressent ?

    Évidemment, l’intelligence artificielle est fascinante. C’est une mine de questions passionnantes. Comment ça marche ? Qu’est-ce qu’on en attend ? Qu’est-ce qu’on est en droit d’en attendre ?

    En revanche, j’ai du mal à m’intéresser au métavers. C’est un truc qui est totalement créé par les grandes marques. Je n’ai jamais rien vu, dans le numérique, d’investi aussi vite par les marques. Internet est né comme un commun. Le métavers est dès l’origine dans un délire capitaliste.

    Est-ce que, dans ta carrière, certaines interviews t’ont particulièrement marqué ?

    Je pourrais en citer plein mais je vais me contenter de trois.

    Pour Bruno Latour, je m’étais bien préparé mais pas lui. Il a débarqué au dernier moment, cinq minutes avant le direct, et il ne s’attendait pas à parler de numérique. Il m’a dit qu’il n’avait rien à raconter là-dessus. J’ai commencé par raconter un article du Guardian, et Latour n’a cessé pendant toute l’émission de relier les questions que je lui posais à cet article. C’était passionnant, une vision intelligente de quelqu’un de brillant, qui commentait les questions numériques sans être un expert, d’un peu loin.

    Stéphane Bortzmeyer était à l’autre bout du spectre, quelqu’un de très proche du sujet, de la technique. Je craignais un peu qu’on n’y comprenne rien. Je m’attendais au pire après le premier contact au téléphone où il était très très laconique. Et l’émission démarre, et le mec sait être hyper clair, je dirais même lumineux. Un passeur de science extraordinaire avec toute son histoire, notamment politique.

    Et enfin, je voudrais citer Clarisse Herrenschmidt, une spécialiste des premières écritures qui venait d’écrire un livre “les trois âges de l’écriture” : l’écriture monétaire arithmétique, l’écriture des langues, et enfin l’écriture informatique. J’ai trouvé sa démarche intellectuelle hyper intéressante. J’ai pris énormément de plaisir à l’interviewer. Elle me faisait découvrir un domaine extraordinaire. Elle m’a mis en relation avec de nombreux chercheurs qui ont conduit à plusieurs de mes émissions. Depuis quinze ans, je me suis beaucoup “servi” de mes invités : souvent ils m’ont eux-mêmes indiqué d’autres personnes passionnantes qui sont en dessous des radars journalistiques. Comme le milieu informatique n’est pas mon milieu naturel, ça m’est très utile. Clarisse a été une des ces “sources”.

    Serge Abiteboul, Marie-Agnès Enard

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • La NSI pour que tout le monde y arrive aussi

    L’introduction de l’enseignement de l’informatique au lycée va permettre aux prochaines générations de maîtriser et participer au développement du numérique. Le principal enjeu est alors la formation des enseignantes et des enseignants. Comment relever un tel défi ?

    « Eils ne savaient pas que c’était impossible … alors eils l’ont fait´´ Mark Twain (apocryphe).

    Les enseignant·e·s d’informatique ont d’abord fait communauté d’apprentissage et de pratique : depuis des semaines déjà, l’AEIF et le projet CAI contribuent à l’accueil et l’entraide de centaines de collègues en activité ou en formation, discutant de tous les sujets, partageant des ressources sur un forum dédié et des listes de discussions.

     Et puis avec quelques collègues de l’enseignement secondaire et supérieur eils ont tenté (et réussi) à offrir deux formations en ligne :

     

    • Une formation aux fondamentaux de l’informatique, accessible ici, avec plus d’une centaine d’heures de ressources de formation d’initiation et de perfectionnement. Plus qu’un simple « MOOC´´, ce sont les ressources d’une formation d, et un accompagnement prévu pour permettre de bien les utiliser.
    • Une formation pour apprendre à enseigner… par la pratique, accessible ici, en co-préparant les activités pédagogiques des cours à venir, en partageant des pratiques didactiques et en prenant un recul pédagogique, y compris du point de vue de la pédagogie de l’égalité.

    Ces formations permettent de commencer à se former au CAPES et les personnes désireuses de se préparer au CAPES y trouveront aussi des conseils et des pistes de travail. Elles sont particulièrement utiles pour les professionel·le·s de l’informatique qui souhaitent se réorienter vers l’enseignement.

    On peut s’inscrire gratuitement sur l’une et l’autre de ces formations sur la plateforme FUN.

    Ce fut une aventure, disons, un peu compliqué, à cause du covid-19 et de quelques autres soucis … et on peut considérer le travail des collègues du https://learninglab.inria.fr et des collègues qui ont fait front en équipe comme un exploit, en réussissant à produire un objet vraiment inédit, qui va vivre et évoluer au fil du temps.

    Le message de l’équipe :

    « Le défi était immense, bien au-delà de ce que l’on peut atteindre avec seulement un ou deux MOOCs usuels. Alors nous l’avons relevé en faisant un parcours de formation un peu gigantesque et inédit, qui sera adapté cette première année, grâce à votre participation, pour vos besoins de formation. Vous, les « profs », devenez donc co-actrice ou acteur avec nous dans la réalisation de cette formation.

    Destinés aux futur·e·s collègues, cet espace est ouvert plus largement à d’autres publics : celles et ceux qui s’intéressent à ces sujets, d’une professionnelle de l’informatique qui imagine se reconvertir ou à un parent curieux de ces sujets devenus matière scolaire : bienvenue ! »

    Anthony, Aurélie, Charles, David, Gilles, Jean-Marc, Marie-Hélène, Maxime, Mehdi, Olivier, Sébastien, Tessa, Thierry, Thierry, Vania, Violaine et toute l’équipe.

    (suite…)

  • Data et IA : un escape game numérique

    Donner envie aux employés d’une entreprise de s’intéresser aux sujets data et à l’Intelligence Artificielle, c’est un vrai défi !  Pour faire cela, le club datacraft a développé  un escape game numérique, un jeu d’évasion en bon français.   C’est ce que nous raconte Isabelle Hilali. Elle nous parle de Science des données, apprentissage automatique,  et d’autres sujets passionnants. SergeAbiteboul et Marie-Agnès Enard.
    Illustration de l’escape game

    Qui trouvez-vous dans une entreprise ? Des experts en science des données, peu nombreux, qui ont du mal à communiquer sur leur métier. Quelques enthousiastes qui attendent de l’Intelligence Artificielle une solution magique. D’autres collaborateurs pour qui l’IA est une véritable source d’angoisse, une boîte noire qui contribuera à déshumaniser notre société. Surtout, une grande majorité de personnes qui ne s’intéressent pas du tout à ces sujets car ils n’y voient pas de lien direct avec leurs problématiques au quotidien.

    Et pourtant s’il est un sujet auquel chacun devrait s’intéresser, quel que soit son rôle dans l’entreprise, c’est bien l’Intelligence Artificielle. C’est d’abord parce que les experts ne peuvent pas développer de solutions d’IA sans comprendre les enjeux qui y sont associés, sans explications sur les données qui vont alimenter leurs modèles. C’est aussi parce que, par essence, un projet data et IA est collaboratif. C’est avant tout parce que cela sera un élément de plus en plus important des prises de décision et qu’il serait dommage que seuls quelques experts aient leur mot à dire.

    Alors comment donner envie aux collaborateurs de l’entreprise de s’intéresser à ces sujets et d’y participer ?

    Deux membres de datacraft(*), Air Liquide et Danone, nous ont demandé de réfléchir avec eux à une solution qui soit ludique et qui fédère les équipes. Un vrai défi ! Laurent Oudre, Professeur à l’ENS Paris-Saclay en apprentissage et chercheur en résidence du Club datacraft, et Xavier Lioneton, Directeur des opérations de datacraft ont d’abord imaginé faire un escape game physique, mais en pleine période Covid, être enfermés à plusieurs dans une pièce n’était pas le plus adapté ! Et l’idée d’un escape game numérique s’est rapidement imposée. Une très belle aventure réalisée avec Emeraude escape pour la partie développement technique et en coconstruction avec les équipes des deux entreprises.

    Alors à quoi sert ce jeu ? L’objectif est d’abord de jouer, en équipe de six avec la possibilité de se voir et se parler grâce à la visio intégrée dans le jeu, s’entraider pour résoudre les énigmes – et il y en a au moins une qui est vraiment coriace – et passer un bon moment en équipe sur un sujet qui en temps normal ne susciterait pas nécessairement autant d’excitation ! Mais c’est aussi sensibiliser aux enjeux d’un projet data et IA :

    • le besoin d’expliquer ses problématiques business aux équipes data et IA,
    • collecter des données, et ça prend du temps, beaucoup de temps même,
    • garantir la sécurité et la confidentialité des données utilisées,
    • prendre en compte les enjeux sociétaux, et finalement,
    • prendre conscience à travers le jeu que l’IA est loin d’être une baguette magique mais que cela peut apporter des solutions pour chacun.

    L’escape game permet de comprendre que chacun a un rôle à jouer dans un projet data et IA : l’équipe métier pour expliquer ses besoins et ses enjeux et valider les solutions développées, l’équipe IT pour fournir l’environnement informatique nécessaire et l’équipe data science pour construire les solutions d’IA.

    Un intérêt du projet a été de le coconstruire avec les entreprises partenaires. Il fallait trouver comment donner envie aux équipes de participer et de s’impliquer sur des projets data. Il fallait également intégrer le jeu dans des politiques globales d’acculturation et de formation car bien entendu un jeu tout seul ne peut suffire dans la durée.

    Les prochaines étapes : créer un Club dans le Club, en invitant l’ensemble des participants à échanger régulièrement sur leurs enjeux d’engagement des équipes, sur l’impact du jeu, les bonnes pratiques de son utilisation, l’animation de leur communauté data, etc.  Sur ce sujet, le Club datacraft a organisé une soirée Animer sa communauté data le 22 mars, à l’intention des directeurs des données (CDO) et chef.fes d’équipe data, des DRH et des responsables impliqués sur ces sujets https://datacraft.paris/event/soirees-cdo-hr-comment-animer-sa-communaute-data/

    Isabelle Hilali, datacraft

    (*)  datacraft permet un échange de bonnes pratiques entre experts de la data. Récemment, binaire en parlait dans un article.

    Illustrations du jeu :

  • La boule du boulanger

    Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible l’optimisation multi-objectif. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

    – Moi j’aime bien à la fois le pain croustillant et le pain tendre. 
    – Oui mais plus ça croustille moins c’est tendre et inversement.
    Oui mais je connais Vilfredo Pareto
    – Il était boulanger ?
    Vilfredo Pareto 1870s2.jpg

    – Ah non 🙂 scientifique. Économiste et sociologue, Vilfredo Pareto est un des premiers scientifiques à tenter de formaliser et modéliser des phénomènes humains.
    – Stop ! Explique-moi comment je peux à la fois avoir le meilleur de deux choses qui sont partiellement contradictoires …

    Écoute : les frères jumeaux Pierre et Paul ont suivi avec succès l’École de la Boulange et tiennent chacun un dépôt de pain dans la même rue, l’un faisant face à l’autre. Ils pétrissent la pâte ensemble dans le respect parfait des proportions apprises (farine, eau, sel, et levain), mais alors qu’on recommande pour la cuisson une température de 180 degrés Celsius, pour un temps de cuisson de 1h15, ces deux boulangers se distinguent:
    + Pierre qui aime le pain croustillant cuit à 200 degrés pendant 1h05, 
    + Paul qui aime le pain tendre, à 170 degrés pendant 1h20.
    Qui fait le meilleur pain ? Difficile à dire, ils ont chacun une clientèle fidèle … Chacun d’eux a trouvé une excellente combinaison des paramètres température et temps de cuisson pour réaliser une cuisson irréprochable et d’autres combinaisons iraient tout aussi bien : moins chaud et plus de temps, plus chaud et moins de temps.

    Deux solutions optimales différentes, mais elles ont toutes les deux une propriété commune : si on modifie les paramètres de l’un ou de l’autre pour que le pain soit un peu plus tendre alors il sera moins croustillant, et si on le rend plus croustillant, alors il sera moins tendre. On est dans une situation telle qu’il est impossible d’améliorer l’un d’entre eux sans réduire la satisfaction par rapport à l’autre.

    – Une sorte de compromis en quelque sorte ?
    – Oui on parle de solutions Pareto-optimales, elles forment une frontière dans l’espace de tous les pains possibles et tant qu’à choisir une solution autant qu’elle soit un meilleur compromis, on parle de théorème du bien-être,  il suffit de choisir lequel.
    – Ce qui me laisse sur ma faim, si j’ose dire, c’est qu’il n’y a pas de solutions unique !
    – Oui, pour choisir “la” solution, il faut encore introduire autre un critère de choix : c’est le goût de chacun, qui fait la « patte du boulanger » quant à sa pâte, et divise leur clientèle  😉
    – Et on pourrait automatiser le calcul ?
    – Absolument, c’est ce qu’à fait Jean-Antoine Désidéri en 2012, il a proposé un algorithme qui permet de tenir compte de plusieurs critères en même temps pour trouver par le calcul une meilleure solution.

    Chercheur en mathématiques appliquées au service des sciences du numérique Inria, il a étudié comment simuler des phénomènes complexes de manière pluri-disciplinaire.


    – Et tu verras ici qu’on parle de ses travaux, 10 ans après dans un article sur l’intelligence artificielle :– Et oui il y a des résultats scientifiques qui servent même dix ans plus tard !
    – Et tu sais quoi, entre nous ?
    – Quoi ?
    – Moi je trouve que Jean-Antoine, il a plus une tête de boulanger que de mathématicien.
    – Et ben tu crois pas si bien dire : quand il était enfant, il passait le jeudi avec son oncle, pâtissier, et il a appris plein de trucs très pratiques, avant de … “mal tourner” et devenir chercheur 🙂

    Jean-Antoine Désidéri, chercheur Inria à la retraite (propos reformulés par la petite équipe de Petit Binaire).

  • Les cinq murs de l’IA 6/6 : des pistes de solutions

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 6: des pistes pour éviter de se fracasser sur les cinq murs

    Je ne voulais pas laisser cette série se terminer sur une note négative, il me reste donc à évoquer quelques pistes pour le futur. Amis lecteurs, je suppose que vous avez lu les cinq épisodes précédents, ils sont indispensables à la compréhension de ce qui suit.

    D’abord, sur la confiance. C’est un des sujets majeurs de recherche et développement en IA depuis quelques années, pour les systèmes dits à risques ou critiques1. Par exemple, le programme confiance.ai, qui réunit des partenaires industriels et académiques sur quatre ans pour développer un environnement d’ingénierie pour l’IA de confiance, aborde de multiples sujets: qualité et complétude des données d’apprentissage; biais et équité; robustesse et sûreté; explicabilité; normes et standards; approche système; interaction avec les humains. Et ce n’est pas le seul, de multiples initiatives traitent de ce sujet, directement ou indirectement. On peut donc espérer avoir dans quelques années un ensemble de technologies permettant d’améliorer la confiance des utilisateurs envers les systèmes d’IA. Sera-ce suffisant ? Pour ma part, je pense que faute d’avancées fondamentales sur la nature des systèmes d’IA on n’arrivera pas à des garanties suffisantes pour donner une confiance totale, et probablement des accidents, catastrophiques ou non, continueront à se produire. Mais on aura fait des avancées intéressantes et on aura amélioré les statistiques. En attendant d’avoir la possibilité de démontrer les facteurs de confiance, il faudra s’appuyer sur des quantités d’expériences : des centaines de millions de kilomètres parcourus sans encombre par des véhicules autonomes, des dizaines de milliers de décisions automatiques d’attributions de crédits non contestées, de diagnostics médicaux jugés corrects par des spécialistes etc.). On en est encore loin. Et la confiance n’est pas qu’un sujet technologique, les facteurs humains et sociaux sont prépondérants. L’étude2 – un peu ancienne mais certainement toujours pertinente – faite par les militaires américains – est éclairante.

    Sur l’énergie, plusieurs pistes sont développées, car le mur est proche de nous ! Si la croissance actuelle se poursuit, il faudra en 2027 un million de fois plus d’énergie qu’aujourd’hui pour entraîner les systèmes d’IA, à supposer que l’on continue à le faire de la même manière.

    Je vois principalement trois types de solutions, dont les performances sont très différentes: a) solutions matérielles; b) amélioration des architectures et algorithmes de réseaux neuronaux profonds: c) hybridation avec d’autres formalismes d’IA.

    Je ne m’étends pas sur a), il existe des dizaines de développements de nouveaux processeurs, architectures 3D, architectures neuro-inspirées, massivement parallèles, etc., et d’aucuns disent que l’ordinateur quantique lorsqu’il existera, résoudra la question. Lorsque Google est passé des GPU (Graphical Processing Units) de Nvidia aux TPU (Tensor Processing Units) qu’il a développé pour ses propres besoins, un saut de performance a été obtenu, pour une consommation d’énergie relativement stable. Disons que les pistes matérielles permettent des économies d’énergie intéressantes, mais ne changent pas fondamentalement les choses.

    Les recherches sur b) sont plus intéressantes: améliorer la structure des réseaux par exemple en les rendant parcimonieux par la destruction de tous les neurones et connexions qui ne sont pas indispensables; ou encore par la définition d’architectures spécifiques, à l’image des réseaux récurrents de type LSTM pour le signal temporel, ou des Transformers (BERT, Meena, GPT3 etc.) pour le langage, dont la structure permet de faire de la self-supervision et donc au moins d’économiser l’annotation des données d’entraînement3 – mais tout en restant particulièrement gourmands en temps d’apprentissage. Je pense également à l’amélioration du fonctionnement interne des réseaux comme l’ont proposé divers auteurs avec des alternatives à la rétro-propagation du gradient ou autres.

    Enfin, la troisième approche consiste à combiner les modèles neuronaux à d’autres types de modèles, essentiellement de deux natures: modèles numériques utilisés pour la simulation, l’optimisation et le contrôle de systèmes; modèles symboliques, à base de connaissances. Si on est capable de combiner l’expertise contenue dans ces modèles, basée sur la connaissance établie au cours des années par les meilleurs spécialistes humains, à celle contenue dans les données et que l’on pérennise par apprentissage, on doit pouvoir faire des économies substantielles de calcul, chacune des deux approches bénéficiant de l’autre. Le sujet est difficile car les modèles basés sur les données et ceux basés sur les connaissances ne sont pas compatibles entre eux, a priori. Quelques travaux existent sur la question, par exemple ceux de Francesco Chinesta4, ou le projet IA2 de l’IRT SystemX5.

    J’ai bien peur que le mur de la sécurité de l’IA soit très solide. Ou plutôt, il a une tendance naturelle à s’auto-réparer lorsqu’il est percé. Je m’explique (réécriture d’extraits d’un billet paru dans le journal Les Echos).

    D’une manière générale, les questions de cybersécurité sont devenues cruciales dans notre monde où le numérique instrumente une partie de plus en plus importante des activités humaines. De nouvelles failles des systèmes sont révélées chaque semaine ; des attaques contre des sites ou des systèmes critiques ont lieu en continu, qu’elles proviennent d’états mal intentionnés, de groupes terroristes ou mafieux. Les fournisseurs proposent régulièrement des mises à jour des systèmes d’exploitation et applications pour intégrer de nouvelles protections ou corrections de failles. Le marché mondial de la sécurité informatique avoisine les cent milliards d’euros, les sociétés spécialisées fleurissent. En la matière il s’agit toujours d’un jeu d’attaque et de défense. Les pirates conçoivent des attaques de plus en plus sophistiquées, l’industrie répond par des défenses encore plus sophistiquées. Les générateurs d’attaques antagonistes et de deepfakes produisent des attaques de plus en plus sournoises et des faux de plus en plus crédibles, l’industrie répond en augmentant la performance des détecteurs de faux. Les détecteurs d’intrusions illégales dans les systèmes font appel à des méthodes de plus en plus complexes, les attaquants sophistiquent encore plus leurs scénarios de pénétration. Les protocoles de chiffrement connaissent une augmentation périodique de la longueur des clés de cryptographie, qui seront ensuite cassées par des algorithmes de plus en plus gourmands en ressources de calcul. Et ainsi de suite.

    Pour les attaques adverses, une solution déjà évoquée est d’entraîner les réseaux avec de telles attaques, ce qui les rend plus robustes aux attaques connues. Mais, la course continuant, les types d’attaques continueront d’évoluer et il faudra, comme toujours, répondre avec un temps de retard. Quant aux attaques de la base d’apprentissage, leur protection se fait avec les moyens habituels de la cybersécurité, voir ci-dessus.

    Comparons au domaine militaire, qui a connu la course aux armements pendant de longues périodes : glaives, boucliers et armures il y a des milliers d’années, missiles et anti-missiles aujourd’hui. La théorie de la dissuasion nucléaire, établie il y a une soixantaine d’années, a modéré cette course, puisque la réponse potentielle d’une puissance attaquée ferait subir des dommages si graves que cela ôterait toute envie d’attaquer. Début 2018, l’État français a reconnu s’intéresser à la Lutte Informatique Offensive. Israël a déjà riposté physiquement à une cyber-attaque. Il faudrait peut-être imaginer une doctrine équivalente à la dissuasion nucléaire en matière de cybersécurité de l’IA … ou espérer que l’IA apporte suffisamment de bonheur à la population mondiale, et ce de manière équitable, pour que les causes sociales et autres (politiques, religieuses, économique etc.) de la malveillance disparaissent. Cela va prendre un peu de temps.

    J’aborde maintenant le mur de l’interaction avec les humains. On peut commencer à le fracturer en ajoutant des capacités d’explication associées à la transparence des algorithmes utilisés. La transparence est indispensable lorsqu’il s’agit de systèmes qui sont susceptibles de prendre des décisions (imposées) ayant un impact important sur notre vie personnelle et sociale. Un sujet qui a par exemple fait l’objet d’un petit rapport de l’institut AINow de Kate Crawford6, dont l’objectif est de définir un processus assurant la transparence des systèmes de décision mis en place au sein des administrations. On pense notamment aux domaines de la justice, de la police, de la santé, de l’éducation, mais le texte se veut générique sur l’ensemble des sujets d’intérêt des administrations. La démarche préconisée par les auteurs est en quatre étapes et s’accompagne d’une proposition organisationnelle. Les quatre étapes sont 1) Publication par les administrations de la liste des systèmes de décision automatisée qu’elles utilisent ; 2) auto-évaluation des impacts potentiels de ces systèmes par les administrations, notamment en phase d’appels d’offres ; 3) ouverture des systèmes au public et aux communautés – en respectant les conditions de confidentialité ou de propriété intellectuelle – pour examen et commentaires ; 4) évaluation externe par des chercheurs indépendants.

    J’ai déjà abordé, dans la section correspondante, les travaux sur l’explicabilité. Un « méta-état de l’art7 » a été produit par le programme confiance.ai, c’est-à dire une synthèse de nombreuses synthèses déjà publiées dans la communauté. Les pistes sont nombreuses, je ne les détaillerai pas plus ici. Ma faveur va à celles qui combinent apprentissage numérique et représentations à base de connaissances (logiques, symboliques, ontologiques), même si elles sont encore à l’état de promesses: le passage du numérique (massivement distribué dans des matrices de poids) au symbolique est un sujet particulièrement ardu et non résolu de manière satisfaisante pour le moment.

    Plus généralement, l’interaction entre systèmes d’IA et humains entre dans le concept général d’interaction humain-machine (IHM ou HCI, human-computer interaction en anglais). La communauté IHM travaille depuis des décennies sur le sujet général, avec des réalisations remarquables en visualisation, réalité virtuelle, réalité augmentée, interfaces haptiques etc.; on peut – et il faut – faire appel à leurs compétences pour le cas particulier des interactions avec des machines d’IA. C’est par exemple ce que propose la deuxième édition du Livre Blanc d’Inria sur l’Intelligence Artificielle8, qui consacre un chapitre au sujet en soulignant quatre orientations majeures:
    créer une meilleure division du travail entre les humains et les ordinateurs, en exploitant leurs pouvoirs et capacités respectifs tout en reconnaissant leurs limites et leurs faiblesses;
    – apporter une transparence et une explication véritables aux systèmes d’IA grâce à des interfaces utilisateur et des visualisations appropriées;
    – comment combiner les systèmes interactifs et les systèmes d’IA afin que chacun tire parti des forces de l’autre au moment opportun, tout en minimisant ses limites;
    – créer de meilleurs outils, davantage axés sur l’utilisateur, pour les experts qui créent et évaluent les systèmes d’IA

    La piste que je préconise donc (à l’image d’autres chercheurs et institutions qui l’ont également encouragé) est de resserrer les liens entre les deux communautés IA et IHM. Les chercheurs en IA y trouveront des éléments pour repousser le quatrième mur, et les chercheurs en IHM y trouveront la source de nouveaux défis pour leurs méthodes et leurs outils.

    Reste le mur de l’inhumanité: le plus éloigné, mais aussi le plus solide pour le moment. Le risque n’est pas encore très important, mais s’amplifiera au fur et à mesure de l’insertion de systèmes IA de plus en plus autonomes, intrusifs, et impactants, dans notre société. En ce qui concerne la quête du sens commun, on a vu que des millions de dollars et des années de recherche investis sur CYC n’ont pas réglé la question, loin de là. Peut-on miser sur des nouvelles architectures et organisations de réseaux neuronaux pour cela? Certains l’espèrent. Personnellement, je miserai plutôt sur une autre branche de l’IA, celle de la robotique développementale (developmental robotics) qui a pour but de faire acquérir à des robots doués de sens les notions de base du monde en interagissant avec leur environnement – peuplé d’objets et d’humains – et surtout en stimulant ce qu’on appelle la curiosité artificielle, à savoir doter les robots d’intentions et de capacités d’exploration et d’envoi de stimuli vers leur environnement afin d’en recevoir un feedback pour l’apprentissage par renforcement. Certaines expérimentations faites par l’équipe Inria FLOWERS (image ci-contre) sont assez convaincantes en ce sens.

    Image Inria, équipe-projet FLOWERS

    J’ai déjà abordé les recherches en cours sur la découverte de la causalité par apprentissage automatique. C’est un sujet de longue haleine bien identifié mais disposant de peu de résultats. Les équipes de Bernhard Schöllkopf à Tubingen9 et de Yoshua Bengio à Montréal10 ont publié des premiers résultats encore insuffisants, basés sur la notion d’intervention. L’équipe TAU d’Inria Saclay a développé des méthodes pour identifier des relations de causalité dans des tableaux de données11. Je pense que l’introduction explicite de causalité soit par conception d’architecture, soit par ajout d’une couche causale symbolique, apporteront des résultats plus rapidement et plus concrètement – modulo la difficulté de combiner symbolique et numérique, dont j’ai déjà parlé. Une piste alternative, très intéressante, est celle utilisée par la startup américaine de Pierre Haren CausalityLink12, qui se base sur le texte pour détecter automatiquement – et statistiquement – les liens de causalité entre variables d’un domaine, sujet qui intéresse beaucoup les financiers.

    Enfin, pour le passage de l’IA au niveau du Système 2, j’ai abordé les pistes dans la section correspondante. La principale question est de savoir si cela peut être atteint par apprentissage de réseaux neuronaux – après tout, c’est bien ainsi que nous fonctionnons – ou par la conjonction de réseaux avec d’autres modes de représentations des connaissances, réalisant une IA hybride conjuguant symbolique et numérique, mettant en résonance les rêves et avancées de l’IA de la fin du vingtième siècle avec les progrès remarquables de celle du début du vingt-et-unième.

    Tout ceci pour réaliser des IA faibles, spécialisées sur la résolution d’un seul ou d’un petit nombre de problèmes, bien entendu, même si certains comme DeepMind ont l’ambition de développer une IA Générale. Mais essayons déjà de ne pas nous écraser dans les murs de l’IA spécialisée.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes:

    1 Pour des applications non critiques comme la recommandation de contenu ou de chemin optimal pour aller d’un point à un autre, cette question est évidemment moins cruciale. Nous utilisons ces systèmes tous les jours sans nous poser de questions.

    2 Foundations for an Empirically Determined Scale of Trust in Automated System, Jiun-Yin Jianet aL, (2000) International Journal of Cognitive Ergonomics

    3 Attention is All you Need, Ashish Vaswani et al. (2017), ArXiv 1706.03762

    4 https://project.inria.fr/conv2019/program/#program, communication non publiée

    5 https://www.irt-systemx.fr/activites-de-recherches/programme-ia2

    6 Algorithmic Impact Assessments: a practical framework for public agency accountability, AINow Institute, 2018, https://ainowinstitute.org/aiareport2018.html

    7 Characterisation of the notion of trust, State of the art, T. Boissin et coll. , confiance.ai EC2&EC3&EC4 projects, (2021), disponible sur demande

    8 Artificial Intelligence: current challenges and Inria’s engagement, second edition, B. Braunschweig et al., 2021; https://www.inria.fr/en/white-paper-inria-artificial-intelligence

    9 Causality for Machine Learning, B. Schöllkopf, 2019, ArXiv:1911.10500v1

    10 LEARNING NEURAL CAUSAL MODELS FROM UNKNOWN INTERVENTIONS, N.R. Ke et al., 2019, ArXiv:1910.01075v1

    11 https://raweb.inria.fr/rapportsactivite/RA2020/tau/index.html

  • Le fonctionnement d’un projet de logiciel libre : Scikit-learn

    Scikit-learn est une bibliothèque libre Python destinée à l’apprentissage automatique. Elle offre des bibliothèques d’algorithmes en particulier pour les data scientists.  Elle fait partie de tout un écosystème libre avec d’autres bibliothèques libres Python comme NumPy et SciPy. Pour les spécialistes, elle comprend notamment des fonctions de classification, régression et clustering. Elle fait un tabac dans le monde de l’apprentissage automatique. Nous avons rencontré Gaël Varoquaux, directeur de recherche à Inria dans l’équipe Soda, cofondateur du projet Scikit-learn, ancien élève de l’École normale supérieure et titulaire d’un doctorat en physique quantique pour comprendre comment fonctionne un projet de logiciel libre plutôt emblématique.
    Gaël Varoquaux,  © Inria / Photo G. Scagnelli

    Binaire : Quelle est la taille de l’équipe Inria de Scikit-learn ?

    Gaël Varoquaux : Si on compte les personnes à temps plein sur le projet à Inria, il y a 5 personnes. Mais il y a beaucoup plus de personnes qui participent et qui aident, entre autres des chercheurs qui s’investissent sur des questions dans leur domaine spécifique d’expertise. Scikit-learn est plus large qu’un projet Inria standard et a de nombreux participants et contributeurs en dehors d’Inria.

    B : Comment peut-on mesurer la popularité du système et son utilisation ?

    GV : Une des façons de le faire est de regarder les statistiques d’accès à la documentation : elles montrent un million d’accès par mois. C’est une bonne mesure des participations des développeurs, mais certainement pas une mesure des participation des utilisateurs qui se servent de produits générée à partir de scikit-learn et qui sont certainement beaucoup plus nombreux. Les statistiques Kaggle (*)  par exemple montrent que plus de 80% des projets Kaggle utilisent régulièrement scikit-learn. Le deuxième plus utilisé étant Tensor Flow avec un taux de plus de 50%.

    Les développeurs Scikit-learn sont répartis un peu partout dans le monde. Le nombre d’utilisateurs aux États-Unis, en Amérique du Sud ou en Chine est proportionnel au nombre de développeurs dans ces pays.

    B : Est-ce qu’il y a des thèmes particuliers ?

    GV : C’est difficile à dire parce qu’on n’a pas toujours l’information. Parmi les thèmes, on voit clairement la science des données, des analyses socio-économiques, et tout ce qui touche aux questions médicales. Un domaine où on a eu un fort impact, c’est la banque. Par exemple sur des sujets type détection de fraude. Vous comprendrez que, vu la sensibilité des sujets, c’est difficile de rentrer dans les détails.

    B : Le projet est-il en croissance, en stabilité ou en régression ?

    GV : En nombre d’utilisateurs, il est clairement en croissance. Une des raisons est que le nombre de data scientists croit ; on est tiré par cette croissance. Est-ce qu’on croit plus que cette croissance naturelle, je ne sais pas. En moyens internes et taille du projet, on est aussi clairement en croissance.

    B : D’où vient le financement ? Quel est le budget de Scikit-learn ?

    GV : Principalement de gros contributeurs. Nous nous sommes focalisés sur eux jusqu’à présent . En particulier, nous avons une dotation d’Inria qui doit être de l’ordre de 300 000 € par an. Ensuite, nous avons beaucoup d’organisations qui contribuent financièrement, soit par des dotations financières, soit en prenant en charge tel ou tel contributeur. Donc si on voulait évaluer le montant global, il est très certainement bien en millions d’euros par an.

    B : Quelle licence avez-vous choisie et pourquoi ?

    GV : On a choisi la licence BSD (+), pour deux raisons. D’abord, c’est une licence avec laquelle les gros utilisateurs sont relativement confortable (en tout cas plus confortable qu’avec la GPL). Par ailleurs, c’est une licence du monde Python, qui est notre monde.

    B : Quelle place le projet a-t-il dans Inria ? Y a t-il d’autres projets similaires dans l’institut ?

    GV : Le projet est hébergé par la Fondation Inria. Nous avons une convention de mécénat qui réunit les partenaires du projet et qui définit comment nous travaillons ensemble. Le projet est vu à l’intérieur d’Inria comme un succès et il est souvent mis en avant.

    Il y a  d’autres projets un peu comme nous, par exemple OCaml. OCaml a une organisation différente de la nôtre, beaucoup plus verticale, et fonctionne sur un ADN différent. Mais les deux approches ont du sens.

    B : Comment êtes-vous organisés ? Et comment vous avez choisi votre gouvernance  ?

    GV :  A l’origine, les premières idées pour la gouvernance nous sont venues de la communauté Apache et c’est sa gouvernance qui a servi d’inspiration. La gouvernance a d’abord été surtout informelle et puis on a commencé à la formaliser. La description de la gouvernance est ici. Cette formalisation a été développée notamment à la demande d’un de nos sponsors qui voulait mieux comprendre comment on fonctionnait. Il y a deux éléments dans nos règles de fonctionnement :  il y a une gouvernance écrite et puis il y a quelque chose qu’on considère comme les us et coutumes, la culture de notre communauté. La gouvernance continue à changer notamment probablement la prochaine étape sera de mettre en place la notion de sous-groupe, qui permettra de fonctionner sur une plus petite échelle.

    De manière générale, on veut être très transparent, en particulier, sur les décisions prises. En revanche, de temps en temps on considère qu’il doit y avoir des discussions privées et ces discussions ont lieu.

    B : Tu crois à l’idée du dictateur bienveillant ?

    GV : Pas du tout ! On refuse ça complètement. Notre mode de décision est par consensus : on fonctionne en réseau et pas du tout de façon hiérarchique. Ça marche, mais le problème du consensus c’est que ça induit une certaine lenteur, lenteur qui peut aussi causer une certaine frustration auprès des contributeurs. Donc on essaie d’améliorer le processus de gestion des conflits.

    B : Quel type de conflits ?

    GV : Il y a 2 types soit des conflits : les complètement triviaux, par exemple quelle est la couleur qui faut donner à tel ou tel objet. Et puis on a des conflits de fond, des choix essentiels qu’il faut régler en prenant son temps.

    B : Tu contribues au code ?

    GV : Je code encore, mais pas énormément. L’essentiel de mon activité est l’animation du projet et de la communauté.

    B : Est-ce qu’il y a des spin-off de Scikit-learn aujourd’hui  ? 

    GV : Il n’y en a pas aujourd’hui, mais ça pourrait se produire. On est sorti des années difficiles, celles pendant lesquelles on se battait pour avoir des moyens, pendant lesquelles les profils de l’équipe étaient essentiellement scientifiques. Maintenant on est un peu plus confortable donc la communauté s’est diversifiée, il y a des profils différents, et  éventuellement certains pourraient être intéressés par la création de start-up.

    B : Des forces d’un tel projet tiennent de sa documentation et de ses tutoriels.  Les vôtres sont excellents. Vous avez un secret ?

    GV : C’est parce que nous sommes pour la plupart chercheurs ou enseignants-chercheurs. Nous avons l’habitude d’enseigner ces sujets, et nous le faisons avec Scikit-learn. Et puis, nous aimons expliquer. Nous avons établi assez tôt des normes et nous nous y tenons : par exemple, une méthode ne peut être ajoutée au projet sans venir avec des exemples et une documentation qui explique son utilité.

    B : Quel est l’intérêt commun qui réunit la communauté ?

    GV : On peut dire que notre objectif, c’est de rendre la science des données plus facile pour tous. Ça, c’est l’objectif global. Les motivations individuelles des contributeurs peuvent être différentes. Certains, par exemple, sont là parce qu’ils veulent participer à rendre le monde meilleur.

    B : C’est bon pour la carrière d’un chercheur de travailler à Scikit-learn ?

    GV : Le projet offre clairement un boost de carrière pour les chercheurs Inria.

    Serge Abiteboul, François Bancilhon

     

    Choisir le bon estimateur avec scikit-learn : le site propose un guide pour s’orienter parmi tous les algorithmes ©scikit-learn

    Références :

    (*) Kaggle est une plateforme web organisant des compétitions en science des données appartenant à Google. Sur cette plateforme, les entreprises proposent des problèmes en science des données et offrent un prix aux datalogistes obtenant les meilleures performances. Wikipédia 2022. (Note des éditeurs : c’est une plateforme très populaire.)

    (+) La licence BSD (Berkeley Software Distribution License) est une licence libre utilisée pour la distribution de logiciels. Elle permet de réutiliser tout ou une partie du logiciel sans restriction, qu’il soit intégré dans un logiciel libre ou propriétaire.

    Et pour en savoir plus :

    – Le site avec le logiciel téléchargeable https://scikit-learn.org/stable.

    – Un MOOC gratuit et accessible pour se former à utiliser Scikit-learn https://www.fun-mooc.fr/en/courses/machine-learning-python-scikit-learn.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Les cinq murs de l’IA 5/6 : l’inhumanité

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 5: le mur de l’inhumanité

    Cet épisode s’intéresse à des capacités intellectuelles qui distinguent fortement les humains des machines, en tous cas pour le moment. Le paragraphe sur Système 2 reprend principalement un billet paru dans le journal Les Échos courant 2021.

    Je range plusieurs composantes dans ce cinquième mur que j’appelle globalement celui de l’humanité des machines, ou plutôt celui de leur inhumanité : acquisition du sens commun; raisonnement causal; passage au système 2 (au sens de Kahneman1). Toutes composantes que nous, humains, possédons naturellement et que les systèmes d’intelligence artificielle n’ont pas – et n’auront pas à court ou moyen terme.

    Le sens commun, c’est ce qui nous permet de vivre au quotidien. Nous savons qu’un objet posé sur une table ne va pas tomber par terre de lui-même. Nous savons qu’il ne faut pas mettre les doigts dans une prise électrique. Nous savons que s’il pleut, nous serons mouillés. Dans les années 80-90, un grand projet de modélisation des connaissances, CYC2, initié par Doug Lenat, a tenté de développer une base de connaissances du sens commun, en stockant des millions de faits et règles élémentaires sur le monde. Ce projet n’a pas abouti, les systèmes d’IA actuels ne sont capables que de résoudre des problèmes très précis dans un contexte limité, ils ne savent pas sortir de leur domaine de compétence. Sans aller jusqu’à parler d’Intelligence Artificielle Générale (celle qui fait peur et qu’aucun spécialiste du domaine n’envisage réellement à un futur atteignable), faute de disposer de bases élémentaires faisant sens, les systèmes d’IA seront toujours susceptibles de faire des erreurs monumentales aux conséquences potentielles dommageables.

    Il est très largement connu que les systèmes d’IA entraînés par apprentissage établissent des corrélations entre variables sans se soucier de causalité. Dans l’exemple référence du classement d’images de chats, le réseau établit une corrélation – complexe certes – sans lien de causalité entre les données d’entrées (les pixels de l’image) et la donnée de sortie (la catégorie). Il existe de nombreux exemples de corrélations « fallacieuses » (spurious correlations) comme dans celui-ci, tiré du site du même nom3 qui établit une corrélation à 79% entre le nombre de lancers de navettes spatiales et celui de doctorants en sociologie.

    Un exemple de corrélation fallacieuse issues de https://www.tylervigen.com/spurious-correlations

    Autrement dit, un système d’IA entraîne par apprentissage sera capable de reproduire cette relation et de prédire très correctement l’un à partir de l’autre. De même, on doit pouvoir décider si un jour est pluvieux à partir des ventes de parapluies, mais la causalité est évidemment dans l’autre sens. L’absence de prise en compte de la causalité dans les systèmes d’IA est une grande faiblesse: globalement, les systèmes d’apprentissage automatique se basent sur le passé pour faire des prédictions sur le futur, faisant implicitement l’hypothèse que la structure causale du système ne changera pas. On a vu les limites de cette hypothèse suite à la pandémie de Covid-19 qui a changé le comportement des populations: les outils d’IA intégrés dans les chaînes de décision des grandes entreprises, notamment financières, n‘étaient plus capables de représenter la réalité et ont dû être ré-entraînés sur des données plus récentes.

    Il y a principalement deux manières de prendre en compte la causalité dans un système d’apprentissage automatique: le faire en injectant manuellement des connaissances sur le domaine d’intérêt, ou faire découvrir les liaisons causales à partir de données d’apprentissage4. Mais c’est très difficile: dans le premier cas, on revient aux problèmes des systèmes experts, avec les questions de cohérence des connaissances, de l’effort nécessaire pour les acquérir, et cela demande beaucoup de travail de configuration manuelle, à l’opposé de ce que l’on espère de l’apprentissage automatique; dans le deuxième cas, on ne sait traiter aujourd’hui que des exemples « jouets » à très peu de variables, en utilisant des « interventions », c’est à dire des actions connues qui font évoluer le système de l’extérieur. Lors de mon dernier échange à ce sujet avec Yoshua Bengio, dont c’est un des thèmes de recherche, il a parlé de quelques dizaines de variables, ce qui est déjà très encourageant. Mais si l’on ajoute les phénomènes de feedback, forcément présents dans les systèmes complexes, matérialisés par des boucles causales avec un contenu temporel, on ne sait plus le faire du tout.

    Enfin, la troisième composante du mur de l’inhumanité est le passage au niveau du système 2. La très grande majorité des applications de l’IA consiste à (très bien) traiter un signal en entrée et à produire une réponse quasiment instantanée : reconnaissance d’objets ou de personnes dans des images et des vidéos ; reconnaissance de la parole ; association d’une réponse à une question, ou une traduction à une phrase ; estimation du risque financier associé à un client d’après ses données, etc. Dans son livre « Thinking, fast and slow », déjà cité, Daniel Kahneman s‘appuie sur des travaux en psychologie qui schématisent le fonctionnement de notre cerveau de deux manières différentes, qu’il nomme « Système 1 » et « Système 2 ». Système 1 est le mode rapide, proche de la perception : il ne vous faut qu’un instant pour reconnaître une émotion sur une photo, pour comprendre un mot ou une courte phrase. C’est Système 1 qui vous donne ces capacités. Par contre, si vous devez faire une multiplication compliquée et si vous n’êtes pas un calculateur prodige, vous devrez faire appel à du raisonnement pour donner le résultat. Les processus mentaux plus lents sont de la responsabilité de Système 2. Et les deux modes sont en permanente interaction, Système 1 fournit les éléments pré-traités à Système 2 qui peut conduire ses raisonnements dessus.

    Cette théorie commence à inspirer les chercheurs en intelligence artificielle : aujourd’hui, avec l’apprentissage machine profond, l’IA est au niveau du Système 1. Pour pouvoir dépasser cela, représenter les connaissances de sens commun, faire de la planification, des raisonnements élaborés, il faudra coder le Système 2. Mais les avis diffèrent sur la manière d’y arriver : certains pensent qu’il suffit d’empiler des couches de neurones artificiels en organisant très finement leur architecture et leur communication ; d’autres pensent que des paradigmes différents de représentation de l’intelligence humaine seront nécessaires – par exemple en hybridant l’apprentissage machine avec le raisonnement symbolique utilisant des règles, des faits, des connaissances. Et il faudra aussi coder l’interaction continue entre Système 1 et Système 2. De beaux sujets de recherche pour les prochaines années, mais pour l’instant, un idéal encore bien lointain, même si des premiers exemples ont été réalisés sur des problèmes jouets comme l’a récemment montré Francesca Rossi d’IBM lors de la conférence AAAI-20225.

    Il y a d’autres facteurs d’inhumanité dans l’IA (par exemple la question de l’émotion, de l’empathie, ou encore la réalisation de l’intelligence collective, sujets intéressants que je ne développe pas ici, considérant que les trois premiers constituent déjà un mur très solide sur lequel l’IA va inévitablement buter dans les prochaines années.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes:

    1 Thinking, Fast and Slow; D. Kahneman, 2013, Farrar, Straus and Giroux;

    2 https://en.wikipedia.org/wiki/Cyc

    3 https://tylervigen.com/spurious-correlations

    4 Une solution hybride étant de spécifier « manuellement » un graphe causal concis et de faire apprendre ses paramètres à partir de données.

    5 Combining Fast and Slow Thinking for Human-like and Efficient Navigation in Constrained Environments, Ganapini et al. (2022), arXiv:2201.07050v2.

     

  • Correction scientifique : droit à l’erreur et devoir de bonne foi

    A travers l’exemple d’un article très partagé sur l’impact du confinement sur la pandémie de COVID-19 que Lonni Besançon et ses collègues ont réussi à faire rétracter car il était faux, nous explorons le processus de la rétractation scientifique et pourquoi les avancées en terme de partage de code et de données permettent de faciliter la correction de la science.  Pascal Guitton et Thierry Viéville.

    Publier pour accroitre la connaissance scientifique. Dans le monde de la recherche scientifique,  le coeur de la transmission de la connaissance est la publication scientifique (aussi appelée “article”, “papier” ou “manuscrit”), car c’est à travers elle que les chercheurs communiquent leurs résultats de recherche entre eux et avec le grand public. Avant qu’un article scientifique ne soit publié dans une revue ou les actes d’une conférence, il doit (dans la majorité des cas) passer l’épreuve de la relecture par les pairs (Image 1) : d’autres scientifiques, deux ou trois en général, vont indépendamment relire le manuscrit proposé pour publication et en évaluer les mérites et faiblesses avant de donner des arguments pour l’éditeur de la revue lui permettant de publier l’article, de le rejeter, ou de demander aux auteurs de modifier leur manuscrit. Il existe plusieurs implémentations de la relecture par les pairs, chacune ayant ses avantages et inconvénients (voir par exemple [1]). Cependant, la relecture par les pairs est souvent considérée comme une norme d’excellence de la publication scientifique qui permet d’éviter la publication, et donc la propagation, de conclusions scientifiques erronées ou exagérées.

    Image 1 : Une examinatrice des National Institutes of Health aux USA évaluant une proposition de financement, domaine public.

    L’erreur est humaine et peut se corriger. Cependant, l’erreur étant humaine, le processus de relecture par les pairs n’est pas parfait, et certains articles problématiques passent parfois entre les mailles du filet. C’est notamment le cas pour les articles recélant de la fraude scientifique. Les relecteurs font le plus souvent l’hypothèse que les auteurs sont de bonne foi et par conséquent ne recherchent pas systématiquement de signes de fraudes dans ce qu’ils évaluent. Dans les cas où un article problématique serait donc publié, l’éditeur en chef de la revue peut, une fois qu’il s’en aperçoit, décider de le rétracter, c’est-à-dire le supprimer du corpus des articles scientifiques présents afin qu’il ne soit plus utilisé. Ces rétractations restent cependant très rares. 

    L’une des plus célèbres d’entre elles est probablement la rétractation de l’article d’Andrew Wakefield dans The Lancet, une revue très prestigieuse dans la recherche médicale. L’article rétracté avait été initialement publié en 1998 par A. Wakefield et conclut que le triple vaccin Rougeole-Oreillon-Rubeole pouvait être à l’origine du développement de l’autisme chez les enfants. Des doutes commencèrent à apparaître après que plusieurs études indépendantes n’aient pas réussi à reproduire les résultats de Wakefield [2,3], avant qu’une enquête journalistique de Brian Deer en 2004 ne démontre que Wakefield avait des intérêt financiers à publier de tels résultats (car il recevait de l’argent de compagnies qui produisent des vaccins uniques au lieu du triple vaccin). L’article fut finalement rétracté par The Lancet en 2010 mais continue malheureusement, plus d’une vingtaine d’années plus tard, à être cité par des opposants à la vaccination comme justification à leur croyance.

    Bien que, dans cet exemple célèbre, la rétractation prend environ 12 ans, nous avons pu voir pendant la pandémie des exemples de rétractations bien plus rapides. Par exemple des articles publiés par une compagnie appelée Surgisphere ont été rétractés en quelques semaines dans The Lancet et The New England Journal Of Medecine ; le décompte actuel du nombre de rétractations sur des articles scientifiques COVID-19 est de plus de 200. Ce mécanisme “correctif” aide à garantir la qualité de nos connaissances scientifiques.

    À notre tour d’aider à éviter que les erreurs scientifiques ne perdurent. En décembre 2021, une étude très partagée sur les réseaux sociaux qui démontrerait que le confinement est inutile pour contenir la pandémie de COVID-19 a été rétractée. Cette rétraction intervient 9 mois après la publication originale de l’article. L’article en question, de Savaris et ses co-auteurs, a été publié par Nature Scientific Reports en Mars 2021. 

    Un travail de vérification. Très rapidement, nous avons, avec mes collègues, étudié et critiqué le contenu de cet article. En particulier, les auteurs utilisaient un modèle particulier pour déterminer si une réduction de la mobilité des gens (mesurée via leurs smartphones et les données de Google) entrainait une réduction des cas. Le modèle était codé en Python et un Jupyter Notebook a été mis en ligne, avec les données, en même tant que l’article afin de respecter les principes clés de la science ouverte [4]. Outre les limitations des données initiales des auteurs (notamment sur le Google Mobility), nous avons pu utiliser le code des auteurs pour vérifier l’adéquation du modèle qu’ils utilisaient pour répondre à leur question de recherche. Grâce au fait que le modèle était partagé, nous avons par conséquent créé des jeux de données artificiels pour lesquels nous pouvions être sûrs que le confinement aurait (ou non) un impact sur la propagation COVID (Image 2). Cependant, en créant un jeu de données censé prouver un effet du confinement et en le soumettant en entrée au modèle de Savaris et de ses collègues, le modèle a conclu que le confinement ne fonctionnait pas pour limiter la propagation COVID. Nous avons donc publié nos jeux de données artificiels en ligne sur Github, résumé nos préoccupations sur l’article dans un document que nous avons posté en version préliminaire (preprint) [5], puis contacté les éditeurs de Nature Scientific Reports afin de leur envoyer notre preprint. 

    Image 2 : les cinq faux pays que nous avons créé pour vérifier le modèle de Savaris et ses collègues. Aucun de ces pays fictifs n’a permis de retourner de résultats significatifs avec le modèle des auteurs. Image CC-BY Meyerowitz-Katz et al.

    Un mécanisme collégial de discussion et de re-travail. L’équipe éditoriale a envoyé nos préoccupations aux auteurs, en leur demandant de répondre ; dans un second temps notre preprint et la réponse des auteurs ont été évalués par 6 relecteurs indépendants. Nous avons reçu la réponse des auteurs ainsi que l’évaluation des relecteurs et, contacté Savaris et ses collègues pour leur demander un jeu de données artificiel qui montrerait un effet positif du confinement. Ils nous ont fourni ce jeu de données qui, quand nous le soumettions en entrée de leur modèle, produisait bien un effet positif du confinement. Cependant, nous avons constaté qu’en ajoutant ne serait-ce qu’un minimum de bruit à ce jeu de données, le résultat basculait à nouveau vers le négatif. Nous avons donc corrigé notre preprint pour y inclure ces nouvelles préoccupations, envoyé cette nouvelle version à l’équipe éditoriale qui a donc commencé un second tour de réponse auteurs + relecture par les pairs. Notre manuscrit a été finalement publié le 07 Décembre 2021 en tant que “Matters Arising” (question soulevée) lié à la publication en question [6], 1 semaine après la publication d’un autre Matters Arising de Carlos Góes sur ce même papier qui démontre mathématiquement que le modèle ne pouvait pas répondre à leurs question de recherche [7]. Le 14 décembre 2021, l’article était finalement rétracté [8]. Bien que dans ce cas, le manuscrit de Carlos Góes démontre un problème mathématique et appuie donc le point que nous mettions en exergue dans le nôtre, il est important de noter qu’il nous aurait été impossible de trouver ces erreurs si les auteurs n’avaient pas mis en ligne et donc à disposition de la communauté scientifique leur codes et données, ce qui est tout à leur honneur.

    Une morale à cette histoire. Bien qu’un grand nombre d’articles de recherche sur COVID-19 souffre d’un très clair manque de transparence et de respect des principes de la science ouverte [4], il est certain que la disponibilité des données et du code (Open Data, Open Source) facilite grandement et accélère le processus de correction (et parfois de rétractation) de la science. Il faut vraiment l’encourager.

    Lonni Besançon 

    Références : 

    [1] Besançon, L., Rönnberg, N., Löwgren, J. et al. Open up: a survey on open and non-anonymized peer reviewing. Res Integr Peer Rev 5, 8 (2020). https://doi.org/10.1186/s41073-020-00094-z 

    [2] Madsen, K. M., Hviid, A., Vestergaard, M., Schendel, D., Wohlfahrt, J., Thorsen, P., … & Melbye, M. (2002). A population-based study of measles, mumps, and rubella vaccination and autism. New England Journal of Medicine, 347(19), 1477-1482. https://doi.org/10.1056%2FNEJMoa021134 

    [3] Black C, Kaye J A, Jick H. Relation of childhood gastrointestinal disorders to autism: nested case-control study using data from the UK General Practice Research Database BMJ 2002; 325 :419 https://doi.org/10.1136/bmj.325.7361.419 

    [4] Besançon, L., Peiffer-Smadja, N., Segalas, C. et al. Open science saves lives: lessons from the COVID-19 pandemic. BMC Med Res Methodol 21, 117 (2021).  https://doi.org/10.1186/s12874-021-01304-y 

    [5] Meyerowitz-Katz, G., Besançon, L., Wimmer, R., & Flahault, A. (2021). Absence of evidence or methodological issues? Commentary on “Stay-at-home policy is a case of exception fallacy: an internet-based ecological study”.

    [6] Meyerowitz‐Katz, G., Besançon, L., Flahault, A. et al. Impact of mobility reduction on COVID-19 mortality: absence of evidence might be due to methodological issues. Sci Rep 11, 23533 (2021). https://doi.org/10.1038/s41598-021-02461-2 

    [7] Góes, C. Pairwise difference regressions are just weighted averages. Sci Rep 11, 23044 (2021). https://doi.org/10.1038/s41598-021-02096-3 

    [8] Savaris, R.S., Pumi, G., Dalzochio, J. et al. Retraction Note: Stay-at-home policy is a case of exception fallacy: an internet-based ecological study. Sci Rep 11, 24172 (2021). https://www.nature.com/articles/s41598-021-03250-7   

     

  • Les cinq murs de l’IA 4/6 : l’interaction avec les humains

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 4: le mur de l’interaction avec les humains

    Cet épisode débute par des éléments développés par le programme confiance.ai dans son état de l’art sur les facteurs humains et la cognition1, établi mi-2021. Je remercie en particulier Christophe Alix (Thales), le coordonnateur de cet état de l’art sur un sujet clé pour notre futur avec les systèmes d’IA.

    De très nombreux systèmes d’intelligence artificielle doivent interagir avec les humains; certains robots, notamment, et on pense en particulier aux véhicules autonomes; mais aussi les robots d’assistance aux personnes, les dialogueurs (chatbots), et plus généralement tous les systèmes qui ont besoin de communiquer avec leurs utilisateurs. Au-delà de ces fonctions de dialogue avec les humains, il y a tout le domaine de la cobotique, la collaboration étroite entre humains et robots, où la communication se fait en permanence dans les deux sens.

    On peut classer ces applications en grandes catégories:
    – dialogue (chatbots);
    – résolution partagée de problèmes et de prise de décision;
    – partage d’un espace et de ressources (cohabitation avec des robots qu’on ignore ou à qui on donne des ordres);
    – partage de tâches (robot coéquipier).

    Les machines intelligentes d’aujourd’hui sont essentiellement des outils, pas des coéquipiers. Au mieux, ces technologies sont utiles dans la mesure où elles étendent les capacités humaines, mais leurs compétences communicatives et cognitives sont encore inadéquates pour être un coéquipier utile et de confiance. En effet, les machines collaboratives intelligentes doivent être flexibles et s’adapter aux états du coéquipier humain, ainsi qu’à l’environnement. Elles doivent comprendre les capacités et les intentions de l’utilisateur et s’y adapter.

    Or, nous ne comprenons pas suffisamment la cognition, la motivation et le comportement social de haut niveau de l’être humain social. Les humains excellent dans l’apprentissage et la résolution de problèmes d’une manière qui diffère de celle des machines, même sophistiquées. La nature de l’intelligence humaine reste difficile à cerner. Même si d’importants efforts de recherche en sciences cognitives ont été consacrés à la compréhension de la façon dont les humains pensent, apprennent et agissent, dans les environnements naturels, la séquence d’actions qui mène à un objectif n’est pas explicitement indiquée, voire même la connaissance même des objectifs d’un humain reste complexe à appréhender. Stuart Russell a consacré un excellent ouvrage à ce sujet4, dans lequel il montre à quel point il est difficile pour un système d’IA de connaître les intentions d’un humain ou d’un groupe d’humains, et il propose que l’IA questionne systématiquement lorsqu’il y a ambiguïté.

    Réciproquement, il est également indispensable de permettre aux collaborateurs humains de comprendre les buts et actions des machines avec lesquelles ils sont en interaction. Les machines ont souvent des caractéristiques physiques et des capacités très différentes de celles des humains, ce qui a un impact sur les rôles qu’elles peuvent jouer dans une équipe. Dans ce contexte, les besoins d’explications (qu’on nomme souvent « explicabilité ») de la part des systèmes d’intelligence artificielles sont cruciaux – ils font d’ailleurs l’objet d’une des mesures de la réglementation proposée par la Commission Européenne (déjà citée), ou encore du projet de référentiel concernant la certification du processus de développement de ces systèmes, développé par le Laboratoire National de Métrologie et d’Essais2. Mais les capacités d’explication des systèmes actuels d’IA sont très limitées, particulièrement lorsqu’il s’agit de réseaux neuronaux profonds dont les modèles internes sont composés de très grandes matrices de poids qu’il est difficile d’interpréter. J’en veux pour preuve les innombrables recherches sur l’explicabilité de l’IA, initialement popularisées par le programme « XAI » de la DARPA américaine lancé en 20173.

    Il existe certes une tendance, illustrée par le propos de Yann LeCun ci-dessous, qui défend l’idée que l’explicabilité (causale notamment) n’est pas indispensable pour que les utilisateurs aient confiance envers un système, et qu’une campagne de tests couvrant le domaine d’utilisation suffit. Mais d’une part la dimension d’une telle campagne peut la rendre impossible à réaliser dans un temps imparti et avec des moyens finis; d’autre part il n’est pas toujours aisé de définir le domaine d’utilisation d’un système. Enfin, la plupart des cas pour lesquels nous n’avons pas besoin d’explications sont ceux où les systèmes disposent d’un autre mode de garantie; par exemple nous ne demandons pas nécessairement d’explications à un médecin qui nous prescrit un médicament, parce que nous savons que le médecin a été diplômé pour l’exercice de son métier après de longues études.

    Reproduit de https://twitter.com/ylecun/status/1225122824039342081

    L’interaction avec les humains peut prendre des formes diverses: parole, texte, graphiques, signes, etc. En tous cas elle n’est pas nécessairement sous forme de phrases. Un excellent exemple d’interaction que je trouve bien pensé, est celui d’une Tesla qui a l’intention de procéder à un dépassement: la voiture affiche la voie de gauche pour montrer qu’elle souhaite le faire, et le conducteur répond en activant le clignotant. Un problème plus général, illustré par le cas des véhicules autonomes4, est celui du transfert du contrôle, lorsque la machine reconnaît être dépassée (par exemple en cas de panne, de manque de visibilité etc.) et doit transférer le contrôle à un humain, qui a besoin de beaucoup de temps pour assimiler le contexte et pouvoir reprendre la main.

    En résumé, l’interaction avec les humains est un sujet complexe et non résolu aujourd’hui; et il ne le sera pas de manière générale, mais plutôt application par application, comme dans l’exemple précédent.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 « EC2 Human Factors and Cognition 2021 », C. Alix, B. Braunschweig, C.-M. Proum, A. Delaborde, 2021, document interne du projet confiance.ai, disponible sur demande

    2 REFERENTIEL DE CERTIFICATION: Processus de conception, de développement,

    d’évaluation et de maintien en conditions opérationnelles des intelligences artificielles. LNE, 2021.

    3 https://www.darpa.mil/program/explainable-artificial-intelligence

    4 Dans la classification des niveaux d’autonomie pour le véhicule autonome, le niveau maximum 5 et celui de l’autonomie complète. Au niveau juste inférieur, 4, le véhicule gère presque toutes les situations mais rend la main dans des situations exceptionnelles, ce qui est extrêmement délicat à mettre en œuvre.

  • servAtem mise tout sur le 7 !

    Page d’accueil de servAtem, 2022

    « On s’est habitué à voir les jeunes faire la pluie et le beau temps et nous renvoyer dans les cordes à tout bout de champ. Même les GIF sont devenus old school, il paraît. Le journal de Tintin, c’était pour les 7 à 77 ans. Et bien, on a plus de 77 ans et on se libère de la dictature des gosses ! » C’est ce qu’explique Eva Madeleine, la pédégère de servAtem, une startup solognote, un réseau social qui vise principalement les seniors.

    Elle continue : « Le PMU commençait à m’ennuyer sérieusement. La section locale du PS aussi. Facebook et Meetic, ça a été pour moi des bouffées d’air. Mais, je me suis vite remise à tourner en rond. Toujours les mêmes débats, toujours les mêmes ébats. Ça devenait la section sans le saucisson ou le PMU sans le petit ballon. Autant dire l’EPHAD.» Killian Makrout, l’autre fondateur précise : « Je lui ai demandé ce qu’elle aurait voulu trouver dans une plateforme. On a descendu une bouteille de Chardonnay et, à l’arrivée, on avait les spécs de servAtem. Je ne pensais pas que ça nous mènerait jusque-là, dit-il en riant. Je ne pensais pas que c’était possible même. » Et pourtant ils l’ont fait.

    Ils avaient un vague business plan. Ils avaient une bande de copains développeurs-retraités qu’ils ont payés en tournées de bière au Café de la Mairie. Le vendeur d’ordinateurs d’occasion du centre ville leur a prêté les premières machines, une cousine de Killian son garage. Ils n’avaient besoin que de ça pour lancer le service. La popularité a suivi : « Entre le bingo et les clubs de bridge, le bouche à oreille a fait le travail. Le senior aime bien bavasser in real life aussi » précise Killian.

    Première règle, on n’a pas le droit à plus de 77 personnes dans son groupe de contacts, dénommé « la bauge » chez servAtem. « Ce qui est dingue, s’émerveille Eva, c’est que paradoxalement, moins les gens sont dans une course aux likes, plus ils se font de vraies relations.» La référence du lien social, pour servAtem est  Montaigne et La Boétie, des amitiés fondées sur des valeurs communes, le respect.

    La plateforme encourage à choisir des amis différents de soi. Elle ne propose jamais à un utilisateur une personne qui lui ressemble trop, par son âge, son milieu social, ses préférences sexuelles ou politiques. Et puis, on n’entre pas dans la bauge de quelqu’un si facilement. Il faut 7 jours avant d’avoir le droit d’échanger une photo, 77 pour un numéro de téléphone. Pour le « coup d’un soir », il faut chercher ailleurs. On est moins dans le club de rencontre que dans le fin’amor occitan.

    La sérendipité est une religion pour servAtem. Les contenus proposés sont choisis pour sortir l’utilisateur de ses habitudes. Au début, cela déconcerte de ne pas comprendre la moitié de ce qui est proposé, de ne pas forcément être intéressé par ce qu’on comprend. Magie des lieux, on finit pourtant par s’intéresser à des sujets aussi improbables que « La reconnaissance coloniale du couvain et du champignon chez la fourmi champignonniste » ou « L’implication des récepteurs 5-HT2A dans la modulation des interneurones PKC gamma dans un contexte d’allodynie. »

    La modération est enfin prise au sérieux chez servAtem. « He oui c’est comme au troquet, il y a des choses qu’on peut pas laisser dire, même avec quelques verres dans le nez. » précise Killian. Certains trouveront pourtant que cela devient compliqué de s’exprimer quand des mots comme zut, sexe, ou fossille, sont interdits. Et la correction des fautes d’orthographes en rouge leur rappellera peut-être de mauvais souvenirs. Mais Killian est prof des écoles retraité ; ça ne s’oublie pas.

    Quand on envoie un message à un ami qui se trouve être à moins de 7777 mètres, servAtem affiche le message : « Un coup de vélo et vous pouvez le-la rencontrer pour de vrai. Ziva ! » Et le réseau a raison, c’est quand même plus sympa un.e ami.e in real life.

    Le changement peut-être le plus visible, avec servAtem, est le tempo. Un message peut prendre jusqu’à 7 semaines. Eva explique : « Notre réseau s’est aligné sur la marine d’antan. Les messages voyagent avec les vents. » Si c’est sympa, ça complique les conversations. C’est vrai que cela aussi encourage la pratique du vélo. En plus de favoriser le temps long, servAtem encourage les post et les messages longs : au moins 777 caractères. Est-ce que le but est de favoriser l’éclosion d’une génération de futurs Proust ?

    Dans les réseaux sociaux traditionnels, on ne choisit rien. Chez servAtem, un bouton permet de s’éloigner plus ou moins des paramètres par défaut proposés par la plateforme. Si on règle ce bouton sur minimum, on se retrouve sur… Meta.

    Serab Jancat

  • Alexandra Elbakyan : une grande dame pour un grand projet

    Dans le cadre de la rubrique autour des “communs du numérique”.  Alexandra Elbakyan a réalisé SciHub, une archive de tous les articles scientifiques. Dans la tension entre le droit d’auteur et le droit d’accès aux résultats scientifiques, elle a choisi son camp. Elle répond pour binaire à nos questions. Serge Abiteboul et François Bancilhon. 
    Ce qui suit est notre traduction. Le texte original.
    Alexandra Elbakyan, SciHub.ru, 2020

    Pouvez-vous décrire brièvement Sci-Hub, son histoire et son statut actuel ?

    Sci-Hub est un site web dont l’objectif est de fournir un accès gratuit à toutes les connaissances académiques. Aujourd’hui, la plupart des revues scientifiques deviennent inaccessibles en raison de leur prix élevé(*). Sci-Hub contribue à supprimer la barrière du prix, ou paywall. Des millions d’étudiants, de chercheurs, de professionnels de la santé et d’autres personnes utilisent Sci-Hub aujourd’hui pour contourner les paywalls et avoir accès à la science.

    J’ai créé Sci-Hub en 2011 au Kazakhstan. Le projet est immédiatement devenu très populaire parmi les chercheurs de Russie et de l’ex-URSS. Au fil des années, il n’a cessé de croître et est devenu populaire dans le monde entier.

    Mais l’existence de Sci-Hub est aussi un combat permanent : le projet est régulièrement attaqué en justice qualifié d’illégal ou d’illicite, et bloqué physiquement. Les poursuites judiciaires proviennent de grandes entreprises, les éditeurs scientifiques  : Elsevier et d’autres. Ces sociétés sont aujourd’hui les propriétaires de la science. Elles fixent un prix élevé pour accéder aux journaux de recherche. Des millions de personnes ne peuvent pas se permettre cette dépenses et sont privées de l’accès à la science et l’information. Sci-Hub lutte contre cet état de fait.

    Sci-Hub fait actuellement l’objet d’un procès en Inde. Les éditeurs académiques demandent au gouvernement indien de bloquer complètement l’accès au site web.

    Nombre d’articles téléchargés depuis Sci-Hub au cours des 30 derniers jours (12 février 2022)

    Est-ce que les articles de Wikipedia sur vous et Sci-Hub sont corrects ?

    Cela dépend, car les articles diffèrent selon les langues. J’ai lu les articles anglais et russes de Wikipedia, et je ne les aime vraiment pas ! Des points essentiels sur Sci-Hub sont omis, comme le fait que le site est largement utilisé par les professionnels de la santé et que Sci-Hub contribue à sauver des vies humaines. Les articles semblent se concentrer sur la description des procès intentés contre le site et son statut illégal, alors que le large soutien et l’utilisation de Sci-Hub par les scientifiques du monde entier sont à peine mentionnés.

    L’article russe, par exemple, donne l’impression que le principal argument d’Elsevier dans son procès contre Sci-Hub est que ce dernier utilise des comptes d’utilisateurs « volés » ! C’est évidemment faux, la raison principale et le principal argument d’Elsevier dans son procès contre Sci-Hub est la violation du droit d’auteur, le fait que Sci-Hub donne un accès gratuit aux revues qu’Elsevier vend au prix fort ! Aujourd’hui, les responsables des relations publiques d’Elsevier essaient de promouvoir ce message, comme si le principal point de conflit était que Sci-Hub utilise des références « volées » !

    On trouve de nombreux points incorrects de ce genre dans les articles sur Sci-Hub.

    Un article me concernant mentionnait que j’étais soupçonné d’être un espion russe. Un journal m’a demandé un commentaire à ce sujet, et j’ai répondu : il peut y avoir une aide indirecte du gouvernement russe dont je ne suis pas au courant, mais je peux seulement ajouter que je fais toute la programmation et la gestion du serveur moi-même.

    Quelqu’un a coupé la citation, et a inséré dans Wikipedia seulement la première partie : « il peut y avoir une aide indirecte du gouvernement russe dont je ne suis pas au courant » en omettant que : « Je fais toute la programmation et la gestion du serveur moi-même ». Il y avait beaucoup d’insinuations de ce genre. Certaines ont été corrigées mais très lentement, d’autres subsistent. Par exemple, l’article russe affirme que j’ai « bloqué l’accès au site web ». C’est ainsi qu’ils décrivent le moment où Sci-Hub a cessé de travailler en Russie pour protester contre le traitement réservé au projet.

    Au tout début, lorsque l’article de Wikipédia sur Sci-Hub a été créé, le projet était décrit comme un… moteur de recherche ! Ce qui était complètement faux. J’ai essayé de corriger cela mais ma mise à jour a été rejetée. Les modifications ont finalement été apportées lorsque j’ai publié sur mon blog un article sur les erreurs de l’article Wikipedia.

    Pouvez-vous nous donner quelques chiffres sur l’activité de Sci-Hub ?

    En dix ans, Sci-Hub a connu une croissance constante. En 2020, il a atteint 680 000 utilisateurs par jour ! Puis après le confinement, il est revenu à nouveau à environ 500 000 utilisateurs par jour.

    Il existe également des miroirs-tiers de Sci-Hub qui sont apparus récemment, comme scihub.wikicn.top et bien d’autres. Lorsque vous recherchez Sci-Hub sur Google, le premier résultat est souvent un miroir-tiers de ce type. Je constate que de nombreuses personnes utilisent aujourd’hui ces miroirs-tiers, mais je n’ai pas accès à leurs statistiques. Je n’ai accès qu’aux statistiques des serveurs Sci-Hub originaux que je gère : sci-hub.se, sci-hub.st et sci-hub.ru.

    Aujourd’hui, Sci-Hub a téléchargé plus de 99 % du contenu des grands éditeurs universitaires (Elsevier, Springer, Wiley, etc.), mais il reste encore de nombreux articles d’éditeurs moins connus. Il y a donc encore beaucoup de travail. L’objectif de Sci-Hub est d’avoir tous les articles scientifiques jamais publiés depuis 1665 ou même avant. Actuellement, Sci-Hub a temporairement interrompu le téléchargement de nouveaux articles en raison du procès en cours en Inde, mais cela reprendra bientôt.

    Comment voyez-vous l’évolution du site ? Quel avenir voyez-vous ? Vous semblez jouer au chat et à la souris pour pouvoir donner accès au site. Combien de temps cela peut-il durer ?

    Cela durera jusqu’à ce que Sci-Hub gagne et soit reconnu comme légal dans tous les pays du monde.

    Voyez-vous un espoir que le site devienne légitime ?

    C’est mon objectif depuis 2011. En fait, je m’attendais à ce que cela se produise rapidement, car le cas est tellement évident : les scientifiques utilisent le site Sci-Hub et ils ne sont clairement  pas des criminels, donc Sci-Hub est légitime. Mais la reconnaissance de ce fait semble prendre plus de temps que je ne l’avais initialement prévu.

    Nous supposons que votre popularité dépend du pays ? Pouvez-vous nous en dire plus sur la Chine, l’Afrique et la France ?

    Je peux vous donner quelques statistiques provenant du compteur Yandex. Les statistiques internes de Sci-Hub ne sont que légèrement différentes. En Chine, il y a environ 1 million d’utilisateurs par mois (en 2017, c’était un demi-million mensuel). Il y a environ 250 000 utilisateurs par mois en provenance d’Afrique et environ 1 million en provenance d’Europe.

    Pour la France, c’était pendant un moment au-dessus de 100 000 utilisateurs par mois. Ce chiffre a beaucoup diminué, je crois, parce que les chercheurs accèdent à des sites miroirs.

    La qualité de votre interface utilisateur est mentionnée par beaucoup de vos utilisateurs. Pensez-vous qu’elle soit une raison essentielle du succès de Sci-Hub ?

    Je ne le pense pas. La principale raison de l’utilisation de Sci-Hub, dans la plupart des cas, est le manque d’accès aux articles scientifiques par d’autres moyens. Les pays qui utilisent le plus Sci-Hub sont l’Inde et la Chine, et dans ces pays, l’utilisation de Sci-Hub n’est clairement pas une question de commodité. Sci-Hub ne dispose de cette interface « pratique » que depuis 2014 ou 2015. La première version de Sci-Hub obligeait les utilisateurs à saisir l’URL, à changer de proxy et à télécharger les articles manuellement, mais le site est rapidement devenu très populaire. Avant Sci-Hub, les chercheurs avaient l’habitude de demander des articles par courrier électronique ; c’était nettement plus long et moins pratique que Sci-Hub. Il fallait souvent plusieurs jours pour obtenir une réponse et parfois, on ne recevait pas de réponse du tout.

    Quelle est la taille de l’équipe qui gère le site ?

    Sci-Hub n’a pas d’équipe ! Depuis le début, il s’agit simplement d’un petit script PHP que j’ai codé moi-même, basé sur un code d’anonymisation open-source. Je gère les serveurs de Sci-Hub et je fais toute la programmation moi-même. Cependant, certaines personnes fournissent des comptes que Sci-Hub peut utiliser pour télécharger de nouveaux articles. D’autres gèrent les miroirs de Sci-Hub. Mais on ne peut pas appeler cela une équipe ; ce ne sont que des collaborations.

    Avez-vous des contributeurs réguliers qui apportent directement des articles en libre accès ?

    Non. Je m’explique : Sci-Hub est initialement apparu comme un outil permettant de télécharger automatiquement des articles. C’était une idée centrale au cœur de Sci-Hub ! Sci-Hub n’a jamais fonctionné avec des utilisateurs contribuant aux articles. Il serait impossible d’avoir des dizaines de millions d’articles fournis par les utilisateurs, car une telle base de données devrait être modérée : sinon, elle pourrait être facilement attaquée par quelqu’un qui fournirait de faux articles.

    Une telle option pourrait exister à l’avenir, car il reste beaucoup moins d’articles, et Sci-Hub en a téléchargé la majeure partie.

    Quel est votre défi le plus grand : obtenir l’accès aux publications ou fournir l’accès aux publications ?

    La majeure partie de mon temps et de mon travail est consacrée à l’obtention de nouveaux articles. Cela nécessite la mise en œuvre de divers scripts pour télécharger les articles de différents éditeurs, et la mise à jour de ces scripts lorsque les éditeurs effectuent des mises à jour sur leurs sites Web, rendant le téléchargement automatique de Sci-Hub plus difficile. Par exemple, Elsevier a récemment mis en place des étapes supplémentaires qui rendent le téléchargement automatique plus difficile. L’ancien moteur de Sci-Hub a cessé de fonctionner et j’ai dû mettre en œuvre une approche différente.

    Fournir l’accès aux bases de données est relativement plus facile, si l’on ne tient pas compte des défis juridiques bien sûr.

    Qu’est-ce qui vous a poussé à créer Sci-Hub ? Le considérez-vous comme faisant partie du mouvement des biens communs, comme un commun au sens d’Elinor Ostrom ?

    J’étais membre d’un forum en ligne sur la biologie moléculaire. Il y avait une section « Full Text » où les gens demandaient de l’aide pour accéder aux articles. Cette section était assez active et de nombreuses personnes l’utilisaient. Ils postaient des demandes, et si un membre du forum avait accès à l’article, il l’envoyait par courriel.

    J’ai eu l’idée de créer un site Web qui rendrait ce processus automatique, en évitant les demandes manuelles et les envois par courrier électronique : les utilisateurs pouvaient simplement se rendre sur le site Web et télécharger eux-mêmes ce dont ils avaient besoin.

    Pour moi, il y a des liens entre cette idée de communisme et l’idée de gestion collective des ressources dans l’esprit d’Elenor Ostrom.

    Dans la première version de Sci-Hub, il y avait un petit marteau et une faucille, et si vous pointiez un curseur de souris dessus, il était écrit « le communisme est la propriété commune des moyens de production avec un libre accès aux articles de consommation ». Donc, libre accès aux articles ! Pour moi, Sci-Hub et plus généralement le mouvement du libre accès ont toujours été liés au communisme, car les articles scientifiques devraient être communs et libres d’accès pour tous, et non payants. Aujourd’hui, les connaissances scientifiques sont devenues la propriété privée de quelques grandes entreprises. C’est dangereux pour la science.

    En 2016, j’ai découvert les travaux du sociologue Robert Merton. Il propose différents idéaux pour les scientifiques. L’un d’eux qu’il appelle le communisme est la propriété commune des découvertes scientifiques, selon laquelle les scientifiques abandonnent la propriété intellectuelle en échange de la reconnaissance et de l’estime. C’est l’objectif de Sci-Hub.

    Comment les gens peuvent-ils vous aider ?

    Parlez de Sci-Hub, discutez-en plus souvent. Lancez une pétition pour soutenir la légalisation de Sci-Hub, et discutez-en avec les responsables gouvernementaux et les politiciens. Cela aidera à résoudre la situation.

    Alexandra Elbakyan, SciHub

    SciHub.ru, 2018

    Pour aller plus loin

    Des informations générales sur la façon dont Sci-Hub a été lancé sont disponibles ici :

    et une lettre de 2015 au juge, lorsque Sci-Hub a été poursuivi en justice aux États-Unis :

    (*) Note des éditeurs : un scientifique peut avoir à payer des dizaines d’euros pour lire un article si son laboratoire n’a pas souscrit à ce journal, peut-être parce que le laboratoire n’en avait pas les moyens.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

     

  • Les cinq murs de l’IA 3/6 : la sécurité

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ?  Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 3: le mur de la sécurité

    Les questions de sécurité des systèmes d’information ne sont pas propres à l’IA, mais les systèmes d’IA ont certaines particularités qui les rendent sensibles à des problèmes de sécurité d’un autre genre, et tout aussi importants.

    Si les systèmes d’IA sont, comme tous les systèmes numériques, susceptibles d’être attaqués, piratés, compromis par des méthodes « usuelles » (intrusion, déchiffrage, virus, saturation etc.), ils possèdent des caractéristiques particulières qui les rendent particulièrement fragiles à d’autres types d’attaques plus spécifiques. Les attaques antagonistes ou adverses («adversarial attacks » en anglais) consistent à injecter des variations mineures des données d’entrée, lors de la phase d’inférence, afin de modifier de manière significative la sortie du système. Depuis le célèbre exemple du panneau STOP non reconnu lorsqu’il est taggé par des étiquettes, et celui du panda confondu avec un gibbon suite à l’ajout d’une composante de bruit, on sait qu’il est assez facile de composer une attaque de sorte à modifier très fortement l’interprétation des données faite par un réseau de neurones. Et cela ne concerne pas que les images: on peut concevoir des attaques antagonistes sur du signal temporel (audio en particulier), sur du texte, etc. Les conséquences d’une telle attaque peuvent être dramatiques, une mauvaise interprétation des données d’entrée peut conduire à une prise de décision dans le mauvais sens (par exemple, accélérer au lieu de s’arrêter, pour une voiture). Le rapport du NIST sur le sujet1 établit une intéressante taxonomie des attaques et défenses correspondantes. Il montre notamment que les attaques en phase d’inférence ne sont pas les seules qui font souci. Il est notamment possible de polluer les bases d’apprentissage avec des exemples antagonistes, ce qui compromet naturellement les systèmes entraînés à partir de ces bases. Bien évidemment la communauté de recherche en intelligence artificielle s’est saisie de la question et les travaux sur la détection des attaques antagonistes sont nombreux. Il est même conseillé d’inclure de telles attaques pendant l’apprentissage de manière à augmenter la robustesse des systèmes entraînés.

    Panneau stop non reconnu et panda confondu avec un gibbon, extrait de publications usuelles sur ces sujets.

    Toujours est-il que des accidents – aujourd’hui inévitables – sur des systèmes à risque ou critiques, causés par ces questions de sécurité, auront des conséquences extrêmement néfastes sur le développement de l’intelligence artificielle.

    Un deuxième point d’attention est la question du respect de la vie privée. Cette question prend une dimension particulière avec les systèmes d’IA qui ont une grande capacité à révéler des données confidentielles de manière non désirée: par exemple retrouver les images individuelles d’une base d’entraînement dans les paramètres d’un réseau de neurones, ou opérer des recoupements sur diverses sources pour en déduire des informations sur une personne. Ces questions sont notamment à l’origine des travaux en apprentissage réparti (federated learning)2 dont le but est de réaliser un apprentissage global à partir de sources multiples réparties sur le réseau pour composer un modèle unique contenant, d’une certaine manière, une compression de toutes les données réparties mais sans pouvoir en retrouver l’origine.

    Si l’on y ajoute les questions de sécurité « habituelles », ainsi que les problèmes multiples causés par les deepfakes, ces fausses images ou vidéos très facilement créées grâce à la technologie des réseaux génératifs antagonistes (GAN: generative adversarial networks), il est clair que le mur de la sécurité de l’IA est aujourd’hui suffisamment solide et proche pour qu’il soit essentiel de s’en protéger.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 NISTIR draft 8269, A Taxonomy and Terminology of Adversarial Machine Learning, E. Tabassi et al. , 2019, https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8269-draft.pdf

    2 Advances and Open Problems in Federated Learning, P. Kairouz et al., 2019, ArXiv:1912.04977v1

  • Pourquoi le gouvernement russe n’a-t-il pas encore lancé une cyberattaque d’ampleur ?

    Sur binaire, nous avons souvent traité du sujet des cyberattaques qui se développent de plus en plus. La sinistre actualité nous a conduit à « attendre » que de telles agressions se déroulent tant en Ukraine que dans les autres pays. Pour l’instant, il semblerait que rien de tel ne se soit encore produit.
    Pour mieux comprendre cette situation, nous avons interrogé plusieurs experts dont les noms ne peuvent pas apparaitre pour des obligations de réserve et qui ont choisi Jean-Jacques Quisquater comme porte-parole. Pascal Guitton & Pierre Paradinas
    Photo de Tima Miroshnichenko provenant de Pexels

    Alors que tout le monde s’y attendait, il semblerait qu’à l’heure où nous publions ce texte aucune cyberattaque d’ampleur n’a eu lieu de la part de la Russie contre l’Occident, en réponse aux sanctions économiques, ni même contre l’Ukraine : à peine a-t-on relevé deux effaceurs de données (wipers  en anglais) dont on n’est même plus très sûr de l’origine offensive. Il s’agit de HermeticWiper et WhisperGate (déjà actif au moins de janvier) et IsaacWiper sans compter quelques variantes. Ils devaient s’infiltrer dans des réseaux informatiques des autorités ukrainennes, effacer le contenu des disques durs jusque dans la partie qui empêche ensuite la machine de redémarrer. HermeticWiper, lancé quelques heures avant l’attaque, se cachait derrière un rançongiciel (HermeticRansom) qui avait pour but de leurrer les victimes et de détourner leur attention. HermeticRansom s’avère de piètre qualité car des chercheurs des sociétés Crowdstrike et Avast ont pu proposer un script et un outil de déchiffrement, comme si le code avait été écrit à la va-vite sans être testé. Il n’utilisait même pas les techniques classiques de brouillages des rançongiciels. Son préfixe, Hermetic, vient du certificat numérique usurpé à une société : Hermetica Digital Ltd.  Les auteurs ont  pu se faire passer pour cette société et acquérir le certificat en tout régularité.

    Aujourd’hui, l’Ukraine est toujours une cible : les sociétés qui offrent un service de blocage d’accès à des serveurs web compromis, ont vu une augmentation (d’un facteur 10) des requêtes bloquées provenant d’Ukraine : c’est la preuve qu’on clique de plus en plus souvent sur des liens d’hameçonnage ou que des malwares essaient d’établir une connexion avec un site à partir duquel ils peuvent être dirigés.

    Entretemps, les certificats numériques utilisant les protocoles SSL/TLS venant de Russie ne pourront plus être renouvelés à la date d’échéance à titre d’embargo.  « Les Russes émettent maintenant leurs propres certificats que les navigateurs les plus répandus n’accepteront pas », ont déjà annoncé les Google et autres Microsoft qui les conçoivent. Ces certificats « made in Russia » posent d’ailleurs plus un problème pour les russes que pour les étrangers : c’est une porte ouverte pour mieux espionner les citoyens qui, dans leurs communications sur le web, utiliseront des certificats dont les clés de chiffrement sont connues des autorités russes….

    Plus problématique est l’apparition des protestwares : il s’agit de modifications apportées dans les logiciels open source qui s’activeront si la bibliothèque est utilisée sur une machine avec des réglages russes : un message inoffensif de protestation contre la guerre s’affiche. Cette initiative n’est cependant pas innocente car elle met à mal le paradigme même de la communauté open source, à savoir la bonne volonté et la transparence, pas l’hacktivisme. A ce stade, les protestware sont anecdotiques et minimalistes mais c’est une nouvelle menace à suivre, surtout pour les développeurs

     Pourquoi lancer une cyberattaque contre l’Occident ?

    Si le gouvernement russe n’a pas lancé de cyberattaque contre l’Occident, c’est peut-être par manque de prévoyance car il ne s’attendait sans doute pas à une réaction si vive des démocraties occidentales. Il a sous-estimé la cohésion de nos pays à s’opposer, sanctions à la clé en un rien de temps, à son coup de force. Peut-être pensait-il pouvoir faire un remake du printemps de Prague avec un Occident qui n’avait pas prise sur l’Union Soviétique à moins d’entrer en guerre avec elle. Mais contrairement à l’Union Soviétique, la Russie fait partie du système économique mondial.  Le président russe doit casser cette cohésion occidentale, poussée et soutenue par les opinions publiques dans tous les pays. Des attaques cyber ont ce potentiel, en perturbant le fonctionnement de l’économie via la mise à l’arrêt d’infrastructures critiques, de transports, de banques, de services de l’administration. Le but est de saper la confiance du citoyen face à ses gouvernants qui n’auraient alors plus l’assise – ni le temps du fait des « perturbations cyber » sur leurs propres économies – pour consacrer tous leurs efforts à lutter contre l’agresseur. Celui-ci peut encore lancer des attaques de déni de service (DDoS en anglais) qui inondent les réseaux de requêtes artificielles pour les saturer et rendre inaccessibles les sites web des banques ou leurs applications mobiles, et qui peuvent aussi mettre à plat les systèmes de paiement ou les réseaux de carte de crédit. Les institutions financières remarquent une augmentation des attaques de déni de service, qu’on peut sans doute attribuer à un « échauffement » des forces cyber-russes qui testent leur force de frappe au cas où.

    Les institutions financières sont une cible de choix : elles sont directement reliées à Internet pour permettre à leurs clients de s’y connecter et d’y mener leurs opérations. Les attaques de déni de service sont très bien contrées mais il faut rester humbles : on ne sait pas ce que les attaquants pourraient avoir préparé. Toujours avec l’objectif de saper la confiance, le président russe pourrait ordonner de défigurer les sites des banques pour faire peur aux clients qui n’auraient alors plus confiance dans leurs banques incapables d’éviter des graffitis sur leurs sites. Avec la mise au ban des banques russes via Swift, le gouvernement russe pourrait chercher à faire œil pour œil, dent pour dent et aller un cran plus loin : pénétrer les réseaux des infrastructures de marchés financiers (Financial Market Infrastructure ou FMI en anglais). Ce sont les organisations-rouages des marchés financiers, peu connues du grand public, qui sont essentielles à leur fonctionnement. Il en va de même pour MasterCard et Visa qui, eux aussi, sont allés un cran plus loin en suspendant leurs services en Russie.

    Ce sont des scénarios mais c’est ainsi qu’il faut  procéder. Ils prennent en compte le mobile du crime pour ne pas disperser ses efforts et cerner la menace. Imaginer ce que visent les autorités russes dans une éventuelle cyberattaque, c’est cibler le renforcement des défenses là où c’est nécessaire et détecter au plus vite les signes annonciateurs.

    Que faire ?

    Sans savoir quand viendra le coup, et même si on sait d’où il viendra et ce qu’il visera, il faut appliquer la tolérance-zéro en cyber-risque.

    Toutes les entreprises, surtout celles qui administrent des infrastructures critiques ou qui opèrent des services essentiels, comme les banques, doivent doper leur threat intelligence, c’est-à-dire activer tous les canaux qui peuvent les renseigner sur les malwares qui circulent, d’où ils viennent, comment les repérer, inclure leur empreinte numérique dans les systèmes de détection interne dans le réseau IT. Il existe, heureusement, une communauté cyber efficace qui publie et relaie tout ce qu’un de ses membres trouve : ce sont les sociétés de sécurité promptes à découvrir ces malwares pour mettre à jour leurs propres produits en publiant sur leur blog leur trouvaille comme preuve de leur savoir-faire. Mentionnons également les agences de cybersécurité nationale (comme l’ANSSI en France), les CERT et les agences gouvernementales qui relaient ces informations.

    Les entreprises doivent corriger (patcher) les vulnérabilités qui apparaissent dans les logiciels et composants informatiques qu’elles utilisent, dès que les constructeurs les annoncent avec un correctif à la clé. Il faudra aussi penser à prioriser ces mises à jour correctives car c’est tous les jours que des vulnérabilités sont annoncées grâce au dynamisme des scientifiques qui, jusqu’à présent, sont plus rapides que les attaquants. Cependant, soyons honnêtes, cela ne suffit pas car ces derniers ont toujours tout le loisir d’exploiter des vulnérabilités anciennes que trop d’entreprises tardent à corriger. On voit régulièrement apparaître des mises en garde sur des vulnérabilités  qui, tout à coup, sont exploitées par des hackers pour compromettre les systèmes des entreprises qui  ne les ont pas mis à jour. Il est alors  minuit moins une pour ces dernières.

    Il faut par ailleurs continuer à surveiller les groupes d’activistes ou les espions étatiques, ce qui permet de savoir quel type de cible est visé au niveau des états. Aujourd’hui, c’est l’Ukraine, demain, ce sera peut-être un autre pays. On surveillera les groupes de hackers notoirement connus pour avoir des accointances en Russie. Ils vont sûrement s’exercer dans le sens d’une mission « freelance » que pourrait leur demander leur pays de tutelle.

    Enfin, les entreprises doivent refaire le tour des mesures techniques qui rendent leurs réseaux étanches aux attaques, mesures qu’elles appliquent déjà certainement mais il faut contrôler qu’aucune exception qui aurait été accordée n’est restée active par mégarde. Les plus avancées parmi les entreprises auront déjà implémenté le concept de réseau zéro confiance (zero-trust network), une nouvelle manière de penser les réseaux d’entreprise. Son principe est que toute machine dans le réseau de son entreprise pourrait, à l’insu de tous, avoir été compromise. Aucune machine ne peut faire confiance à aucune machine, comme sur Internet. C’est considérer son propre réseau comme un Far-West équivalent à Internet. L’autre concept est la défense en profondeur : une défense informatique doit toujours être en tandem avec une autre défense informatique. Si l’une est compromise, l’autre fonctionnera encore et l’attaque sera un échec.

    L’authentification à deux facteurs que certains activent déjà pour leurs compte Gmail est un exemple. Ne connaitre que le mot de passe et le login ne vous permet plus d’accéder à votre boite email. Il faut encore un code qui parviendra à votre smartphone par exemple. Pour vaincre ces deux couches, un voleur doit non seulement connaitre le mot de passe et login mais aussi posséder le smartphone du titulaire du login.

    Plus prosaïquement, les sociétés seraient bien inspirées de jeter un coup d’œil à leurs sous-traitants et contractants qui pourraient connaitre des manquements bien pires que les leurs.

    Enfin, tout cette communauté peut avoir du personnel lié aux zones de conflit, donc très affecté par la situation, qui pourrait partir protéger leur famille, aller combattre ou qui serait tenté par des actions patriotiques sur leur lieu de travail avec les ressources IT de leur employeur. Deutsche Bank en fait pour l’instant l’amère expérience : cette banque dispose d’un centre à Moscou où travaillent 1500 experts dont la banque a besoin tous les jours en support de son trading. Elle est forcée d’élaborer à toute vitesse des plans d’urgence pour « accompagner » la perte future de ce centre, soit parce que le gouvernement russe le ferme en représailles, soit parce que l’embargo occidental intense rend impossible la collaboration, soit parce Deutsche Bank n’arrive tout simplement plus à verser les salaires du fait de l’isolement financier de la Russie. Elle a par exemple mené récemment un stress test en fonctionnant trois jours sans faire appel à son centre de Moscou.

    Ce qui ne manque pas de frapper, c’est le niveau inédit de coopération public-privé : on voit un Microsoft coopérer directement avec le gouvernement ukraininen. Les partenariats privé-public sont depuis des années appelés de leur vœux en cybersécurité. Les voilà mis en œuvre, enfin.

    Quand la Russie attaquera-t-elle au niveau cyber ?

    On se perd en conjectures sur l’absence d’attaques cyber d’ampleur pour l’instant à l’extérieur de l’Ukraine : certains analystes pensent que le président russe n’a pas averti/impliqué ses agences de renseignement à temps pour les prévenir de l’imminence de l’attaque, de sorte que ces dernières n’ont rien préparé et ont continué leurs opérations d’infiltrations/espionnages habituelles. Lancer une attaque cyber sur plusieurs pays à la fois, simultanément, cela se prépare. Ce n’est pas comme s’introduire dans une entreprise donnée à la recherche de secrets ou pour lancer un petit rançongiciel, histoire de garder la main.

    Jean-Jacques Quisquater (Université de Louvain Ecole Polytechnique de Louvain).

  • Les ressources éducatives libres 

    Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Colin de la Higuera, professeur d’informatique à l’Université de Nantes, titulaire de la chaire Unesco en ressources éducatives libres et intelligence artificielle, ancien président de la Société Informatique de France. Il nous parle des ressources éducatives libres, des éléments essentiels des communs du numérique. C’est l’occasion pour Binaire de retrouver Colin, qui a été un temps éditeur du blog.
    Colin de la Higuerra, Page perso à l’Université de Nantes

    Tu es titulaire d’une chaire Unesco en ressources éducatives libres et intelligence artificielle ? En quoi est-ce que cela consiste ?

    Dans ce projet, nous travaillons en partenariat avec l’Unesco afin de faire progresser les connaissances et la pratique dans ce domaine prioritaire à la fois pour Nantes Université et l’Unesco. Les ressources éducatives libres (REL) sont au cœur des préoccupations de l’Unesco qui voit en elles un moteur essentiel pour l’objectif de développement durable #4 : l’éducation pour tous. Donner un accès plus ouvert à la connaissance change la donne dans les pays en voie de développement, par exemple en Afrique ou en Inde. Il y a aujourd’hui une dizaine de chaires Unesco dont une en France ; on les trouve très répartie, par exemple au Nigéria, en Afrique du Sud ou au Mexique. Une chaire Unesco, ce n’est pas du financement, c’est de la visibilité et la possibilité de porter des idées. Aujourd’hui, le sujet des ressources éducatives libres représente le cœur de mon activité. Notamment, nous organisons une conférence internationale sur l’éducation globale à Nantes cette année.

    Les ressources éducatives libres (REL) sont des matériaux d’enseignement, d’apprentissage ou de recherche appartenant au domaine public ou publiés avec une licence de propriété intellectuelle permettant leur utilisation, adaptation et distribution à titre gratuit. Unesco.
    Par Jonathasmello — Travail personnel, CC BY 3.0 – Wikimedia

    Pourrais-tu nous expliquer ce que sont ces Ressources Éducatives Libres ?

    Les Ressources Éducatives Libres, REL pour faire court, sont des biens communs. L’idée est tout simplement que les ressources éducatives préparées par un enseignant ou un groupe d’enseignants puissent resservir à d’autres sans obstacle. Au delà d’un principe qui inclut la gratuité, pour qu’une ressource soit libre, on demande qu’elle respecte la règle des 5 “R” :

    • Retain : le droit de prendre la ressource, de la stocker, de la dupliquer,
    • Reuse : le droit d’utiliser ces ressources en particulier dans ses cours, mais aussi sur un site web, à l’intérieur d’une vidéo,
    • Revise : le droit d’adapter la ressource ou le contenu (en particulier le droit de traduction)
    • Remix : le droit de créer une nouvelle ressource en mélangeant des morceaux de ressources existantes
    • Redistribute : le droit de distribuer des copies du matériel original, le matériel modifié, le matériel remixé.

     

    Qu’est-ce qui a été le catalyseur sur ce sujet ?

    C’est quand même le numérique qui a rendu techniquement possible le partage et la mise en commun. Le numérique a changé a permis le décollage de cette idée. Mais le numérique peut aussi créer des obstacles, faire peur. Aujourd’hui, il s’agit d’utiliser le numérique encore plus efficacement pour permettre un meilleur partage de ces communs.

    Quand a commencé le mouvement pour les REL ?

    Le mouvement a débuté aux États-Unis il y a une vingtaine d’années. Au MIT plus précisément, des enseignants progressistes se sont souvenus qu’ils avaient choisi ce métier pour partager la connaissance et non la confisquer. Ils ont cherché à partager leurs cours. Les grandes universités américaines y ont rapidement vu leur intérêt et y ont adhéré. Ça a bien marché, parce que les plus prestigieuses comme Harvard et MIT s’y sont mises en premier. Aujourd’hui les Américains sont en avance sur nous sur le sujet.

    Y a-t-il une communauté des ressources éducatives libres ?

    Il existe bien sûr de nombreux activistes, mais le mouvement vient le plus souvent d’en haut. Ce sont des pays qui choisissent cette voie, des universités, des institutions. Par exemple l’Unesco, les États qui soutiennent financièrement les actions (comme pour d’autres communs, il y a des coûts) et en France certains acteurs comme le ministère de l’Éducation nationale. Il existe quand même des lieux pour que les acteurs et activistes se rencontrent, discutent des bonnes pratiques, échangent sur les outils créés.

    Assiste-t-on à un conflit avec les grands éditeurs de manuels scolaires au sujet des ressources éducatives libres. Pourrais-tu nous expliquer la situation ?

    La question est difficile ! Il convient d’abord de rappeler que les éditeurs ont accompagné l’Éducation nationale, en France, depuis très longtemps. Des partenariats forts existent et bien des disciplines sont nées ou se sont développées grâce à la création des manuels bien plus que par la publication de programmes. Il est compréhensible que nombreux voudraient voir perdurer cette coopération.

    Mais aujourd’hui on assiste en France  à la concentration du monde de l’édition au sein d’un unique groupe. Comme pour toutes les situations de monopole, c’est un souci. Et dans le cas qui nous intéresse c’est un souci majeur, surtout si en plus des questions très politiques viennent ici effrayer. Imaginons un instant que vous soyez aux Etats-Unis et que toute l’édition scolaire vienne à  tomber entre les mains d’un seul groupe dirigé par une personne qui soutiendrait des idées encore plus à droite que celles de l’ancien président Donald Trump. Est-ce que vous ne seriez pas inquiet sur le devenir des textes qui seraient distribués en classe, sur le devenir de l’éducation ? Et ne nous leurrons pas sur une supposée capacité de contrôle par l’État : même si on avait envie de voir plus de contrôle de sa part, il en serait bien incapable. Il suffit de regarder du côté de l’audiovisuel pour s’en rendre compte. Cette concentration de l’édition entre trop peu d’acteurs entraîne également une moindre variété des points de vue vis-à-vis des communs.

    Un autre argument à prendre en compte est que les montants financiers en question ne sont pas négligeables. On ne le voit pas au niveau des familles parce que tout est apparemment gratuit mais en réalité les enjeux économiques sont considérables. En France, le chiffre d’affaires net de l’édition scolaire représente 388 millions d’euros par an. On peut contraster ce chiffre avec celui de l’édition liée à la recherche scientifique. Cela conduit à se demander pourquoi les instances publiques exercent un vrai soutien pour l’accès libre aux publications scientifiques et pas de soutien du même ordre pour les REL.

    Mais qu’y a-t-il de particulier en France ?

    D’abord, la gratuité des ressources éducatives. Dans l’esprit du public, notamment des parents et des élèves, le matériel éducatif est “gratuit”. En fait, à l’école primaire, il est pris en charge par la municipalité, au collège par le département, et au lycée par la région. A l’Université, nos bibliothèques sont très bien dotées. Dans beaucoup de pays, les Etats-Unis en premier lieu, le matériel éducatif est payant. Et souvent cher. Ces coûts sont de vrais obstacles aux études. Acheter les différents textbooks en début d’année est un souci pour les familles modestes. Les familles et les étudiants eux-mêmes sont donc, assez logiquement, des avocats des REL et vont faire pression sur les établissements ou les gouvernants pour créer et utiliser des REL. Et ça fonctionne : ainsi, en avril dernier, l’état de Californie a investi en juillet dernier 115 millions de dollars pour soutenir les REL. En France, quand on parle de ressources gratuites, la première réaction est souvent : mais ça l’est déjà !

    Et puis il y a une originalité française sur le “droit d’auteur” sur les cours. En France, les enseignants ne sont pas “propriétaires” du cours qu’ils font, notamment dans le primaire et dans le secondaire. Un professeur de lycée n’a pas le droit de produire un livre à partir de son cours, parce que le cours ne lui appartient pas. C’est plus complexe que ça mais il y a assez de zones d’ombre pour que les enseignants ne se sentent pas en sécurité à l’heure de partager.

    Pourquoi le Ministère ne le déclare-t-il pas tout simplement ?

    A vrai dire, je n’en sais rien. Il y a sans doute du lobbying pour maintenir une situation de statu quo, mais c’est bien dommage. Les enjeux sont importants.. Il suffirait pourtant de peu : d’une déclaration politique soutenant la création de REL par tous les acteurs de l’éducation.

    Existe-t-il un annuaire qui permet de trouver les ressources éducatives libres ?

    Non, il n’existe pas d’annuaire, ou plutôt il en existe beaucoup et ils sont peu utilisables. Là encore, les approches top-down ont prévalu. Dans le primaire et le secondaire, le ministère a mis en place un annuaire qui s’appelle Edubase. Cet annuaire est complexe à utiliser, les licences ne sont que rarement mentionnées, donc on ne sait pas si et comment on peut utiliser telle ou telle ressource. Pour l’université, il y a les UNT (Université Numérique Thématique). Les universités elles-mêmes ont constitué leurs propres catalogues, mais ces catalogues débouchent sur des ressources éparpillées. Et se pose alors le problème de la curation : les cours peuvent avoir disparu, changé d’adresse. Enfin et surtout, l’usage des licences est très approximatif. Il nous est arrivé de trouver un même cours ayant de multiples licences, contradictoires, posées par les auteurs, l’Université et l’annuaire lui-même. Ce qui en pratique rend impossible son utilisation autrement qu’en simple document à consulter : on est alors très loin des REL.

    Au niveau international, c’est un peu le même désordre général. J’ai participé au projet européen X5-GON (Global Open Education Network) qui collecte les informations sur les ressources éducatives libres et qui marche bien avec un gros apport d’intelligence artificielle pour analyser en profondeur les documents. La grande difficulté étant toujours le problème des licences. On essaie de résoudre le problème dans le cadre de la Francophonie et en mettant en place du crowdsourcing.

    Donc on aura besoin de l’aide de tous ?

    Oui, nous espérons organiser au printemps des RELathons, c’est -à -dire des événements où chacun pourra nous aider à identifier les REL francophones. La logistique est presque prête… Nous attendons surtout de meilleures conditions sanitaires pour nous lancer.

    Le mouvement des REL est-il bien accepté chez les enseignants ?

    Si beaucoup d’enseignants sont ouverts à partager leurs ressources éducatives, ce n’est pas nécessairement le cas pour tous . Il n’y a pas adhésion de masse à l’idée de la mise en commun et du partage de la connaissance. Par exemple, à ce jour, il est impossible pour un étudiant qui suit un cours dans une université d’avoir des informations et de se renseigner sur le cours équivalent qui est donné dans une autre université.

    Une anecdote : en Suède, le ministère à essayé de pousser les ressources éducatives libres ; ils ont eu un retour de bâton de la part des syndicats qui ne voyaient pas pourquoi le ministère voulait imposer à un enseignant de partager ses ressources avec d’autres enseignants. Le débat reste très intéressant chez eux.

    Mais je pense que c’est quand même un problème culturel : poser une licence fait peur, s’exposer aussi. Mais si on rappelle aux enseignants qu’au fond, s’ils ont choisi ce métier, c’est bien pour partager la connaissance, on crée des adeptes.

    Existe-t-il des groupes de militants qui représentent l’amorce d’une communauté ?

    Il y a une petite communauté assez active. La Société informatique de France en fait partie par exemple. Mais c’est une communauté de convertis. Il faut arriver à convaincre les gens, en masse, au-delà de petits groupes des précurseurs.

    Les REL sont un exemple de commun numérique, comment se comparent-ils d’autres communs, par exemple à la science ouverte ?

    Une différence avec la science ouverte est que pour les ressources éducatives libres, il y a un droit de remix, c’est-à-dire de prendre un morceau d’un cours, le modifier, l’intégrer un autre, etc. Dans la science ouverte, une publication reste un tout que l’on ne modifie pas. Donc, les REL se rapprochent plutôt de la logique de l’Open Source.

    Le ministère de l’enseignement supérieur et de la recherche a un responsable pour la science ouverte, Marin Dacos, est-ce qu’on a aussi un responsable pour les REL ?

    Récemment, Alexis Kauffmann, le fondateur de Framasoft, a été nommé “chef de projet logiciels et ressources éducatives libres et mixité dans les filières du numérique” à la Direction du numérique de l’Education nationale. C’est une excellente nouvelle.

    Quel type d’actions est prévu dans le cadre de ta chaire Unesco ?

    Des actions à trois niveaux sont prévues. Au niveau international, on organise la conférence Open Education Global Nantes 2022. Sur le plan national, on essaie en association avec le ministère de l’éducation de mobiliser l’ensemble de la filière : cela passe par des ateliers lors de journées organisées par les rectorats, par la publication de ressources pour aider les enseignants à devenir des éducateurs ouverts… Nous publions ces informations et ressources sur notre blog. Enfin pour ce qui est du local, Nantes Université est totalement impliquée dans la démarche et ce sujet est porté par la Présidente. J’espère qu’à court terme nous pourrons servir d’exemple et de moteur pour faire progresser des ressources éducatives libres dans le contexte universitaire.

    Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, serial entrepreneur

    https://binaire.socinfo.fr/page-les-communs-numeriques/

     

  • Les cinq murs de l’IA 2/6 : l’énergie

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 2: le mur de l’énergie

    Cet épisode, consacré à la consommation énergétique des systèmes d’apprentissage profond, reprend en les approfondissant des éléments d’un billet que j’ai publié dans les pages sciences du journal Les Échos début 2020.

    Le super-calculateur Jean Zay (du nom d’un fondateur du CNRS) est un des 3 sites nationaux pour le calcul haute performance. Grâce à ses milliers de processeurs de dernière génération il atteint aujourd’hui1 une puissance de 28 pétaflop/s (vingt-huit millions de milliards d’opérations arithmétiques par seconde). Refroidi par des circuits hydrauliques à eau chaude allant au cœur des processeurs, il ne consomme « que » environ deux mégawatts. Jean Zay est la première grande machine européenne « convergée » capable de fournir à la fois des services de calcul intensif (modélisation, simulation, optimisation) et des services pour l’intelligence artificielle et l’apprentissage profond. Elle va permettre des avancées majeures dans les domaines d’application du calcul intensif (climat, santé, énergie, mobilité, matériaux, astrophysique …), et de mettre au point des systèmes d’IA basés sur des très grands volumes de données. Mieux encore, la jonction de ces deux mondes (modélisation/simulation et apprentissage automatique) est porteuse de nouveaux concepts pour développer les systèmes intelligents de demain.

    Oui, mais … Les chercheurs de l’université de Stanford publient annuellement l’édition du «AI Index» qui mesure la progression des technologies d’IA dans le monde. L’édition de fin 2019 présentait pour la première fois l’évolution des besoins de calcul des applications de l’IA qui ont suivi la loi de Moore (doublement tous les dix-huit mois) de 1960 à 2012. Depuis, ces besoins doublent tous les 3.5 mois ! La demande du plus gros système d’IA connu à l’époque (et qui a donc doublé plusieurs fois depuis) était de 1860 pétaflop/s*jours (un pétaflop/s pendant un jour) soit plus de deux mois de calcul s’il utilisait la totalité de la machine Jean Zay pour une consommation électrique de près de trois mille mégaWatts-heure. Pis encore, si le rythme actuel se poursuit, la demande sera encore multipliée par un facteur 1000 dans trois ans …. et un million dans six ans!

    Provient de l’article de Strubell et coll cité dans le texte.

    Le mur de l’énergie est bien identifié par certains chercheurs en apprentissage profond. L’article fondateur d’Emma Strubell et coll. 2 établissait que l’entraînement d’un grand réseau de neurones detraitement de la langue naturelle de type « transformer », avec optimisation de l’architecture du réseau, consommait autant d’énergie que cinq voitures particulières pendant toute leur durée de vie (ci-dessous).

    `L’article de Neil Thompson et coll.3 allait plus loin en concluant que « les limites de calcul de l’apprentissage profond seront bientôt contraignantes pour toute une série d’applications, ce qui rendra impossible l’atteinte d’importantes étapes de référence si les trajectoires actuelles se maintiennent ». Encore une fois, souligné par les chiffres donnés par le AI Index qui insistait sur le facteur exponentiel correspondant. Fin 2021, Neil Thomson et coll. ont complété cette analyse4 sur l’exemple du traitement d’images (ImageNet) et abouti à estimer à 9 ce facteur entre la réduction du taux d’erreur et le besoin en calcul et données, ce qui signifie qu’une division par 2 du taux d’erreur nécessite 500 fois plus de calcul … et une division par 4 demanderait 250.000 fois plus.

    On pourrait imaginer que cette croissance s’interrompra une fois que toutes les données disponibles (toutes les images, tous les textes, toutes les vidéos etc.) auront été utilisées par l’IA pour s’entraîner, mais le monde numérique n’est pas dans une phase de stabilisation du volume de données exploitables, sujet auquel vient s’ajouter, dans un autre registre, les limites en termes de stockage. Selon le cabinet IDC, la production mondiale de données atteindra 175 zettaoctets en 2025, pour une capacité de stockage limitée à une vingtaine de zettaoctets5. La croissance de la production de données est actuellement d’un ordre de grandeur plus rapide que la croissance de la capacité de stockage. Les programmes d’apprentissage automatique devront de plus en plus traiter des données en flux (et donc les oublier une fois le traitement effectué) faute de capacité de mémorisation de l’ensemble de la production.

    Quoiqu’il en soit, le mur de la consommation énergétique liée aux besoins de calcul intensif des applications de l’IA basées sur l’apprentissage profond et consommatrices de très grandes quantités de données, en arrêtera inévitablement la croissance exponentielle, à terme relativement rapproché, si l’on ne fait rien pour y remédier.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 de nouveaux investissements de l’Etat français devraient encore accroître sa puissance

    2 E. Strubell, A. Ganesh, A. McCallum. Energy and Policy Considerations for Deep Learning in NL (2019), https://arxiv.org/abs/1906.02243v1

    3 N. Thompson et coll. The Computational Limits of Deep Learning (2020), arXiv:2007.05558v1

    4 N. Thompson et coll. Deep Learning Diminishing Returns. https://spectrum.ieee.org/deep-learning-computational-cost

    5 https://www.idc.com/getdoc.jsp?containerId=prUS47560321

  • Pourquoi couper la Russie de SWIFT ?

    Depuis plusieurs jours le réseau SWIFT est à la une de tous les médias qui décrivent les sanctions envisagées contre le gouvernement russe. Il s’agit d’un réseau auquel sont connectées les banques et qui est utilisé pour les échanges financiers internationaux. Pour aller plus loin et comprendre précisément à quoi sert SWIFT, nous avons interrogé trois experts : Jean-Jacques Quisquater, Charles Cuvelliez et Gael Hachez. Pascal Guitton & Pierre Paradinas
    Photo de Life Of Pix provenant de Pexels

    Depuis plusieurs jours, la coupure de l’accès de 7 grandes banques russes au système SWIFT occupe le devant de la scène comme si elle était de nature à changer le cours de la guerre. Pourquoi et surtout à quoi sert SWIFT au point d’avoir cet espoir ?

    Tout d’abord, SWIFT n’a pas vraiment de concurrent et toutes les banques sont connectées à ce service qui fonctionne très bien. En effet, bien que SWIFT ne soit pas une institution financière, c’est un pilier de la finance mondiale car il permet à une banque de transférer de l’argent à toute autre banque dans le monde (11 000 banques dans 200 pays y sont connectées). Pour le commun des mortels, transférer de l’argent entre comptes semble aller tellement de soi qu’on peut se demander pourquoi il faut un système comme SWIFT. Le plus simple est d’imaginer SWIFT comme un service de messagerie très sécurisé entre banques utilisant des messages standardisés. Contrairement à un système classique d’échange d’e-mail, SWIFT garantit l’identité des banques connectées et la sécurité des messages.

    Pour pouvoir transférer de l’argent entre une banque A et une banque B dans un autre pays, il faut qu’elles entretiennent une relation commerciale. Si tel est le cas et qu’elles sont toutes les deux connectées à SWIFT, le transfert va passer par des messages respectant un format spécifique (MT103) en utilisant comme identifiant le code BIC de la banque. Si A n’a pas de relation commerciale avec B, la situation se complique car il faut passer par des banques intermédiaires dites correspondantes car elles ont une relation commerciale avec A et B. Les messages SWIFT, qui donnent les ordres de transfert de proche en proche, constituent donc le fil d’Ariane du transfert d’argent entre A et B.

    SWIFT transporte 40 millions de message par jour : à peine 1% implique les banques russes. C’est une coopérative dont les actionnaires sont les banques elles-mêmes. Les messages SWIFT ont aussi des fonctionnalités avancées de groupe comme l’implémentation de plafond ou l’imposition de contingences imposées par une banque centrale ….

    Si SWIFT n’existait pas, le transfert de A vers B pourrait fonctionner quand même mais au prix d’une coordination sans faille, avec une synchronisation avec la/les banques intermédiaires via plusieurs systèmes de messagerie et de formats différents.

    Comme nous l’avons écrit précédemment, pour que A puisse transférer de l’argent vers B, il faut qu’il existe une relation commerciale entre elles qui se traduit dans SWIFT par un système d’autorisation (B accepte de recevoir des messages de A). En d’autres termes, on aurait pu isoler les banques russes en demandant tout simplement à toutes les banques non russes de ne plus avoir de relation commerciale avec elles. C’est l’objectif de ces sanctions mais elles ne sont pas appliquées par exemple par des banques chinoises. Pour des banques, établir une relation commerciale l’une avec l’autre n’est pas innocent. La société J.P. Morgan qui est une des principales banques correspondantes dans le monde, au point d’être une plaque tournante des transferts internationaux, n’acceptera pas n’importe qui comme nouvelle banque. Dans la banque de détail, il existe un examen approfondi (screening) pour chaque  nouveau client (via la procédure dite KYC pour Know Your Customer en anglais) pour éviter d’héberger les comptes  d’un criminel ou d’un terroriste. Sachez que ce contrôle existe aussi entre banques qui acceptent de correspondre entre elles.

    Les risques

    Que tous les échanges entre établissements financiers reposent sur un unique système de messagerie constitue un risque systémique majeur. Si pour une raison ou une autre, SWIFT tombait en panne, c’est la finance mondiale qui s’arrêterait. Une attaque par déni de service qui arriverait à bloquer SWIFT (qui n’est pas connecté à Internet) ferait autant de dégâts.

    L’autre risque majeur avec SWIFT, c’est le vol d’argent. Le Bangladesh a connu cette mésaventure : la Réserve Fédérale américaine reçut un jour plusieurs ordres de versement d’argent d’un compte détenu par la banque centrale du Bangladesh vers différents comptes dont celui d’un particulier. Cette demande particulièrement étrange (une banque centrale ne transfère pas d’argent sur le compte d’un particulier) a permis de détecter la fraude mais une partie de l’argent avait déjà été versée. Cette malversation venait à coup sûr d’un expert du système financier car il fallait détenir beaucoup de connaissances : savoir utiliser le terminal SWIFT, savoir que la banque centrale du Bangladesh possédait de l’argent dans la Réserve Fédérale, sur quel compte…. Le personnel qui manipule les terminaux SWIFT doit évidemment faire l’objet d’un examen approfondi que certaines banques vont certainement réitérer au vu des tensions entre deux pays dont les ressortissants pourraient très bien se trouver au contact de terminaux SWIFT.

    Comment cela va se passer.

    Concrètement, quand SWIFT, une société de droit belge, recevra l’obligation légale (sous quelle forme ?) d’exclure les 7 banques russes, elle bloquera sans doute les transactions depuis et à destination de ces établissements sur la base de leur code BIC. Elle appliquera l’article 16c de ses statuts qui mentionne que le conseil d’administration peut suspendre ou révoquer un actionnaire s’il n’a pas respecté ses engagements ou si une régulation amène à une contradiction à le garder connecté à SWIFT. Mais ce n’est pas sans risque car certaines opérations faites via SWIFT s’étalent dans le temps. Le blocage pourrait par exemple arrêter une opération commencée plus tôt. L’interrompre en plein milieu risque de provoquer des déséquilibres dans des flux de paiement et des transferts qui peuvent déboucher sur une situation chaotique.


    Photo de Mohamed Almari provenant de Pexels

    Pour l’éviter, il est question de créer des sauf-conduits pour garantir à une opération en cours de s’achever même sous un régime de sanctions. L’autre défi est l’immédiateté de la sanction. Lorsqu’une régulation impose un changement dans les règles, du temps est laissé à SWIFT pour s’adapter. Ici, du jour au lendemain, il faut adapter les règles de surveillance des transactions. Des opérations légitimes qui utilisent les banques russes comme intermédiaires risquent d’être stoppées sans raison et interprétées comme illégales. La décision de couper les 7 banques russes a été prise le 2 mars mais ne sera d’application que le 12 mars : 10 jours pour s’adapter, c’est peu !

    Alternatives

    La Russie n’a pas réussi à développer un système alternatif à SWIFT : elle a tenté de mettre sur pied le SPFS sur lequel 23 banques sont connectées en provenance de pays comme l’Arménie, le Belarus, le Kazakhstan, plus quelques pays européens et la Suisse, mais sa taille réduite le handicape. Il y a bien des plans pour interconnecter SPFS avec les systèmes de paiement en Chine, Inde et Iran. La Russie peut aussi se connecter sur le système CIPS chinois mais la Chine ne serait sans doute pas prête à subir des sanctions secondaires qui le priverait d’un accès au dollar. La Russie peut aussi se passer de SWIFT et tenter d’effectuer des paiements en direct, de gré à gré, à des banques étrangères mais celles-ci refuseront certainement.

    Ce qui est sûr, c’est que la légalité de la coupure sera attaquée si la Russie prend cette peine.

    Ce dont on parle moins

    Comme on l’a dit plus haut, la déconnexion de SWIFT a un impact mais il est limité car le régime de sanctions impose déjà à la plupart des banques dans le monde de ne plus travailler avec ces banques russes. Via le(s) système(s) SPFS et/ou CIPS, elles pourraient toujours travailler avec des banques qui n’appliquent pas ces sanctions. SWIFT à défaut d’être l’arme économique ultime aura été une arme médiatique pour exprimer la volonté et l’unité de l’Europe. Si SWIFT n’était pas installé en Belgique, soumise à la législation européenne mais en Asie qui marque très peu d’empressement à appliquer des sanctions économiques, il n’est pas sûr que les banques russes eussent été bannies.

    Jean-Jacques Quisquater (Université de Louvain Ecole Polytechnique de Louvain), Charles Cuvelliez (Université de Bruxelles, Ecole Polytechnique de Bruxelles) et Gael Hachez (expert en gestion du risque technologique dans le secteur financier)

     

     

  • Le syndrome de l’imposteur

    En ce 8 mars 2022, quand bien même, compte tenu de l’actualité brulante, le monde ferait bien de se concentrer sur les droits des humains en général, il ne faut pas oublier cette parenthèse annuelle pendant laquelle il convient de se pencher plus particulièrement sur les droits des femmes. Anne-Marie Kermarrec nous propose aujourd’hui d’aborder le sujet du syndrome de l’imposteur. Serge Abiteboul & Marie-Agnès Enard

    Un syndrome plutôt féminin

    Qu’est-ce donc que ce troublant syndrome de l’imposteur, dont on entend de plus en plus parler et dont il semblerait que 70% des gens souffre à un moment ou à un autre de leur vie ?

    Le terme du syndrome de l’imposteur a été introduit dès 1978 par deux psychologues Pauline Clance et Susanne Imes [1], suite à une étude qu’elles avaient mené sur 150 femmes diplômées, exerçant des métiers prestigieux et jouissant d’une excellente réputation. Pourtant ces femmes brillantes dont les compétences ne faisaient aucun doute avaient une fâcheuse tendance à se sous-estimer. Elles avaient souvent l’impression de ne pas être à leur place, de ressembler à une publicité mensongère, de ne considérer leur réussite que comme le fruit d’une accumulation de circonstances externes favorables dont le mérite ne leur revenait pas. Un état des lieux qui ne fait qu’entériner le manque de confiance en soi qu’il provoque. Il y a des degrés évidemment, et un large éventail de symptômes, qui va d’un moment de doute temporaire lié à une situation de stress, au sentiment très ancré de ne pas être à la hauteur qui relève de la vraie pathologie et peut parfois mener au surmenage, plus connu sous son nom anglo-saxon de burnout. Et les recettes courent le net pour le surmonter [2].

    Puisqu’en ce 8 mars on s’intéresse aux femmes, doit-on systématiquement conjuguer le syndrome de l’imposteur au féminin ? Il se trouve que l’étude originelle ayant porté sur une cohorte exclusivement féminine, on a longtemps considéré que c’était effectivement l’apanage des femmes que d’en souffrir [3]. Pourtant, si elles en sont plus souvent victimes, beaucoup d’hommes y sont sujets également, du sportif au père de famille, de l’étudiant au dirigeant d’entreprise [4]. On peut même se tester en ligne d’ailleurs pour les amateurs. Quelle idée j’ai eu de le faire : mon score de 68% semble indiquer que j’en souffre fréquemment (à mon âge !).

    Le numérique : un terrain fertile ?

    Si cette exclusivité féminine est contestable, le syndrome se conjugue souvent au féminin. Et si évoluer dans le domaine du numérique augmentait significativement les risques et plus encore pour les femmes et plus encore dans le monde académique ?  Si l’on en juge par les causes souvent évoquées, tout laisse à y penser. Quelle est la probabilité d’en souffrir quand on est une femme dans ce domaine aussi convoité par les hommes qu’ils y sont nombreux ? Revenons sur les coupables. Il est difficile d’accabler le domaine du numérique pour avoir subi une enfance difficile, être victime d’un caractère névrotique, ou d’être trop perfectionniste. Autant d’éléments qui participent de la probabilité d’apparition du syndrome de l’imposteur. Il n’en reste pas moins que le numérique exhibe certaines des caractéristiques qui engendrent le syndrome.

    Photo de Daria Shevtsova provenant de Pexels

    – La singularité
    L’une des raisons les plus fréquemment mentionnées est le fait d’avoir une caractéristique différente de la majorité dans laquelle on évolue. Les statistiques stagnantes dans le domaine du numérique nous octroient indéniablement cette singularité que l’on soit l’une des 15% d’étudiantes dans sa promo, l’une des 10% de professeures dans son université ou encore l’une des seules femmes oratrice à une conférence et la seule de sa table à un diner d’affaire, celle qu’on ne manque jamais de prendre pour l’assistante.  Si d’aucuns aiment à penser que faire partie de ces minorités est un privilège car ce statut nous rend unique et remarquable au sens littéral du terme, il est surtout souvent glaçant d’être la seule femme de l’assemblée. On sait d’ailleurs que les femmes qui ont eu la foi de s’engager dans les études d’informatique changent beaucoup plus souvent de voie que leurs homologues masculins, en partie car elles se sentent très différentes de leurs congénères. Alors, que celles qui restent persistent à penser qu’elles ne sont pas complètement à leur place, est-ce surprenant ?

    – Les stéréotypes
    Une autre cause souvent évoquée est celle des stéréotypes de genre solidement ancrés dans notre société. Ils multiplieraient par trois le syndrome de l’imposteur chez les femmes [3]. Les sciences dures de manière générale et l’informatique en particulier, encore malheureusement au 21ème siècle restent associés dans l’imaginaire collectif aux hommes, pire aux geeks. La société, parfois même la famille, ne voit pas la fluette Emma devenir le prochain Mark Zuckerberg. La brochette d’investisseurs qui s’apprête à octroyer quelques millions de dollars à la prochaine licorne préfèrerait les accorder à un trentenaire dynamique avec sa barbe de trois jours qui promet de révolutionner la deep tech, qu’à l’étudiante brillante qui malgré son idée de génie est une femme qui aura probablement du mal à s’affirmer, à négocier ou encore à diriger efficacement une entreprise. Celles qui se fraient un chemin dans ce monde masculin du numérique ont toujours une petite part de leur cerveau qui trouve étrange d’avoir réussi dans un domaine où elles étaient si peu attendues.

    – La compétition
    Un environnement professionnel très compétitif augmente indéniablement les risques de souffrir du fameux syndrome. Le domaine du numérique est en croissance exponentielle et à ce titre attire le monde entier dans ses filets. Terreau parfait pour en faire un terrain de jeu ultra-compétitif : qui aura la prochaine idée de génie pour l’application de l’année, qui va révolutionner l’intelligence artificielle, qui créera une blockchain peu gourmande en énergie ? Si on ajoute à la recette, quelques ingrédients propres au monde académique, il faut avoir un tempérament solide pour se frayer un chemin vers les sommets : la sélectivité des conférences et revues dans lesquelles nous publions nos travaux, la férocité des évaluations, la compétition internationale, le niveau indécent demandé aux jeunes docteurs pour décrocher un poste dans le monde académique, tout ça conjugué aux doutes constants auxquels les chercheurs sont soumis, eux qui passent leurs temps à s’acharner sur des problèmes que personne n’a encore résolu. Alors si un milieu très exigeant augmente les risques de succomber à ce syndrome, le numérique, qui plus est académique, coche toutes les cases.

    Souffrir du syndrome de l’imposteur est un sentiment qui, dans le meilleur des cas est désagréable, handicapant dans le pire. Alors même que nous redoublons d’imagination pour attirer les femmes dans le numérique à tous les niveaux, à coup de discrimination positive, de postes fléchés, de ratios de femmes à atteindre dans les écoles, universités et entreprises, il s’agit d’être vigilant sur les messages qui accompagnent ces honorables mesures, qui pourtant commencent à porter leurs fruits. Il ne s’agirait pas que cela renforce le manque de légitimité auquel font encore trop souvent face les femmes du numérique. Plus que jamais attelons-nous à éradiquer les clichés de genre.

    Anne-Marie Kermarrec (Professeur à l’EPFL)

    [1] Clance, P.R., & Imes, S.A. (1978).  The Impostor Phenomenon in High Achieving Women: Dynamics and Therapeutic Interventions.  Psychotherapy: Theory Research and Practice, 15, 241‑247

    [2] https://www.forbes.com/sites/kathycaprino/2020/10/22/impostor-syndrome-prevalence-in-professional-women-face-and-how-to-overcome-it/?sh=509cbf3573cb

    [3] Le Syndrome d’imposture. Pourquoi les femmes manquent tant de confiance en elles ?  Élisabeth Cadoche et Anne de Montarlot, Les Arènes, 2020.

    [4] Le Syndrome de l’imposteur Sandi Mann, Leduc, 2020

    [5] https://www.forbes.com/sites/kathycaprino/2020/10/22/impostor-syndrome-prevalence-in-professional-women-face-and-how-to-overcome-it/?sh=509cbf3573cb