• Nous sommes les réseaux sociaux, par Abiteboul et Cattan

    Cet ouvrage, publié chez Odile Jacob, s’attaque à un serpent de mer, la régulation des réseaux sociaux, ces complexes objets mi-humains mi-machines, qui nous unissent pour le meilleur et pour le pire. Tout le monde a un avis, souvent très tranché, sur la question. L’intérêt, ici, est d’avoir l’avis de deux spécialistes, un informaticien, Serge Abiteboul (*), membre de l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse), et un juriste, Jean Cattan, Secrétaire général du Conseil national du numérique.

     

    Mais précisément, ces deux spécialistes s’abstiennent soigneusement dans le livre de donner un cours. En préambule, ils s’appuient sur une remarque évidente et pourtant pas toujours évidente : les réseaux sociaux, c’est nous, nous tous. Nous, mais régulés par les entreprises qui gèrent Facebook, Twitter, Instagram et les autres. Des humains régulés par d’autres humains, finalement. Et donc, c’est à nous, nous tous, de définir ce qui doit être fait. Ils nous proposent une réflexion sur les principes qui devraient être au centre du développement des réseaux sociaux, et surtout, sur une méthode qui permettrait d’intégrer tout le monde, plaidant pour une intervention forte des États dans ce débat.

    Dès l’introduction, ils préviennent : tout le monde ne sera pas d’accord. Mais la situation actuelle n’est pas satisfaisante, et ce n’est pas en ignorant nos désaccords qu’on avancera. Faites-vous votre avis, ouvrez le livre, et puis ouvrez le débat !
    Charlotte Truchet
    (*) Serge Abiteboul est éditeur de binaire.
  • Critique de l’Esprit Critique

    Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », partageons une approche rendue encore plus indispensable avec le numérique : l’esprit critique. A l’heure des infox (fake news), du renforcement du complotisme, de la guerre qui est aussi devenue informationnelle, ou plus simplement de l’irruption de ChatGPT, l’apprentissage de l’esprit critique est/devrait être une priorité éducative. Mais … comment faire ? Et si nous commencions par regarder ce que les sciences de l’éducation nous proposent à travers ce petit texte issu des échanges tenus lors d’une table ronde. Thierry Vieville et Pascal Guitton.

    L’esprit critique est une démarche de questionnement des opinions ou des théories. Je m’intéresse aux arguments utilisés, à ce qui conduit à les exprimer.

    Je fais preuve de curiosité pour le point de vue des autres :

    « Ce que tu dis m’intéresse ».

    J’offre volontiers une écoute sincère et bienveillante. Je me positionne de manière modeste, mais reste lucide sur ce qui est dit et ce que l’on sait :

    « Pensons par nous-même, sans préjugé ».

    Car les affirmations ne sont à priori, ni vraies, ni fausses, ce sont des hypothèses, que l’on se donne le droit d’examiner, sans porter de jugement, pour retenir celles qui résistent mieux que les autres à la réalité des faits ou à l’examen de notre raison.

    « Oui, mais tu es d’accord avec moi ou pas ? »

    J’ai aussi le droit de ne pas trancher : de prendre un peu de temps pour comprendre comment s’est formée ta façon de penser et quelles en sont les conséquences, de discerner ce qui est un fait établi, de ce qui est un simple exemple ou un avis (que je respecte). Je peux aussi avoir besoin d’en savoir plus, de découvrir que les choses sont peut-être plus complexes qu’on ne pourrait le penser.

    Et surtout, dans la démarche de l’esprit critique, on ne cherche pas à convaincre un tiers de se rallier à sa cause ou d’être d’accord avec soi, mais à l’aider à construire sa propre vision d’une vérité.

    « Hou là là, les choses sont compliquées avec toi ! »

    Il est vrai que ce n’est pas facile de définir l’esprit critique, puisque il s’agit justement de quelque chose d’assez large, qui n’est pas figé. Prenons le risque de partager ici une proposition … à critiquer 🙂 Disons, pour en discuter, que c’est à la fois un état d’esprit et un ensemble de compétences (résumées dans les carrés bleus) :

     

    « Est ce que ça te parle ? »

    « Oui, mais doit-on utiliser l’esprit critique pour tout du matin au soir ?  »

    « Non ! Tu as totalement raison.»

    LES LIMITES DE L’ESPRIT CRITIQUE.

    L’esprit critique n’a certes pas lieu de s’exercer tout le temps. Dans le métro parisien, quelle surprise, voilà un tigre qui arrive :

    « C’est une espèce (elle-même divisée en neuf sous-espèces) de mammifère carnivore de la famille des félidés (Felidae) du genre … »

    « Stop ! Ou plutôt : sauve qui peut !! Ce n’est sûrement pas le moment d’exercer son esprit critique mais de … courir. »

    « Que dis tu ? Que la probabilité qu’il y ait vraiment un tigre station « Edgard Quinet » est inférieure à celle de … »

    « Euh, ça te dérange-pas là qu’on te laisse seul·e confronter ton hypothèse aux faits ? »

    Il est clair que ce n’est pas en déployant son esprit critique qu’on a le plus de chance de survivre ici. C’est logique : si je fuis mais que ce n’était pas un vrai tigre, je suis certes un peu ridicule, mais … vivant ! Tandis que sinon …

    D’ailleurs, ce que nous comprenons du cerveau montre que ce n’est pas en développant notre esprit critique que notre frêle espèce a survécu, mais plutôt en acquérant des comportements relativement prédéfinis et « opérants » c’est à dire permettant de déclencher une action adaptée à la plupart des situations critiques qui peuvent arriver, et en généralisant à d’autres cas, ce qui a été appris sur des cas particuliers. Cela ne marche pas toujours, et ce n’est pas très scientifique, mais cela a servi à notre espèce humaine d’être encore en vie.

    Et puis, lorsque tu es venu·e me dire que tu m’aimes de tout ton être, et que j’étais la personne de ta vie, tu n’attendais pas en réponse que je te dise : « Oh, voici une hypothèse fort intéressante, analysons ensemble les causes socio-culturelles de ce ressenti psycho-somatique pour en faire conjointement l’étude critique 🙂 ».

    Bien entendu, en science, l’esprit critique doit prévaloir. Vraiment tout le temps ? Dois-je remettre en cause chaque résultat (par exemple refaire toutes les démonstrations mathématiques pour me forger ma propre certitude), douter de tous les résultats scientifiques puisque Albert Einstein lui-même a commis la « plus grosse » erreur de toute la physique ? Ce ne serait pas très efficace, et le travail collectif de la communauté scientifique repose sur la confiance. Le point clés est de prendre le risque de travailler avec des modèles réfutables.

    Cette idée peut paraître surprenante : une hypothèse est scientifique si, sans être (encore) réfutée, on peut concevoir une expérience capable de la réfuter. Ainsi, le fait qu’il y ait des petits elfes magiques invisibles, disons rose fluo, pqui ar exemple, habitent dans la forêt de Brocéliande, n’est pas scientifique, non pas parce que c’est faux (qui peut prouver que non : ils sont totalement invisibles !), mais non réfutable. De plus, qui peut s’arroger le droit de m’empêcher de rêve ?

    « Ah ben ça alors !!! Te voilà bien critique sur l’esprit critique que tu veux partager »

    « Formidable, j’ai réussi quelque chose : regarde »

     

    Comment partager l’esprit critique ?

    Oui regarde : je n’ai pas cherché à te convaincre en argumentant de l’intérêt de l’esprit critique, mais j’ai cherché avec sincérité à réfléchir avec toi sur ce sujet, en prenant le risque de remettre en cause mon propre point de vue.

    Te voilà devenu curieux sur ce sujet : c’est l’essentiel. Osons le pluralisme. Discernons ce que nous savons avec une certaine certitude, de ce qui est une interprétation, ou une simple préférence. Soyons curieux de la manière dont se forment les connaissances : débattre de savoir si il y a vraiment des êtres magiques dans la forêt de Brocéliande serait vain, se demander pourquoi j’en suis arrivé à me l’imaginer et à y croire, me serait bien plus utile.

    Et si je faisais partie d’une secte délétère, plutôt que de me jeter à la figure, je ne sais quelle argumentation critique qui ne ferait que me braquer dans la justification à outrance de ma posture, tu m’aiderais bien plus en m’acceptant avec ce besoin d’appartenance à un tel groupe, fut-il toxique, et en me proposant d’expliquer la démarche qui m’a conduit à cette extrême, m’offrant alors la chance de prendre du recul.

    Ainsi, si on présente l’esprit critique comme allant de pair avec une idéologie « républicaine », non religieuse, forcément objective (voir même positiviste), excluant toute superstition, quoi de pire pour exclure d’emblée un·e croyant·e, ou qui s’est construit sa vision du monde à partir de savoirs traditionnels ? Une personne croyante peut très bien adopter une démarche d’esprit critique, y compris vis à vis de sa croyance, dans le but non pas de l’atténuer ou de la remettre en question mais de l’éclairer, voire de la faire évoluer …

    « Ah ouais : en fait tu dis qu’il vaut mieux manipuler son interlocuteur …
    … qu’argumenter objectivement, il est joli ton esprit critique !!! »

    « Excellente critique, pleine d’esprit ! »

    Ta remarque est doublement pertinente : transparence oblige et émotion inflige. Oui, ce qui va convaincre un humain est bien plus souvent du domaine de l’émotion, du sensible, que de la raison. Combien de fois constate-t-on que c’est par son enthousiasme, voir en montrant aussi ses propres limites, qu’un·e scientifique va partager sa passion et la démarche scientifique avec cette nécessité de prendre du recul sur les choses, d’apprendre à évaluer, à s’informer, à questionner, y compris dans notre quotidien. Il n’y a pas de mal à faire appel à tes émotions, c’est même assez sympa, mais il y a un immense « mais ».

    Le « mais » est de le faire de manière transparente, de prendre le temps de se retourner sur sa démarche elle-même, de dire regarde « j’ai fait appel à tes émotions » et je te le dis pour ne jamais te tromper en aucune façon. Il faut partager les contenus, avec la démarche de partage de ces contenus : on parle de médiation scientifique participative.

    « C’est curieux tu ne m’as pas fait changer d’avis, mais m’a permis de voir les choses autrement, en plus grand …
    «mais je ne vois toujours pas l’utilité ! »

    À quoi bon développer son esprit critique ?

    C’est la question la plus importante, mais aussi la plus facile à résumer. Pourquoi développer son esprit critique ? Pour ne pas se laisser abuser par les fausses nouvelles qui peuvent circuler, oui par certains médias qui -pour survivre commercialement- ont besoin de nous alpaguer par du sensationnel ou sur-communiquer sur des fpas être en phase avec la phrase « Si on présente l’esprit critique … non religieuse…aits divers, pendant que des informations de fond moins vendeuses sont masquées ; pour offrir une alternative à cette société qui semble ne nous offrir qu’être pour ou contre et non penser de manière nouvelle ou alternative, quel que soit le sujet ; pour que moi ou toi nous restions vraiment libres de choisir selon nos aspirations profondes et pas sous l’influence de qui parle beau à défaut de parler vrai ; pour faire des choix éclairés dans notre vie de tous les jours et aussi pour le plaisir : car il y a grand plaisir intellectuel, tu sais, à « faire un usage libre et public de sa raison » comme disait Emmanuel (on parle ici de Emmanuel Kant :) ). Voilà pour quoi il faut de manière critique développer son esprit critique.

    « T’as rien à ajouter ? »
    « Si : moi aussi je t’aime de tout mon être (imaginaire), c’est toi mon petit elfe rose fluo magique »

    Texte de synthèse des propos de Camille VolovitchChristophe MichelElena Pasquinelli et Nicolas Gauvrit lors de la table ronde sur l’esprit critique proposé lors du séminaire de médiation scientifique Inria, de 2018, édités par Sylvie Boldo et Thierry Viéville, repris de https://pixees.fr/critique-de-lesprit-critique.

    Pour aller plus loin :

    Former l’esprit critique des élèves


    Esprit scientifique, esprit critique


    Jouer à débattre


    Raison et psychologie


    Esprit critique


    Isoloir : la citoyenneté numérique, c’est possible ?

  • Hommage à Marion Créhange

    Marion CREHANGE fut une pionnière de l’informatique en France qui reste encore trop méconnue. C’est par exemple, elle qui obtint la première thèse en informatique dans notre pays en 1961 . Elle avait écrit un très bel article chez nos amis d’Interstices où elle faisait une analogie entre son métier d’enseignante-chercheure et une randonnée en montagne. Un an après sa disparition, nous donnons la parole à quatre de ses anciens doctorants qui abordent différentes facettes de sa personnalité.  Pascal Guitton 
    Le 28 mars 2022, Marion Créhange nous a quittés. Professeure en informatique à l’université de Nancy 2 (intégrée depuis à l’université de Lorraine), Marion a encouragé de nombreux étudiants et surtout étudiantes, en leur suggérant de poursuivre leur cursus d’informatique en thèse. Au sein de la petite équipe Exprim (EXPert pour la Recherche d’IMages) qu’elle dirigeait au Centre de recherche en informatique de Nancy (Crin, auquel a succédé le Loria), elle faisait régner une ambiance chaleureuse. Elle réunissait aussi régulièrement ses doctorant‧es et les chercheur‧es de l’équipe pour des moments de convivialité à l’extérieur. Quatre d’entre eux, devenus enseignant-chercheurs, lui rendent hommage. 
    Marion Créhange – Image extraite de l’hommage que lui a rendu le site Factuel (https://factuel.univ-lorraine.fr/node/20019)

    La science comme dialogue ouvert – Brigitte Simonnot

    Difficile de résumer en quelques mots la personnalité chaleureuse et optimiste de Marion. Quels traits la caractérisaient ? Tout d’abord peut-être la simplicité. Marion savait instaurer une relation simple et bienveillante avec ses doctorant‧es au quotidien. Les déplacements à des conférences nationales ou internationales que nous avons partagés étaient l’occasion de découvrir d’autres pans de sa large culture. 
    • Une sincérité à toute épreuve et un esprit d’ouverture aux sciences y compris humaines et sociales
    Sincère, Marion Créhange l’était en toutes circonstances, elle était toujours de bonne foi, même lorsqu’il fallait chercher des solutions aux problèmes rencontrés. Elle montrait un esprit d’ouverture dans de nombreux domaines, à commencer par son intérêt pour d’autres disciplines scientifiques. Ainsi a-t-elle encouragé en plusieurs occasions les collaborations avec les sciences humaines et sociales. Par exemple, en sciences de l’information et de la communication, la chercheuse dijonnaise Muriel Cluzeau-Ciry a fait bénéficier l’équipe Exprim de son enquête auprès des usagers d’une banque d’images, et la typologie des usages qu’elle a élaborée a nourri les réflexions de plusieur‧es  chercheur‧es de l’équipe Exprim. Cette typologie d’usages était en effet bien adaptée pour moduler la recherche d’image et le processus de bouclage ou rétroaction de pertinence qui en caractérisait l’algorithme. Une autre collaboration avec les sciences de l’information et de la communication a été initiée au milieu des années 1990, lorsque la chercheuse et photographe Louise Merzeau (1), intéressée par les travaux de l’équipe, est venue nous rendre une visite studieuse. 
    • Une ouverture aux idées des autres
    Ouverte aux idées de ses doctorant‧es, Marion leur laissait une grande liberté pour orienter leurs travaux de recherche. Lorsque j’ai étendu mes investigations sur la recherche d’information non seulement dans des banques d’image (à l’époque sur vidéodisque) mais aussi dans des vidéos, alors que les formats numériques n’en étaient pas encore stabilisés, elle m’a laissé carte blanche. Pourtant, obtenir quelques minutes de vidéo pour construire un prototype était un challenge, tant le coût en était prohibitif à l’époque. L’inathèque n’existait pas encore — elle n’a vu le jour qu’en 1995 — et nous étions seulement quelques chercheurs à pouvoir aller consulter les archives de la télévision publique sur bandes magnétiques. Curieuse aussi, Marion dialoguait avec nous en nous posant de nombreuses questions de recherche dont des questions ouvertes dont elle n’avait pas la réponse. Je crois que c’est elle qui m’a fait adopter la définition de la connaissance comme questionnement approfondi.
    Nous n’oublierons pas sa personnalité originale et ses qualités humaines, qui se manifestaient aussi bien dans les activités de recherche que dans la vie quotidienne. Marion a semé chez plusieurs d’entre nous les graines de la curiosité scientifique, des graines que nous avons essayé de cultiver. Les développer et les partager, c’est probablement la meilleure forme d’hommage que nous pouvons rendre à sa mémoire. 

    Quelques facettes de sa personnalité – Gilles Halin

    Suite à un DEA peu prometteur, j’étais décidé à quitter l’univers de la recherche et à poursuivre ma carrière dans le monde professionnel. Une rencontre avec Marion Créhange m’a redonné le goût et l’envie de reprendre cette voie académique. Mon parcours de doctorant sous la tutelle de Marion, m’a fait découvrir une partie des facettes de sa personnalité que j’aimerais restituer ici en hommage à  sa mémoire.
    SIGIR ’90: Proceedings of the 13th annual international ACM SIGIR conference on Research and development in information retrieval, December 1989, Pages 99–114, https://doi.org/10.1145/96749.98011
    • Une présence remarquable 
    D’une démarche engagée, Marion Créhange, présentait avec passion un sujet de thèse qu’elle avait obtenu en mettant en place un projet européen. Elle déposait sur un rétro-projecteur des transparents de couleur sur lesquels elle écrivait pour préciser ou expliquer certaines notions. Elle parlait d’images, de systèmes experts, d’indexation, de connotation, d’imageur documentaire, de projet européen, de la SEP (Société Européenne de Propulsion) et d’un contrat Cifre. Séduit à la fois par les thèmes évoqués, le financement, mais aussi son enthousiasme, j’avais trouvé mon sujet de thèse. 
    • Une guide expérientielle  
    Ensuite, de nombreuses et souvent premières expériences à la fois scientifiques, sociales et amicales se sont enchainées. Parmi les plus mémorables, j’évoquerai ma première traversée de l’Atlantique pour Boston où j’ai participé en compagnie de Marion à ma première conférence internationale et présenté mon premier article en anglais dans un amphi du MIT. Marion m’a fait ensuite découvrir le clam chowder (le plat officiel de la ville de Boston), Havard et la ville de Boston. Elle aimait aussi provoquer les rencontres et les faire partager. Ainsi alors que j’étudiais les modèles utilisés en recherche d’information, Marion nous a installé à la table du professeur G. Salton « le père de la recherche d’information » lors d’un repas de gala d’une conférence. Travailler avec Marion c’était également partager des moments de détente comme marcher autour de Gérardmer, ou jouer une partie de tennis dans son club sur les hauts de Nancy. 
    • Une directrice ouverte d’esprit
    Marion était une directrice singulière, directrice d’une équipe dont le nom « EXPRIM » était aussi celui du projet porteur de l’équipe, directrice d’une équipe où la parité homme femme basculait plutôt du coté féminin, directrice d’une équipe où la convivialité et l’esprit familial étaient les mots d’ordre. Elle fut aussi une directrice de thèse disponible et soucieuse du confort matériel de ses doctorants. D’une curiosité intarissable, elle était toujours enthousiaste à suivre ses doctorants dans l’exploration de chemins scientifiques parfois mal connus voire inconnus.
        
        Même si l’au-delà est méconnu, Marion y trouvera certainement des nouveaux chemins à parcourir.
            

     La recherche comme un chemin de confiance à traverser ensemble – Jean-Charles Lamirel

    Marion Créhange m’a, dès le départ de nos échanges, ouvert grand les portes de son enthousiasme et de sa curiosité scientifique en me donnant carte blanche pour mon projet de thèse. C’était loin d’être une sinécure, car avec le recul, je pense encore aujourd’hui que le projet que je proposais, basé sur l’exploitation de méthodes neuronales multiples pour la recherche d’information était ambitieux, complexe et qu’il semblait me dépasser un peu moi-même. Sans aucun doute, Marion en était-elle consciente, mais qu’importe, car pour elle démarrer une relation de collaboration scientifique consistait avant toute chose à démarrer une relation de confiance.
    CIKM ’94: Proceedings of the third international conference on Information and knowledge management, November 1994, Pages 155–163, https://doi.org/10.1145/191246.191272
    • Sans cesse secouer « systémiquement » les idées
    Cette confiance que Marion m’a toujours maintenue, mélangée à son ouverture d’esprit hors-norme, son attention de tous les instants à rendre les choses les plus faciles possible, sa capacité innée à faire interagir et fructifier les idées de différents domaines, comme l’informatique et les sciences de l’information, pour enrichir systématiquement, ou plutôt systémiquement, comme elle aimait si bien dire, toute construction de pensée auront clairement été les ciments fertiles qui m’ont permis de consolider mon travail de thèse et de le faire aboutir. 
    • Regarder toujours plus loin et dans la bienveillance
    Je sais que je ne serai jamais assez redevable à Marion pour cela, car sans elle, jamais je n’aurais pu penser qu’il soit possible que la recherche puisse combiner de manière aussi harmonieuse l’intuition, la curiosité permanente, la tolérance à toutes les idées, comme mélangées dans un creuset, et, les qualités humaines. Marion m’a donc donné à elle seule, par la force de ce qu’elle était, une nouvelle vision de mon travail de chercheur. Une vision merveilleuse que je sais aujourd’hui que j’attendais tant.
    • Laisser librement s’épanouir et s’organiser la pensée
    Son état d’esprit lumineux mélangé à la beauté pure de sa vision de la recherche, riche de chemins multiples mais toujours convergents, font encore grandement avancer mon travail aujourd’hui. C’est ainsi que je sens que Marion nous accompagne toujours. Nos chemins de randonnée scientifique  ne sont finalement autres que ceux qu’elle nous a la première montrés.

    Une rencontre déterminante – Malika Smaïl

    Comment résumer une rencontre déterminante et une amitié de plusieurs décennies en quelques signes ? Difficile mais pas impossible, aurait dit Marion… Quand je suis arrivée en France, quittant ma famille et mon pays pour la première fois,  Marion m’a accueillie dans son équipe et dans sa famille avec une grande bienveillance. Je lui dois beaucoup et ma tristesse suite à sa disparition se mêle au sentiment d’avoir eu la chance de la connaître et de la côtoyer. 
    RIAO ’94: Intelligent Multimedia Information Retrieval Systems and Management – Volume 1, October 1994, Pages 172–184
    • Une directrice de thèse à l’écoute 
    Elle a su m’accompagner dans mon entrée  dans le monde de la recherche, à gérer l’incertitude inhérente à l’exercice et m’a toujours témoigné une totale confiance.  Marion avait une écoute et une qualité de relation rares, qualités qu’elle souhaitait transposer dans le système de recherche d’images EXPRIM (EXPert en Recherche d’IMages) : le relevance feedback comme moyen d’alimenter le système mais aussi de fertiliser l’imagination de l’utilisateur.  Marion foisonnait de projets dont beaucoup consistaient à envoyer la lumière sur les autres. L’histoire de sa randonnée informatique en est une bonne illustration. Quelle bonne idée tu as eu Maxime (Amblard), de lui avoir fait raconter son beau parours fait de belles rencontres souvent fortuites mais toujours mémorables !
    • Un esprit libre et sans frontières 
    Pour Marion, la science n’a pas de frontières et l’interdisciplinarité lui semblait aller de soi, elle qui a commencé par des études de physique puis de mathématiques pour finir avec la recherche d’information. Tout au long de son activité et même après la retraite,  sa curiosité scientifique n’avait d’égal que son humilité devant tout ce qui lui restait à découvrir…  Le souvenir de Marion et de son halo de sincère bienveillance sera toujours dans nos cœurs.
    Gilles HALIN (Maître de conférences, École Nationale Supérieure d’Architecture de Nancy), Jean-Charles LAMIREL (Maître de conférences, Université de Strasbourg), Brigitte SIMONNOT (Professeure émérite, Université de Lorraine), Malika SMAÏL (Maîtresse de conférences, Université de Lorraine)
    (1) Louise Merzeau nous a quittés en 2017 mais son blog a été préservé : https://merzeau.net/
  • Les données au service des ressources humaines

    Les nouvelles technologies participent au changement profond du monde. Ce domaine s’impacte aussi bien lui-même que les métiers auxquels il est associé. Comment la gestion des ressources humaines, centrée sur l’humain, mesure cet impact sur son métier et s’y adapte ? Merci à Valérie Genoud, DRH à l’Agence Régionale de Santé (ARS) Auvergne Rhône Alpes, de nous partager sa vision et son retour d’expérience à ce sujet. Ikram Chraibi Kaadoud, Charlotte Truchet et Thierry Vieville

    La gestion des ressources humaines (GRH) correspond à l’ensemble des pratiques déployées pour développer, gérer et administrer le capital humain impliqué dans l’activité d’une structure, entreprise, organisation ou institution.  Les fonctions traditionnelles de la GRH sont la gestion de la paie, le recrutement, l’accompagnement à la formation, la gestion des temps, des contrats de travail.

    Outre ces fonctions, la direction des ressources humaines (DRH) a pour mission de s’assurer en permanence du bon ajustement des ressources humaines aux besoins des organisations. La DRH pilote les politiques RH au service de la stratégie de l’entreprise : l’accompagnement au changement des évolutions des organisations et des technologies, la politique de qualité de vie au travail, de santé sécurité au travail, d’égalité des chances et d’inclusion, la politique de recrutement, etc.

    La DRH a ainsi pour but de développer une offre de service auprès de ses clients internes qui sont les salariés, les managers et la direction générale (autres parties prenantes), tout en prenant en compte les caractéristiques de l’organisation: contexte économique, technologique et sociétal.

    Le double défi du numérique dans la gestion des ressources humaines

    Les derniers bouleversements du monde numérique, notamment l’intelligence artificielle et la science des données ou data science, place la gestion des ressources humaines (RH) face à un double défi :

    1. La nécessité impérative de veiller à la bonne adaptation des moyens techniques aux besoins des ressources humaines :  ce qui demande anticipation et prévoyance dans les recrutements et les formations ; comment accompagner les transformations de nos organisations ?
    2. L’obligation de revisiter les fonctions RH à l’aune des nouvelles technologies disponibles qui ouvrent des perspectives de transformation des métiers ; comment travailler autrement pour mener à bien les missions ?

    Ce double mouvement doit conduire les directions RH à faire évoluer les méthodes et les manières de travailler. Cela est notamment dû au fait que l’univers de la data améliore les capacités analytique et prédictive des services, permettant ainsi de développer les offres de service, la qualité de celui-ci, et le partage de l’information avec les parties prenantes (organisations syndicales, managers, etc.).

    Cela ne signifie nullement une robotisation de la fonction même de RH, au contraire.  L’accessibilité et la fiabilité des informations et des données, ainsi que la mise à disposition d’outils IA, doivent permettre au personnel RH de rester centré sur l’écoute, l’accompagnement, et les urgences. Autrement dit, pouvoir mieux se concentrer sur la relation aux collaborateurs.

    Cette transformation des organisations nécessite toutefois que les équipes RH et leur direction développent d’autres compétences que celles à l’œuvre aujourd’hui, et soient en mesure de se saisir des enjeux liés la data.

    En effet, insuffler une nouvelle culture fondée sur les données, centrée sur les parties prenantes qui demande agilité et vision globale des besoins RH, nécessite un accompagnement global des organisations évitant les points de ruptures et les clivages.

     Autrement dit, il est important d’accompagner la transformation des RH pour accompagner celles des organisations.

    Commencer petit, voir loin ou comment insuffler une nouvelle data culture 

    « Offrir des perspectives plutôt que des contraintes »

    L’agence régionale de santé  Auvergne Rhône Alpes a eu l’opportunité dans le cadre d’un appel à projet interministériel « Entrepreneur d’Intérêt Général » (un programme d’Etalab – Direction Interministérielle du numérique) de pouvoir accélérer l’intégration de la data dans l’univers RH avec l’arrivée de compétences ciblées comme des data stewards[1], UX/UI designers, data analyste.   

    Le projet a trouvé sa source dans l’exigence réglementaire de mise en œuvre d’une base de données sociales (201 indicateurs RH à fournir et visualiser), un rapport social unique à définir en lieu et place du traditionnel bilan social et des autres rapports obligatoires tels que par exemple la sécurité et santé au travail, l’index égalité homme femme, etc. La Direction des Ressources Humaines (DRH) et la Direction des Systèmes Informatiques (DSI) ont jeté les bases d’une acculturation très concrète de l’ARS ARA au monde de la data. Au-delà de jeux et de challenges indispensables pour toucher le plus grand nombre, les équipes RH et les parties prenantes (directeurs, représentants syndicaux, managers, gestionnaires RH) ont pu s’approprier de nouvelles méthodes de travail et d’animation comme la méthode itérative[2], des ateliers d’idéation[3], la ritualisation inspirée des méthodes agiles. Le but est d’étendre l’utilisation de ces méthodes à l’ensemble des projets RH (pas forcément informatique) et de faire évoluer les modes de coopération et de collaboration.

    Il s’agissait avant tout de sortir des processus analytiques : phase de diagnostic et expression de besoin, présentation des scénarii, choix et spécification fonctionnelles (et techniques) pour enfin pouvoir démarrer la mise en œuvre. A savoir donc :

    • Mettre en place des équipes pluridisciplinaires, et intégrer le « client final » dès le début du projet dans des ateliers.  Par exemple, dans les ateliers UX/UI, « Le persona » est un outil qui permet à l’équipe projet de se référer à des personnages fictifs qui représentent des profils types des différents utilisateurs finaux et qui est élaborés à partir d’enquêtes d’interview des différentes parties prenantes.
    • Expérimenter pour partager et progresser ensemble : un premier niveau d’expérimentation ou de prototype est essentiel, il est permis de donner à voir du concret, de définir les marges de progressions (boucle idéation – prototypage – test)
    • Accepter de faire de erreurs pour progresser au plus vite vers une solution rapide mieux adaptée aux attentes

    Chaque pas est une avancée vers la résolution de cas d’usage. Des solutions répondant à des besoins opérationnels sont dégagées au fur et à mesure, acceptées plus rapidement par toutes les parties prenantes.

    Ces modes de travail garantissent l’implication de chacune des parties dans le partage d’une vision, et au-delà l’écoute de leurs besoins et de leurs inquiétudes. L’ensemble de la démarche a favorisé une adhésion plus rapide au projet, la confiance dans ces nouvelles technologies, la promotion du développement et de la croissance des collaborateurs.

    La promesse d’une gestion des ressources humaine réinventée

    « Les transformations des métiers RH engagent le collectif et l’accompagne» 

    L’utilisation de nouvelles technologies va permettre d’automatiser les tâches les plus répétitives pour permettre aux collaborateurs RH de concentrer leurs activités à répondre aux besoins des utilisateurs, et à devenir plus proactifs en proposant des offres de service aux collaborateurs-usagers. Par exemple grâce aux algorithmes IA, proposer aux salariés des parcours de formation adaptés, et une mobilité interne plus individualisés: proposer aux directeurs des recrutements plus adaptés, une recherche de talent plus ciblée, …

    L’utilisation de telles technologies doit permettre aux DRH et ses services de répondre aux exigences des collaborateurs-usagers d’accéder de plus en plus à des services fiables et rapides.

    L’amélioration de la capacité à anticiper, prévoir et donc à conseiller les directeurs dans leurs prises de décisions assurent ainsi à la fonction de gestion des ressources humaines une dimension plus stratégique.

    La Gestion RH se réinvente!

    Le partage de données et des compétences ainsi que les interactions transversales au sein des directions viennent questionner le rôle de chacun et bousculer les visions hiérarchiques.

    Les outils RH (fiche de poste, d’évaluation, etc.), les leviers de motivation (autonomie, développement des compétences, etc.) doivent être adaptés pour mieux définir les rôles et les attributions de chacun dans la transformation des organisations vers plus de transversalité.

    Les services RH doivent se former aux nouvelles méthodes de travail à fois techniques et d’intelligence sociale (aptitude à travailler à équipe) et collective (capacité d’innovation idéation) pour accompagner le changement.

    Le dialogue social peut être rénové par l’accès direct des organisations syndicales à l’information, et aux données rendues opposables par la sécurisation autour la gouvernance de la donnée[4]

    Cette transformation contribuerait ainsi à étayer un rapport de confiance dans des travaux d’échanges autour des indicateurs sociaux et des leviers d’amélioration à mettre en œuvre.

    On comprendra donc que l’enjeux majeur est d’engager l’ensemble du collectif à travailler à la qualité de la donnée tout autant que de la rendre disponible, ce qui est un défi au quotidien.

     Valérie Genoud, DRH à l’ARS Auvergne Rhône Alpes

    Directrice déléguée aux ressources humaines au sein de l’Agence régionale de la santé d’Auvergne-Rhone-Alpes depuis plus de 7 ans, Valérie Genoud a une expérience forte de pilotage et de management de la direction des ressources humaines et de pilotage de projets d’innovation et de digitalisation. Elle nous partage son avis sur les challenges et les défis du métier de DRH et de GRH à l’ère de la transformation digitale par la Data Science et l’IA.

    [1] Expert qui coordonne la collecte de la donnée, organise son stockage, son utilisation et sa gestion.

    [2] Itération : fait appel à des prototypes et permet de repérer les difficultés de façon précoce, cela repose sur l’idée que les tentatives infructueuses font partie du processus de réussite

    [3] Atelier idéation : méthode qui appartient au design thinking : approche de l’innovation centrée sur l’utilisateur ( ou l’humain) dans une vision de service rendu

    [4] La gouvernance des données se compose des normes et des principes régissant les divers types de données de l’entreprise.

     

     

  • Booster la médiation scientifique avec les réseaux sociaux

    Les jeunes, les moins jeunes souvent aussi, passent un temps considérable sur Internet et de plus en plus sur les réseaux sociaux : et si nous allions à leur rencontre dans ces lieux numériques pour partager avec elles et eux des éléments de culture scientifique et technique, afin de les aider, entre autres, à les comprendre ? Serge Abiteboul nous propose ici de  regarder en détail les bénéfices et limites d’une telle démarche. Thierry Viéville.
    Cet article est paru originellement dans L’ACTUALITÉ CHIMIQUE N° 482, mars 2023.

    Les jeunes, les moins jeunes souvent aussi, passent un temps considérable sur Internet et de plus en plus sur les réseaux sociaux, notamment Instagram, Facebook et TikTok. Ils y vont pour rester en contact avec leurs amis, mais aussi s’amuser, rencontrer d’autres personnes. Ils s’y informent aussi. Cela peut paraitre bizarre aux séniors qui consultent les journaux papiers et télévisés, mais on peut aussi suivre les évènements en Ukraine sur les réseaux sociaux. Pour de nombreux jeunes, les réseaux sociaux sont d’ailleurs devenus la principale source d’information.

    Les médias traditionnels répètent à l’envi les problèmes qu’on y rencontre : fakenews, harcèlement, messages de haines, etc. On peut facilement prendre la mesure de ces problèmes. Par exemple, une enquête de l’Ifop auprès des jeunes Français entre 11 et 24 ans pour les Fondations Reboot et Jean-Jaurès a montré qu’ils étaient nombreux à céder aux sirènes du complotisme, voire à s’assoir sur les bases scientifiques que l’école a essayé de leur inculquer. Ils sont un sur six à penser que la Terre est peut-être plate ! On a pourtant dû leur apprendre le contraire à l’école.

    Vous pouvez toujours expliquer aux critiques du numérique que les problèmes de fakenews et les autres n’ont pas été inventés par le numérique et les réseaux sociaux, qu’ils existaient avant. Cela ne sert pas à grand-chose. Ils sont convaincus que la faute ne peut venir que de la technologie, et que bien sûr, c’était mieux avant. Cela ne sert pas à grand-chose non plus d’argumenter que le numérique permet une diffusion fantastique des connaissances, que grâce à Wikipédia, « posséder » une grande encyclopédie ne concerne plus seulement les quelques pourcents les plus riches de la population, qu’avec les « Massive Open Online Courses » (les MOOC), les meilleurs enseignements s’ouvrent à tous, que les réseaux sociaux ont donné la parole à des gens qui n’en rêvaient même pas.

    Cela ne sert pas à grand-chose parce qu’ils ne comprennent pas la technologie sous-jacente, l’informatique ; et comme ils ne la comprennent pas, ils en ont peur, peur de l’algorithme, peur de l’intelligence artificielle évidemment. Au secours ! Si cette nouvelle technologie transforme nos vies, nous pouvons décider ce que nous voulons en faire. Il est urgent que toute la société se familiarise avec l’informatique. Nous vivons une phase d’innovation massive, la période western du numérique. Mais je veux croire qu’avec le temps, nous pourrons bénéficier de tous les superbes apports du numérique sans avoir à en supporter les pires travers.

    Pour ce qui est des réseaux sociaux, ce serait dommage de s’en priver. Évidemment, on peut les réguler pour qu’ils ne fassent pas n’importe quoi. Deux textes de l’Union européenne, le Digital Services Act et le Digital Market Act, vont dans ce sens. Ces législations sur les services numériques fixent un ensemble de règles, qui devraient notamment permettre d’atténuer certains risques systémiques, comme la manipulation de l’information ou la désinformation. Mais attention ! Réguler ne veut pas dire aseptiser, vider de leur richesse.

    Mais revenons à nos jeunes. S’ils participent au problème en produisant des messages pourris et en propageant ces messages, on ne peut pas les rendre responsables de tous les maux du numérique. Ils sont ce que la société a fait d’eux. Il est indispensable de leur faire prendre conscience de leurs actes, de leur apprendre à développer leur esprit critique. L’esprit critique a été important de tout temps, mais devant l’explosion de la masse des contenus disponibles, il est devenu crucial. Les jeunes (comme les autres) sont exposés à un véritable tsunami informationnel. Pour ne pas gober des informations poubelles, ils doivent apprendre à choisir les contenus qu’ils consultent, apprendre à évaluer la qualité d’une source, apprendre d’abord à douter. Un rôle fondamental de l’éducation au XXI e siècle est de transmettre cette prise de distance avec l’information. C’est une vraie responsabilité de notre système éducatif qu’il assume, mais encore insuffisamment.

    La tâche n’est pas simple. On a une tendance naturelle à préférer souvent le confort, à se laisser confiner dans ses certitudes, et surtout à avoir confiance dans la masse. Si un influenceur avec un million de followers affirme que le vaccin contre le Covid n’a aucun autre intérêt que d’enrichir une entreprise pharmaceutique, il doit avoir raison puisqu’il a un million de followers. Est-ce que nous en sommes là ? Selon l’enquête de l’Ifop : «Plus de 40 % des utilisateurs de TikTok ont confiance dans le contenu des influenceurs s’ils ont beaucoup d’abonnés ». Scoop : les plus grands influenceurs racontent parfois n’importe quoi ! Ils le font parfois par intérêt, parce qu’ils sont rémunérés pour, peut-être parce que cela va générer un maximum de réactions, mais souvent aussi parce que ce ne sont pas forcément leurs compétences qui les ont amenés à devenir influenceurs.

    Donc comment améliorer la situation ? Les scientifiques doivent œuvrer pour que les réseaux sociaux laissent plus de place aux faits scientifiques prouvés. Ils doivent booster la médiation scientifique sur les réseaux sociaux. 

    Ibrahim.ID, CC BY-SA 4.0, Wikimedia Commons

    Quand on cherche une information sur les réseaux sociaux, on tombe souvent sur des contenus qui n’ont scientifiquement aucun sens, par exemple, que l’ail ou le jeûne soignent le cancer. Les personnes qui les propagent sont généralement bien organisées pour saturer les espaces numériques. Elles noient les contenus « sérieux » dans un bruit ambiant asphyxiant. Quand on recherche une information, on aimerait tomber naturellement sur de l’information de qualité, sur l’opinion d’experts vraiment compétents. Mais le monde numérique est essentiellement niveleur ; on ne vous écoute pas parce que vous êtes journaliste au Monde, chercheur au CNRS ou à l’Académie des sciences, que vous avez publié un article dans Nature, ou que vous avez eu le prix Milner. Cela va demander des efforts pour corriger cela.

    Les scientifiques sont légitimes pour expliquer le monde. Ils ont le devoir de le faire. Il ne faut pas minimiser la difficulté pour eux. Ils sont habitués à parler à leurs pairs, dans des langages techniques, précis. Il leur faut s’adapter à des publics qui n’ont peut-être pas les bases scientifiques nécessaires. Il leur faut privilégier les explications intuitives, quitte à prendre quelques libertés avec la vérité.

    L’objectif est clair : cela doit être plus simple d’atteindre des informations correctes que les poubelles informationnelles dont on veut éloigner les utilisateurs des réseaux. Mais, c’est tout sauf facile. Sur Twitter, par exemple, les climatosceptiques sont très nombreux et poussent énergiquement leurs messages. Le plus souvent, ils ne sont pas climatologues et sont également antivaccin, pro-Russe pour ce qui est du conflit ukrainien, et proches de l’extrême droite. Certains sont très populaires, plus parfois même que les climatologues patentés, même les plus médiatiques. Et les jeunes qui veulent s’informer sur le sujet sont confrontés à un bruit énorme.

    C’est bien toute la médiation scientifique qu’il faut reconstruire pour fixer le problème. Cela doit être gratuit parce que les jeunes (et pas qu’eux) ont pris l’habitude de l’information gratuite sur Internet. Cela doit être un travail collectif et volontaire qui implique toutes les institutions scientifiques, universités, centres de recherche, Académie des sciences, établissements de culture scientifique comme la Cité des sciences et de l’industrie, les sociétés savantes, les associations de science participative, tous les citoyens qui aiment les sciences, etc. C’est en jouant collectivement que l’on peut couvrir le bruit des marchands d’infox. Les médias doivent être impliqués, les réseaux sociaux, les journaux comme les chaines de télévision. Est-il acceptable qu’il y ait si peu de programmes scientifiques, même sur les chaines publiques ?

    Quand on cherche une information, les explications de qualité, compréhensives par tous, attirantes pour tous, doivent se retrouver en tête de gondole. Les scientifiques doivent être en première ligne pour réinventer cette facette de la médiation scientifique.

    Serge Abiteboul, Inria et Arcep

  • Communiqué de la SIF sur ChatGTP et les modèles génératifs

    Curiosité, questionnement et inquiétudes parfois extrêmes du public, telles ont été les réactions à ChatGPT depuis sa mise en accès.  La société informatique de France, SIF a pris position le 6 mars 2023 à travers un communiqué que nous relayons ici,  après une brève présentation de cette structure. L’équipe Binaire

    Société informatique de France, alias SIF

    La SIF rassemble toutes celles et ceux qui font progresser l’informatique – au sens large des sciences et technologies au cœur du numérique — que ce soit par le biais de leur métier, ou de leur passion.
    Il s’agit d’un espace de réflexion, de concertation sur les enjeux de l’informatique et surtout un espace d’action, d’amplification des initiatives issues des travaux de la communauté.
    Les missions de la SIF sont nombreuses et pilotées par son conseil d’administration, son conseil scientifique et divers groupes de travail. Elle vise en effet à :

    * promouvoir l’informatique et animer sa communauté

    * élaborer et partager largement des préconisations sur des questions relatives aux enjeux scientifiques, à l’impact économique et sociétal en s’appuyant notamment sur les réflexions du conseil scientifique

    * dialoguer et créer des partenariats nationaux, européens, et internationaux

    * participer aux réflexions et aux initiatives sur la formation et l’emploi des informaticiens contribuer à la culture citoyenne et à l’enseignement de la discipline à tous les niveaux, et concourir ainsi à nourrir les débats de société.

    ChatGPT, un sujet de société ? 

    Dans le cadre de l’accompagnement de la société, la SIF nous partage un communiqué sur ChatGPT et plus globalement les modèles génératifs, afin d’expliquer brièvement mais clairement le fonctionnement de ce type d’outils, d’alerter sur les limites, risques et insister sur la nécessaire formation à ces outils et sur leur utilisation raisonnée.

    Voici son communiqué disponible ici

    Lien Société informatique de France: https://www.societe-informatique-de-france.fr/la-sif/

    Lien vers le communiqué: https://www.societe-informatique-de-france.fr/wp-content/uploads/2023/03/2023-03-06-Communique_SIF_chatgpt.pdf

    Ikram Chraibi Kaadoud

  • L’informatique vue par deux de ses premiers agrégé.e.s

    La première agrégation d’informatique a eu lieu l’an dernier, en 2022. Pablo Espana Gutierrez et Solène Mirliaz en sont les deux majors, et se destinent donc à une carrière dans l’Education Nationale. Pablo a reporté sa prise de poste pour finir son Master, Solène est maintenant enseignante d’informatique en classes préparatoires à Marseille. Saisissant l’occasion d’entendre cette nouvelle génération d’enseignants d’informatique, Binaire leur donne la parole. Charlotte Truchet.

    Binaire : Vous venez, tous les deux, de réussir brillamment la première agrégation d’informatique. Félicitations ! Comment en arrive-t-on là ? Quel est votre premier souvenir d’informatique ?

    Pablo Espana Gutierrez (Crédit Alexandre Drewery)

    Pablo : Il y en a beaucoup ! J’ai un oncle informaticien, il m’a appris à compter en binaire vers 6 ans et j’avais trouvé ça rigolo. Mais c’est plus tard, en 4e ou 3e, que j’ai commencé à programmer, un peu par hasard : je jouais à Principia, un jeu vidéo dans lequel on devait assembler des composants. Un de ces composants était programmable. On pouvait partager ses créations, ça donnait des modèles. A cette époque là, je suis vraiment tombé dedans.

    Solène : Pour moi aussi, c’est parti du contexte familial ! Mon père est informaticien, lui-même autodidacte d’ailleurs. On avait un ordinateur à la maison, et surtout beaucoup de livres d’informatique, que j’ai lus. Ça m’a donné envie de fabriquer des jeux. J’ai commencé en primaire : avec ma sœur, on a essayé de faire un jeu à base de pages web. Bon, ça ne marchait pas vraiment, mais j’en suis sortie super motivée. Au collège, je jouais à des jeux de rôles que je trouvais limités, alors j’ai commencé à les programmer avec RPGMaker, qui permettait de fabriquer des interactions ou des combats entre les personnages du jeu. C’est un peu comme Pablo : dans les jeux vidéo, on atteint vite des limites à ce qu’on peut faire avec les blocs de base, d’où l’envie de programmer.

    Binaire : C’est intéressant, parce que ce n’est pas vraiment comme ça qu’on enseigne l’informatique.  Les programmes ont une approche plus scolaire, où on apprend à programmer pas à pas avant de se lancer dans de vrais grands programmes.

    Solène Mirliaz (Crédit : Emily Clement)

    Solène : L’informatique est souvent proposée dans un lien très étroit avec les mathématiques. Je trouve ça dommage, ça donne l’impression que l’info n’est qu’un outil. Or, l’informatique, c’est un jeu ! Comme des briques de légo, qu’on assemble pour s’amuser. Si j’enseignais au collège, je pense que je déborderais un peu du programme. Il y a plusieurs aspects de l’informatique qui peuvent résonner selon les individus.

    Pablo : Je suis assez d’accord, c’est un jeu, je suis sensible à ça. Je me souviens de profs qui nous disaient : « Vous jouez trop ». Oui, mais ça nous stimulait ! On peut arriver à transmettre comme ça. Mes meilleurs souvenirs scolaires, c’étaient les exos qu’on pouvait voir comme des énigmes. Pour moi, ce n’est pas très grave si la théorie et les applications arrivent après : l’important, c’est la stimulation.

    Binaire : Donc, si vous faisiez les programmes scolaires, vous changeriez tout ?

    Solène : Pas forcément ! Je ne suis pas pour la gamification à outrance non plus. Ça dépend surtout du niveau. 

    Pablo : En fait, l’important, c’est de faire comprendre que c’est à l’élève d’inventer son jeu. Et qu’on peut changer les règles !

    Binaire : Et votre plus belle découverte informatique ?

    Activité d’informatique débranchée proposée en primaire par Pablo : des caméléons répartis dans un arbre permettent de comprendre les portes logique. (Crédit : Martin Quinson)

    Pablo : Nous venons tous les deux de l’ENS Rennes, qui propose aux élèves d’animer des ateliers d’informatique dans le primaire ou le secondaire. C’est de l’info débranchée [sans ordinateur]. Faire passer ça à des élèves, ça oblige à prendre du recul. Là, j’ai compris que ce que je faisais était utile, et ça m’a forcé à bien comprendre ce qu’était vraiment l’informatique. Devant un enfant de 9 ou 10 ans, il faut aller à l’essentiel, trouver la notion clef à transmettre. C’est un souvenir incroyable.

    Solène : En 2012, j’étais au lycée, et j’ai participé à un concours de jeux vidéos, INNOV’Game. Il fallait produire un jeu de A à Z. Je suis arrivée deuxième. La finale était à Paris, et c’était impressionnant. Il y avait le fondateur du Site du Zéro, que je consultais très souvent, c’est avec ça que j’avais appris à programmer en C ! Bon, on m’a aussi fait remarquer que j’étais la première fille en informatique, que d’habitude les filles font des trucs artistiques…

    Binaire : Justement, les filles ! Il y a 3 agrégées, pour 20 agrégés. On s’en satisfait ?

    Solène : C’est quelque-chose qui m’est apparu à ce concours de jeux vidéo. Avant, par rapport à la classe, j’étais celle qui fait de l’info, plus que les garçons, donc je ne me posais pas la question sur mon genre. C’est la première fois où on m’a fait la remarque. Mais c’était plutôt : « ah, tu es une fille, c’est chouette ». Je n’ai jamais eu de remarques désobligeantes, personne n’a suggéré que je n’étais pas à ma place.

    Pablo : Mon expérience perso n’est pas très utile, évidemment, mais c’est un sujet qui m’intéresse beaucoup. Je pense que ça se joue en primaire et au lycée, plus que par la suite. Dans les interventions qu’on faisait, on voyait les clichés dès la primaire. Mais il y a aussi une curiosité, autant des filles que des garçons : « ah bon, c’est de l’informatique, ça ? On ne me l’avait pas vendu comme ça ! ». 

    En terminale, il y a un moment charnière, c’est là qu’il faut intervenir. J’ai participé à des réunions de jeunes mathématiciennes et informaticiennes. Quand je demandais aux lycéennes ce qu’elles avaient préféré, et ce n’était pas les jeux, ni les conférences ni rien, c’était de pouvoir discuter avec des chercheuses femmes en math ou en info. Il y a un vrai manque de conseils sans biais sur l’orientation, et les biais se propagent.

    Solène : Concernant l’orientation, c’est le collège qui est central pour moi. Avec les réformes du lycée, le choix des options se fait en classe de seconde, donc sur la base de choses que les élèves ne maîtrisent pas bien. C’est inquiétant pour le recrutement dans les prochaines années. J’ai une seule femme sur 34 élèves dans ma classe ! Quand on fait des interventions au collège, on invite explicitement les filles. On a constaté que si on invitait tout le monde, les filles ne viennent pas, elles s’autocensurent déjà. Ça ne va pas s’arranger tout seul.

    Binaire : Pourquoi faut-il, selon vous, enseigner l’informatique ?

    Solène : L’informatique a pris une telle place dans le monde actuel qu’il est indispensable que chacun.e ait au moins une petite idée de ce que c’est, de quoi elle est capable, et aussi de ses limites. Il ne s’agit pas forcément de savoir coder, mais de comprendre le monde qui nous entoure, de ne pas être esclave de la technologie, et d’en maîtriser les principaux ressorts.

    Pablo : Moi , je suis fasciné par le côté transversal de l’informatique. Dans les ateliers que j’animais, je lançais parfois un défi : trouver quelque-chose qui n’a aucun rapport avec l’informatique. Quelles que soient les réponses, on trouve toujours un lien ! Et quelle que soit la branche à laquelle on se destine, on aura besoin de l’informatique. C’est aussi une façon de penser très utile, un outil conceptuel qui permet de faire mieux ce que l’on fait, quel que soit le domaine. On a tous à y gagner !

    Binaire : À l’agrégation, le programme s’appuie sur trois langages : C, OCaml et Python. Quel(s) langage(s) préférez-vous pour enseigner ?

    Solène : J’aime bien l’idée d’avoir un équilibre entre les langages enseignés, par exemple, OCaml qui est fonctionnel, et C/C++ très proche de la machine.

    Pablo : Oui, les langages du programme de l’agrégation sont complémentaires, c’est intéressant. Avec des débutants, je suis assez favorable à Python. Pour certains élèves, le mur du langage est un vrai problème, même si les intuitions algorithmiques sont bonnes. Un langage très simple facilite les choses. Mais mon coup de cœur de langages, c’est quand même OCaml, tellement élégant ! Du point de vue enseignement, C/C++ est intéressant pour aller plus bas, pour déconstruire les choses. 

    Pablo Espana Gutierrez, présentant une activité sur les chemins eulériens pour des lycéennes. (Crédit : Raphaël Lecoq)

    Binaire : Qu’allez-vous faire maintenant ?

    Solène : J’ai dû choisir un poste début juillet, et je suis en classe préparatoire à Marseille. J’étais en thèse à Rennes, mais j’ai fait une pause pour passer l’agrégation, avec l’aide de mes encadrant.e.s. Je n’ai aucun regret ! Je suis heureuse en prépa parce que j’aime l’info un peu poussée, avec des implémentations en C ou en OCaml où on va « au fond du langage ». Même si j’ai appris par projets, je préfère enseigner de façon technique.

    Pablo : J’ai reporté ma prise de poste pour finir mon master, je suis en M2 cette année. Mon but, c’est d’être prof, peut-être après une thèse. Prépa ou lycée, les deux me plairaient. J’attends de voir. Au lycée, on peut faire des projets, ancrer la matière dans les centres d’intérêt de l’élève, par exemple en bioinfo ou en théorie des jeux, être très créatifs. En prépa, on va plutôt explorer les limites de l’info, construire un cours qui va plus loin.

    Binaire : Comment prépare-t-on un concours dont c’est la première édition, quand on manque de références et d’annales ?

    Les deux  :  Ça a été une très bonne année ! 

    Binaire : Vraiment ?

    Solène : Oui ! Nous étions ensemble, nous suivions la préparation proposée par l’ENS de Rennes, avec une quinzaine d’étudiant.e.s. Nous avons été très bien accompagnés par les enseignants, qui s’appuyaient sur l’expérience de la préparation à l’agreg de math.

    Pablo : Ça a été un énorme travail pour nos enseignants, et si on a réussi, c’est grâce à eux ! J’ai envie de les remercier.

    Solène : Et merci au jury ! Pour une première année, c’était bien organisé, très pro, neutre, respectueux. 

  • Alvearium : vers un Cloud souverain partagé, respectueux des données de ses utilisateurs

    Hive et Inria se sont engagés pour quatre ans dans un partenariat visant à développer un Cloud souverain, capable de fournir à la fois le calcul et le stockage des données via un réseau « peer-to-peer », plutôt que depuis un ensemble centralisé de centres de données. Zoom sur le partenariat, avec Claudia-Lavinia Ignat, responsable du Défi pour Inria.
    Cet article est paru le 16/01/2023 sur le site d’Inria.
    Site Inria

    Photos, vidéos, documents importants… le stockage dans le Cloud fait partie intégrante de notre quotidien, depuis plus d’une décennie. La plupart des données des utilisateurs sont stockées par des grands fournisseurs de services, qui ont la capacité de construire des centres de données capables de traiter une grande quantité d’informations.

    Les utilisateurs doivent ainsi faire confiance aux fournisseurs Cloud pour préserver la confidentialité de leurs données, tout en ayant peu de contrôle sur leur utilisation. En effet, les conditions de service des principaux acteurs peuvent donner la permission d’accé d’exploiter les données des utilisateurs à leurs systèmes automatisés, à leurs employés ou à des tiers de confiance.

    Un « AirBNB du stockage de données »

    C’est à cette problématique que s’attaque la startup Hive pour développer un Cloud pair-à-pair, alternatif aux solutions existantes, qui fournit à la fois le calcul et le stockage de données via un réseau pair-à-pair plutôt qu’un ensemble centralisé.

    « Hive propose d’exploiter la capacité inutilisée des ordinateurs, et incite les utilisateurs à apporter leurs ressources informatiques au réseau, en échange d’une capacité similaire du réseau ou d’une compensation monétaire », explique Claudia-Lavinia Ignat, responsable de l’équipe-projet COAST (équipe commune à Inria Nancy – Grand Est et Loria) et du Défi Alvearium pour Inria.

    En pratique : l’utilisateur va se connecter au réseau, s’identifier sur la plate-forme de Hive, et décider de partager une partie de ses ressources (100 Go d’espace de stockage, par exemple). Le service est gratuit et n’est payant que si l’utilisateur consomme davantage que ce qu’il partage.

    En échangeant leurs ressources informatiques, les utilisateurs peuvent alors bénéficier de tous les services d’un cloud, tout en assurant la confidentialité de leurs données puisque celles-ci sont fragmentées, chiffrées et dispersées à travers le réseau pair-à-pair. Les utilisateurs peuvent contrôler l’accès à leurs données en partageant directement et uniquement avec les utilisateurs en qui ils ont confiance la localisation des fragments et leurs clés de déchiffrement, et ce, sans avoir à les stocker auprès d’une autorité centrale. « Le risque de violation de la vie privée est réduit car en cas d’attaque sur un nœud du réseau pair-à-pair, seulement une petite partie des données protégées est exposée. Il n’y a plus un endroit unique où un pirate peut attaquer pour récupérer toutes les données. Cela devient donc beaucoup plus compliqué pour un attaquant », précise Claudia-Lavinia Ignat.

    Autre avantage du système proposé par Hive : les nœuds participants sont détenus et exploités par des personnes indépendantes et les coûts d’administration du système sont donc partagés. Cette solution devrait rendre le stockage et le partage des données plus abordables pour tous. Elle réduit également le gaspillage d’énergie en fournissant des ressources de calcul et de stockage plus proches des utilisateurs et en évitant les frais généraux d’énergie des centres de données, tels que le refroidissement dont le coût représente environ 40 % de la consommation totale d’énergie d’un centre de données.

    Plus on a d’utilisateurs, plus on passe à l’échelle, plus la résilience est grande. Claudia-Lavinia Ignat

    Un Défi pour un Cloud souverain capable de faire face aux géants américains

    Pour, justement, passer à l’échelle, Hive et Inria ont ainsi décidé de travailler main dans la main pour voir émerger un Cloud souverain, au travers d’un Défi commun.

    Hive offre en effet, actuellement, une solution de stockage de données pour des documents de tout type, qu’ils soient textuels ou multimédia. Ces documents peuvent être d’une taille importante de plusieurs dizaines de mégaoctets. Cependant, ces documents sont immuables, c’est-à-dire qu’ils sont en lecture seule et ne peuvent pas être modifiés. Dans ce Défi, Inria et Hive vont ainsi travailler à étendre la solution actuelle aux données mutables, c’est-à-dire aux données dont l’état peut être modifié après leur création. « Nous ciblons, en plus, les données mutables qui peuvent être modifiées de manière collaborative par différents utilisateurs », précise Claudia-Lavinia Ignat, avant d’ajouter «le principal défi est de savoir comment assurer la convergence des données en présence de modifications concurrentes ».

    En plus d’assurer la haute disponibilité des données, c’est-à-dire que celles-ci soient disponibles à tout moment et que toute requête les concernant doit donner lieu à une réponse, mais aussi leur cohérence, Alvearium veut garantir que les données soient stockées de manière sécurisée. « Nous cherchons à garantir à la fois la confidentialité, l’intégrité et l’accessibilité des données, c’est-à-dire que qu’elles soient protégées contre toute lecture non autorisée, et qu’elles ne puissent pas être modifiées par un accès non autorisé », indique Claudia-Lavinia Ignat.

    Les grands fournisseurs de services collaboratifs tels que Dropbox, iCloud et GoogleDrive ont en effet adopté des solutions de chiffrement afin de ne stocker que la version chiffrée des données des documents partagés. Cependant, pour faciliter l’utilisation de leurs services, les fournisseurs de services stockent également les clés de chiffrement, ce qui leur donne la possibilité de décrypter les données et donc d’être soumis à différentes attaques. Ce projet vise ainsi à proposer des techniques de chiffrement dites « de bout en bout », pour que seuls les pairs autorisés puissent déchiffrer les données.

    Quatre axes de travail pour quatre années de Défi

    Pour répondre à ces problématiques, le Défi, baptisé Alvearium, va ainsi mettre les compétences de quatre équipes-projets Inria (COAST, qui travaille sur les systèmes collaboratifs distribués ; MYRIADS, qui travaille sur le Cloud et la gestion des ressources dans le Cloud ; WIDE, qui travaille sur la théorie et les outils pour les systèmes distribués à large échelle et dynamiques ; COATI, qui travaille sur les algorithmes d’optimisation des réseaux) au service de la résolution des problématiques rencontrées par Hive.

    Le Défi est structuré en quatre axes :

    • Le placement et la réparation viables des données. Le stockage pair-à-pair doit avoir une stratégie de placement des données pour sélectionner les nœuds de stockage les plus appropriés pour placer les données, en respectant certaines contraintes : la conformité avec les politiques de régulation des autorités, et la préférence des utilisateurs en termes de sécurité et de confidentialité. L’objectif est également de fournir des mécanismes de réparation des données, pour répondre aux éventuelles pannes ;
    • La gestion des données mutables, c’est-à-dire qui peuvent être modifiées après leur création, sur le stockage pair-à-pair. Le partage des données doit être chiffré de bout en bout et seuls les pairs autorisés doivent pouvoir déchiffrer les données. La fusion des modifications concurrentes peut être effectuée une fois que ces modifications ont été reçues et déchiffrées par les pairs autorisés ;
    • L’étude de nouvelles techniques pour gérer les « attaques Sybil » et « pannes byzantines », c’est-à-dire des nœuds malveillants, dans le contexte du stockage distribué non fiable. L’objectif est ici d’offrir des garanties plus fortes, en termes de tolérance aux pannes, d’intégrité des données et de sécurité ;
    • Le développement d’un mécanisme de sécurité de données, pour permettre de stocker les données de manière sécurisée. L’objectif sera, enfin, de proposer un mécanisme de sécurité adapté aux systèmes distribués sans autorité centrale qui gère les droits d’accès des utilisateurs aux documents partagés, de bout en bout, c’est-à-dire que seul l’utilisateur final pourra déchiffrer, ce qui n’est aujourd’hui pas le cas chez les grands fournisseurs Cloud.

    Ces quatre axes ont pour objectif global de proposer, en s’appuyant sur les compétences des équipes-projets Inria, un Cloud souverain, performant, capable de répondre aussi efficacement que les fournisseurs existants aux besoins des utilisateurs en termes de stockage, tout en respectant la confidentialité et la sécurité de leurs données.

    Le contrat particulier entre Inria et Hive vient d’être signé fin décembre 2022. Les travaux de recherche de ce Défi débutent cette année avec le recrutement début février de trois stagiaires chez Inria et Hive et de quatre doctorants un peu plus tard dans l’année.

    Iris Maignan, Direction de la Communication, Inria

  • Apprendre à un ordinateur à apprendre à voir

    Le Prix de thèse Gilles Kahn récompense chaque année, depuis 1988, une thèse en Informatique. Cette année l’un des accessit revient à Mathilde Caron. pour ses travaux sur l’apprentissage auto-supervisé en vision algorithmique : entre devoir fournir des millions d’exemples pour qu’une machine puisse faire une tâche de reconnaissance visuelle, et imaginer que celà puisse se faire de manière autonome, il existe une voie de recherche très innovante, Mathilde nous l’explique de manière très claire ici. Pierre Paradinas et Thierry Viéville.

    (photo personnelle)

    Regardez cette image. En tant qu’humain, il est évident pour vous de décrire ce qu’il s’y passe. Par exemple, vous pourriez facilement dire que l’on y voit une statue au premier plan, représentant deux dragons enchevêtrés, puis un temple de style japonais en arrière plan. En effet, les humains et de nombreux animaux peuvent percevoir le monde et le comprendre sans effort.

    Ici, nous parlons bien de la vision ou perception visuelle et non de la vue qui elle réfère à la capacité physique de voir, c’est-à-dire de réagir à notre environnement au moyen de rayonnements lumineux perçus par l’œil. De façon schématique, on peut dire que notre cerveau (en particulier, le cortex visuel) reçoit en entrée les signaux nerveux en provenance de nos yeux et produit en sortie une perception visuelle, c’est-à-dire du sens, de la compréhension ou de la reconnaissance de ce qu’il y a en face de nous. Cette capacité de perception visuelle de notre cerveau fait partie de notre intelligence, et le but de “la reconnaissance d’image”, une branche de la “vision par ordinateur” en informatique, est de simuler  la perception visuelle par des algorithmes dits d’intelligence artificielle, par exemple avec un ordinateur. Ce n’est pas une tâche facile, car l’on ne comprend pas encore très bien notre propre intelligence.

    Du point de vue d’un ordinateur, une image, peu importe comment elle a été acquise (par un appareil photo, trouvée sur le web ou créée de toutes pièces avec un logiciel) est simplement un tableau de nombres. En effet, une image numérique est composée de pixels: de minuscules carrés de couleur qui organisés sous forme de grille constituent l’image. Par exemple, l’image du dessus est composée de pas moins de 12 millions de pixels (3000 dans le sens de la largeur et 4000 dans le sens de la longueur). Chaque pixel est un code de trois nombres décrivant précisément les trois composantes (rouge, verte et bleue) dont le mélange donne une couleur. Bref, une image numérique n’est ni plus ni moins qu’un tableau de nombres, un peu de la même manière que, pour nous, une image est un ensemble de faisceaux lumineux qui pénètrent notre œil, puis un ensemble de décharges nerveuses. Faire du sens à partir de ce tableau de nombres n’est pas une tâche aisée, et c’est le défi du domaine de la reconnaissance d’image.

    (figure personnelle)

    Plus précisément, la reconnaissance d’image découpe le problème de la perception visuelle en plusieurs tâches distinctes à résoudre par des algorithmes. Par exemple, la tâche peut être de classifier une image parmi un ensemble de propositions (cette image représente-t-elle un chien, une voiture, une sculpture ou un arbre ?) ou de générer un texte décrivant l’image ou encore de détecter les différents objets composant l’image.

    Dans ce travail de thèse, nous ne nous concentrons pas sur une tâche de reconnaissance d’image en particulier. Nous cherchons plutôt à développer une perception visuelle artificielle générale, qui pourra ensuite être utilisée comme pièce de base commune pour résoudre des tâches spécifiques.

    L’apprentissage profond: apprendre à partir d’exemples

    De nos jours, l’approche la plus prometteuse et la plus adoptée pour la reconnaissance d’image est de loin le “deep learning”, ou “apprentissage profond” en français (voir un article introductif ici,  ou une vidéo très pédagogique, en lien avec une formation citoyenne à l’intteligence artificielle, qui aborde aussi le sujet). Le deep learning est une puissante branche d’algorithmes issue du “machine learning” (ou “apprentissage automatique”) qui consiste à laisser le système découvrir (ou “apprendre”) par lui même comment résoudre un problème étant donnée une grande quantité d’exemples au lieu de lui dicter en amont une série de règles. Un exemple classique est la détection de spam (ou “pourriel” en français): les approches classiques vont dire à l’ordinateur de classifier un mail en tant que spam si son contenu ou l’adresse de son émetteur contient certains mots ou caractères tandis que les approches basées sur le machine learning vont laisser l’algorithme découvrir les paramètres de ses calculs par l’observation d’exemples de mails catégorisés comme spam ou valide.

    En reconnaissance d’images, on peut imaginer un exemple où un système doit reconnaître la présence de chien dans une image et catégoriser leurs races. Une approche classique sera typiquement basée sur une série de règles: étant donné la forme du museau et des oreilles, la couleur du pelage ou le rapport longueur-largeur de l’animal, on va avoir une réponse pré-établie par un ensemble d’experts canins. Cependant, dans ce cas là, même les sous-tâches du problèmes sont difficiles à résoudre par une approche classique. Comment décrire avec des règles la forme d’un museau à un ordinateur afin qu’il puisse en détecter ?

    C’est là la force des approches de deep learning qui donnent la possibilité à l’algorithme d’établir ses propres règles suite à l’observation d’une très grande quantité d’images de chiens.

    Vers l’apprentissage autonome

    Le paradigme dominant en deep learning est celui de l’apprentissage supervisé. C’est-à-dire que dans notre exemple au-dessus, l’algorithme ingère à la fois l’image et une information supplémentaire, par exemple le nom de la race du chien, pour chaque image de la base de donnée. Les approches supervisées sont les plus adoptées en reconnaissance d’images aujourd’hui mais elles sont problématiques pour plusieurs raisons.

    D’abord, elles ne sont pas alignées avec la manière dont on a l’impression que les humains ou les animaux acquièrent la perception visuelle. En effet, les bébés sont capables de percevoir les éléments de leur environnement souvent bien avant de les nommer. Ils ont donc appris à percevoir le monde sans qu’un superviseur extérieur leur explique ce qu’il y avait à voir dans chaque situation mais plutôt par l’expérience et l’observation répétée.

    Une autre limitation de l’apprentissage supervisée est le biais ou même les erreurs dans les annotations. En effet, l’acte d’annotation de données est ambiguë dans le sens ou il y a souvent plusieurs manières d’annoter, sujette à interprétation. Cela peut introduire des biais dans les systèmes qui utilisent ces annotations.

    Finalement, la raison peut-être la plus pragmatique pour vouloir se débarrasser des données supervisées est le fait qu’elles sont plus compliquées et plus chères à acquérir. En effet, annoter des données requiert une expertise humaine et du temps qui empêchent le passage à l’échelle des algorithmes.

    Mon travail de thèse

    Pendant ma thèse, mon travail a consisté à développer des algorithmes d’apprentissage profond pour la reconnaissance d’image qui se basent uniquement sur les images et n’utilisent aucune annotation manuelle. En d’autres termes, il s’agit de permettre à l’ordinateur d’acquérir une perception visuelle de manière autonome à partir des images seules (au contraire des images + leurs annotations dans le cadre de l’apprentissage supervisée). Ce type d’algorithme est appelé “self-supervised learning” (ou auto-supervisé en français).

    Nous sommes partis de l’observation que dans une base de données, plusieurs images “se ressemblent” même si on ne sait pas identifier ce qu’elles représentent. Nous avons utilisé ce critère de ressemblance pour créer des pseudo-annotations (donnés par l’algorithme lui-même et non par un expert humain), que nous affinons au fur et à mesure de l’entraînement et que la perception visuelle de l’algorithme s’améliore. 

    Mon manuscrit de thèse, intitulé Apprentissage Auto-Supervisé de Représentations Visuelles avec des Réseaux de Neurones Profonds, est accessible gratuitement en ligne sur ce lien.

    Nous avons aussi rédigé quelques articles de semi-vulgarisation plus spécialisés à propos de certains travaux spécifiques de ma thèse que vous pouvez lire en suivant les liens suivants: [lien 1] [lien 2].

    Mathilde Caron, thèse au LJK, Université Grenoble Alpes, Inria Grenoble Rhône Alpes, en partenariat avec Facebook AI Research (FAIR). Ses publications.

     

  • L’echostétoscopie en commun

    Dans le cadre de la rubrique sur les Communs numériques, binaire a rencontré Mehdi Benchoufi, médecin de santé publique à l’hôpital Hôtel-Dieu, ancien chef de clinique en épidémiologie clinique et agrégé et docteur en mathématiques. Il s’est principalement investi aux interfaces entre médecine connectée et technologies ouvertes : imagerie par ultra-sons, méthodologie de développement des solutions d’intelligence artificielle. Il a été pionnier dans les applications de la blockchain pour la qualité des essais cliniques. Il a été membre du Conseil Scientifique de la Fondation pour la Recherche Médicale de l’AP-HP (l’Assistance publique – Hôpitaux de Paris). Il est l’un des cofondateurs et le président de echOpen Factory, une startup de la santé qui développe et commercialise un échographe ultra portable, à bas coût.
    Mehdi Benchoufi

    Binaire : Qu’est-ce que le mot commun évoque pour toi ? 

    Mehdi Benchoufi : Une des grandes passions de ma vie est les mathématiques. La première chose que m’évoque les communs c’est le commun des mathématiques. Les mathématiques appartiennent à tous et sont développées par tous. Que serait le monde aujourd’hui si le théorème de Pythagore était propriétaire ? Ce commun a un impact invraisemblable sur le monde. C’est mon goût personnel pour les mathématiques qui m’a donné le goût de la culture du partage telle qu’on la voit dans l’ouverture des données ou du logiciel. On s’inscrit dans une tradition historique de mise en commun, on croise les apports des uns et des autres, et on consolide une connaissance commune.

    Peux-tu nous parler du commun sur lequel tu travailles aujourd’hui ?

    Je travaille depuis longtemps sur un outil pour mettre l’échographie à la portée de tout le monde. Quand j’étais interne, j’ai réalisé l’intérêt de pouvoir faire des échographies sur le lieu de prise en charge des malades. Notamment, j’ai été marqué par le cas de patients victimes de ruptures d’anévrismes de l’aorte et dont on aurait augmenté les chances de survie si les équipes mobiles de prise en charge avaient disposé d’un matériel échographique de tri, pas cher, miniaturisé et connecté.

    C’est ce qui m’a donné l’idée du projet ouvert et collaboratif echOpen au côté de mes collègues Olivier de Fresnoye, Pierre Bourrier et Luc Jonveaux, le premier avec une longue expérience humanitaire, le second radiologue expert de l’échographie, le troisième ingénieur et maker versé dans les technologies acoustiques. L’objectif est de produire une sonde ultrason ouverte, connectée à un smartphone afin de transformer de manière radicale le processus de diagnostic dans les hôpitaux, les cabinets de médecine générale et les déserts médicaux. On tient à ce qu’elle soit abordable, bien moins chère que les produits actuellement sur le marché.

    Nous avons créé une association en 2015 pour organiser les développements de la communauté. Dans une première phase qui a duré 3-4 ans, nous avons mis en place tous les outils utilisés dans la fabrication d’un échographe ; c’est en accès libre sur github et des équipes l’utilisent dans le monde entier. Dans un second temps, pour passer du démonstrateur au produit, nous nous sommes structurés en entreprise, tout en tâchant de continuer à associer la communauté.

    Commençons par la première phase, peux-tu nous parler de votre communauté ?

    Il y avait un noyau d’une trentaine de contributeurs. Et puis d’autres personnes ont soutenu le projet de diverses manières, par exemple, en participant à son financement ou en nous encourageant. Je dirais peut-être un millier de personnes réparties sur 5 continents, des informaticiens, des physiciens, des médecins,  des spécialistes en acoustique en électronique, etc.

    Pour prendre un exemple, parmi tous ces soutiens, nous avions ce Canadien, un super développeur qui avait fait la une de Hacker News. Il est passé à Paris et a demandé à nous rencontrer. Il est resté 10 jours chez nous et nous a fait gagner un facteur 10 dans les performances de l’application. C’est le genre d’agilité et de créativité que nous apportait la communauté au sens large.

    Un autre exemple. Les membres de notre communauté du Pérou nous ont fait connaître une pathologie atypique, un cancer du foie que même nos collègues médecins français ignoraient. Ce sont des formes très rares dans le monde mais fréquentes dans ce pays qui touchent des gens entre 15 et 25 ans en milieu rural. Le malade arrive pour le diagnostic avec une espèce de pastèque dans le ventre et c’est déjà trop tard. Il faudrait dépister cette maladie à temps. Nous nous disions que notre petit échographe serait capable de faire cette détection à distance.

    Pour revenir à la contribution d’echOpen aux communs de façon plus générale, dans le logiciel Open Source, la difficulté majeure à laquelle nous avons été confrontées est le caractère inapplicable, dans le domaine de la santé, du principe « give to get » qui peu ou prou régit le développement libre ou open source, c’est-à-dire je donne quand je sais que je vais recevoir. Si je contribue au logiciel libre d’édition de texte emacs,  j’apporte une brique qui complète un ensemble dont je vais être l’utilisateur. Mais cette règle-là n’est pas évidente dans notre cas. Dans le domaine de la santé, les membres de la communauté ne sont pas nécessairement les consommateurs de la technologie.

    Est-ce que la communauté a défini ses propres règles de fonctionnement ?

    Il y a des règles, mais honnêtement ces règles n’ont jamais été vraiment formalisées. On travaille sur Github. Mais c’est aussi important pour la communauté de se retrouver physiquement pour travailler ensemble dans les mêmes locaux. C’est ce que nous avons pu faire dans les locaux de l’hôpital Hôtel Dieu à Paris.

    Donc en 2018, vous basculez vers une organisation différente : une entreprise privée. Qu’est-ce qui motive ce choix ?

    Au bout de trois ans de développement, s’est reposée notre motivation initiale : avoir de l’impact sur le travail des praticiens et servir les patients. Nous avons compris que notre prototype n’était pas industrialisable. Il fallait un travail d’une tout autre nature, d’une tout autre ampleur, pour satisfaire notamment les exigences en termes de certification et de sécurité. Nous avions réalisé notre mission en tant que Fablab et nous nous sommes lancés dans l’aventure entrepreneuriale, et sommes repartis “from scratch » pour viser la qualité d’un dispositif médical. Pour cela, il fallait des financements et des efforts conséquents. Il s’agissait de financements importants,et les fonds comme ceux que nous avions obtenus auprès des fondations qui nous avaient soutenus depuis le début, la fondation Pierre Fabre, la fondation Sanofi Espoir et la Fondation Altran pour l’Innovation, ne pouvaient suffire. Nous nous sommes transformés en startup.

    Le monde est ce qu’il est ; nous sommes dans une économie capitalistique dont le modèle est assis sur la propriété. Personne n’investit un euro dans une société qui n’est pas propriétaire de sa technologie. Je trouve cette logique contestable mais c’est la réalité.

    La mise en place de notre première recherche de fonds a été difficile. Les capitaux-risqueurs que nous avons rencontrés ne trouvaient pas leur intérêt dans une solution bas coût, lorsque les compétiteurs vendent substantiellement plus chers. Mais nous avons tenu bon et avons pu trouver les moyens de nous financer jusqu’à aujourd’hui !

    Comment s’est passée le passage du commun à l’entreprise ?

    Très bien. Toute la communauté contributrice a participé aux discussions quant à l’évolution de notre organisation, à la répartition des titres de l’entreprise à due concurrence des contributions effectuées. L ‘association est toujours en place et elle a une part substantielle de l’entreprise privée, elle a ainsi co-fondé le véhicule industriel echOpen factory. Elle a concentré et intensifié ses activités pour adresser un enjeu de santé publique majeure au niveau mondiale, la santé maternelle dans les pays à faible revenu. Aujourd’hui l’aventure continue. Nous continuons à travailler main dans la main avec nos communautés technique et médicale en les impliquant dans l’expérimentation de nouveaux usages du dispositif. Avec toujours le même objectif en ligne de mire : rendre l’imagerie médicale accessible partout dans le monde.

    Les membres de votre communauté, les 30 et les 1000, ont tous accepté ?

    Nous avons mobilisé l’ensemble des contributeurs actifs d’echOpen, soit une trentaine de personnes. Tous ceux auxquels nous avons proposé des parts ont accepté, sauf le développeur  Canadien dont je vous ai parlé.

    On a bien eu deux départs mais c’était avant la transformation en entreprise. Deux personnes ont quitté le projet  pour des différences de points de vue techniques et opérationnels. L’une d’entre elles, Luc Jonveaux, a proposé un fork sur Github et a continué à développer son projet de matériel de recherche, ce qui montre là une façon intéressante de gérer le dissensus au sein d’une communauté. Nous sommes toujours en très bons termes avec ces deux personnes.

    Vous construisez un appareil. Qu’est ce qui est ouvert ? Le design général ? Le matériel ? Le logiciel ?

    Dans la première phase Fablab, tout ce qui était réalisé l’était en open source ! Si on est parvenu à diminuer le coût du dispositif, c’est parce qu’on a pris cette approche. On n’est pas parti de l’existant comme l’aurait fait un industriel, ni d’un processus de transfert technologique comme dans un laboratoire. On est parti de la page blanche en nous appuyant sur des briques logicielles en open source. C’était un chemin possible pour arriver à un design raisonnable en termes de qualité, et industrialisable dans des conditions de coût qui étaient les nôtres.

    Notre modèle était assez original avec notamment à la fin une phase FabLab qui était constitutive de la communauté et relativement productive puisqu’on a aujourd’hui des universités qui utilisent les cartes électroniques ou des petits logiciels qu’on a développés. En revanche, à l’issue de cette phase, on ne pouvait pas viser une sonde de qualité médicale. Nous sommes repartis de zéro.

    Je pense que toute start-up qui reprendrait le travail de la communauté serait capable de refaire ce que nous avons réalisé. En tout cas, nous lui avons donné les bases pour le faire.

    Plusieurs brevets d’invention ont été déposés. Notre volonté est d’ouvrir la technologie dès lors qu’une nouvelle version s’y substitue. Donc, à chaque fois que nous remplaçons une version, nous ouvrons le code de la précédente. Nous nous protégeons. Nous voulons éviter qu’un concurrent modifie le produit à la marge, brevette, et ensuite nous empêche d’exploiter le fruit de nos travaux. Enfin, c’est ce qui est prévu parce que, pour l’instant, nous n’avons pas encore sorti la deuxième version qui nous permettra d’ouvrir la première.

    Deuxième élément en gestation et en discussion : la possibilité de permettre à des tiers de développer les algorithmes, par exemple des algorithmes d’intelligence artificielle sur la base de notre sonde. Nous sommes contactés par différentes entreprises et d’autres structures qui veulent s’appuyer sur un appareil qui n’est pas cher.

    Et ce à quoi nous réfléchissons, c’est à open-sourcer des outils d’interfaçage à notre solution pour des tiers développant des services complémentaires aux nôtres. C’est en discussion et je ne sais pas quand ça va atterrir, mais ça fait partie de nos réflexions.

    Où en êtes-vous aujourd’hui ?

    Notre startup fonctionne bien. Nous sommes même la première startup à avoir l’AP-HP dans notre capital. Nous avons aujourd’hui un produit opérationnel qui a déjà passé l’essai clinique. Il est en cours de finalisation.

    Serge Abiteboul, Inria et ENS, François Bancilhon, serial entrepreneur

    Les communs numériques

  • Penser, calculer, délibérer

    Penser et délibérer à l’heure où l’intelligence humaine utilise l’intelligence artificielle pour démultiplier ses capacités d’études des données ? Dans un ouvrage pluri-disciplinaire dont deux collègues partagent ici les versions préliminaires des chapitres en lien avec l’informatique, chercheurs en sciences humaines et formelles se répondent pour relever le défi d’approfondir la réflexion sur ce sujet. Lonni Besançon et Ikram Chraibi Kaadoud.

    La numérisation de la société, le traitement automatique de l’information et les techniques d’intelligence artificielle induisent des ruptures dans notre façon de penser, de calculer, de délibérer.

    ©mare & martin

    Comprendre comment fonctionnent les capacités cognitives et comment elles sont affectées par la révolution numérique est essentiel pour le devenir de nos sociétés. Un dialogue interdisciplinaires entre juristes, philosophes et spécialistes des neurosciences et de l’intelligence artificielle, permet de mieux connaître les nouveaux enjeux et de répondre aux défis technologiques du XXIe siècle. 

    Comme l’explique Jean-Sylvestre Bergé dans sa préface,  ce livre tente une approche pluri-disciplinaire sur les triples terres de la pensée, du calcul et de la délibération, en questionnant comment la pensée humaine elle même évolue à l’heure d’une révolution numérique qui va jusqu’à bouleverser notre vision du droit comme on en parle souvent sur binaire: en insistant sur l’aspect des données avec “Numérique est mon droit” de Célia Zolynski, ou les liens entre le “Code et le Droit” avec Lêmy Godefroy, ou les “Communs numériques dans la justice” avec Benjamin Jean, …

     

    © Learning Lab Inria

    Un point clé est d’approfondir le lien entre calcul algorithmique et responsabilité humaine. Si la complexité de ces systèmes ne permet plus  de réduire la responsabilité de leur fonctionnement  à une ou des responsabilité individuelles et qu’il y a besoin de reconstruire le droit autour de ces objets, cela n’a pas de sens de parler de responsabilité de la machine, la responsabilité doit demeurer humaine. Cela est vrai y compris pour des tâches qui relevaient auparavant de capacités cognitives humaines, voire des décisions sans arbitrage humain (par exemple dans des situations d’urgence où retarder la décision serait pire que la déléguer à un algorithme, malgré les risques inévitables), mais mis en place par des humains. Cette réflexion est proposée par Raja Chatila, spécialiste des systèmes cognitifs robotiques.

    © Nicolas Rougier

    Dans l’ouvrage on prend aussi le temps d’expliquer ce que nous comprenons aujourd’hui de notre intelligence biologique qui pense, ce qui offrira un éclairage crucial sur ce qui se passe quand on utilise des machines qui calculent, avant de conclure en quoi cela aide à réfléchir sur comment délibérer. Car oser comprendre les aspects scientifiques et techniques de la pensée  et du calcul est essentiel pour se donner les moyens de délibérer en toute conscience avec les outils intellectuels et numériques qui nous sont donnés. On discute ainsi comment délibérer avec l’intelligence artificielle pour la mettre au service de l’intelligence naturelle avec Frédéric Alexandre et ses collègues, que l’on peut lire directement ici.

    Au-delà, le cheminement intellectuel proposé s’est formé pendant plus de dix ans au sein du groupe informel de recherche « Limites et frontières », animé par les professeurs Philippe Pédrot et Alain Papaux, co-éditeurs de l’ouvrage.

    Frédéric Alexandre, Raja Chatila, Marie-Hélène Comte, Philippe Pédrot et Thierry Viéville.

  • Le cyberrisque est-il devenu un risque RSE comme un autre ?

    Nos collègues chercheurs Charles CUVELLIEZ et Jean-Jacques QUISQUATER nous proposent un angle original pour traiter les risques de cyberattaques : celui des assureurs. A partir d’un rapport publié par la société d’assurance Allianz Global Corporate Services (AGCS), ils nous expliquent les évolutions, à la fois dans les attaques mais surtout dans leur prise en charge qui ne se réduit plus qu’à une question informatique mais qui rejoint la responsabilité sociétale des entreprises (RSE)Pascal Guitton et Thierry Viéville 

    ll y a de la sophistication et de l’imagination dans l’air, si l’on en croit le rapport d’Allianz Global Corporate Services (AGCS) sur la menace cyber. Dans son rôle de vigie, un assureur a évidemment des choses à nous dire qu’il vaut mieux savoir….

    On connaissait déjà les doubles extorsions dans le cas des rançongiciels. Les criminels demandent non seulement une rançon pour débloquer les données chiffrées par le rançongiciels mais aussi pour ne pas dévoiler les données qu’ils auront pris soin d’exfiltrer avant le chiffrement. Place à la triple extorsion ! Désormais, les criminels qui se trouvent en possession de données des clients ou de fournisseurs de la victime leur demandent aussi une rançon !  Les rançons sont maintenant calculées avec précision par les groupes de criminels, par rapport aux capacités de la victime à payer. En réalité, le volume de cibles faciles diminue car tout le monde fait désormais des efforts en cybersécurité. Les criminels essaient dès lors d’exploiter au maximum les attaques qui réussissent et font tout pour arriver à extorquer de l’argent en harcelant au maximum leurs victimes. Et cela marche : en 2021, les demandes de rançon ont augmenté de 144 % et le paiement moyen des rançons de 78 % d’après des chiffres récoltés auprès de Palo Alto Networks. Près de la moitié des victimes, 46 % pour être précis, ont payé la rançon. Ce sont les secteurs manufacturiers et les services publics qui sont les plus vulnérables : ils sont moins bien protégés et une interruption de service trop longue leur met la pression. C’est dans ces secteurs qu’on trouve les rançons moyennes les plus élevées, de l’ordre de 2 millions d’USD.

    Législation rançongiciel

    Plusieurs états sont occupés à construire des législations pour cadrer le paiement des rançons, à défaut de les interdire. Ces paiements doivent parfois être justifiés, rapportés ou connus. En 2021, seulement 1 % des états avait une législation en ce sens ;  AGCS prévoit qu’en 2025, ce pourcentage atteindra 30 %. Renforcer le cadre légal autour des rançons rendra les paiements moins faciles et plus transparents. Il forcera les entreprises à en faire plus pour se protéger mais en contrepartie, nul doute que les cybercriminels trouveront d’autres manières de monétiser les cyberattaques. Les petites et moyennes sociétés sont toujours les cibles de choix pour les rançongiciels, parce que la plupart d’entre elles ne gèrent pas (encore) les risques et ne mettent pas en place des contrôles cyber performants. Quand une grande entreprise (avec un chiffre d’affaires de plus de 100 millions de USD) est quand même frappée par un rançongiciel, la cause est très souvent un trou de sécurité laissé béant et passé inaperçu. C’est le cas de 80 % des sinistres déclarés à AGCS.

    Business Email Compromise

    Autre évolution, l’attrait croissant pour les Business Email Compromise : des boites email sont piratées et leur contenu, qui a fuité, sert à d’autres criminels pour récupérer les adresses des futures victimes, pour initier des paiements indus ou pour collecter de l’information sensible. Les données volées sont offertes, avec indexation, dans le dark web à d’autres criminels : il est alors facile de copier le format d’une facture ou de faire le suivi d’un courrier trouvé dans la messagerie (en le détournant à son avantage). Attention aussi à l’utilisation des plateformes de communication ou de réunion qui associent de plus en plus fournisseurs, clients et l’entreprise elle-même : elles sont d’autres vecteurs de collecte d’information ou de fraude à la présidence (qui consiste pour un criminel à se faire passer pour un dirigeant de la société pour solliciter en urgence un paiement à un tiers). Est-on toujours bien sûr que toutes les personnes qui sont connectées sur une plate-forme dans le cadre d’une réunion ont bien à s’y trouver ? Qui ne s’est jamais demandé quel était ce profil qui ne dit rien (au sens propre et figuré) présent lors d‘une téléconférence ?

    Clause de guerre dans les cyberasssurances

    La guerre en Ukraine  va amener une clarification des clauses des contrats qui excluent de la couverture des faits de guerre. Il est temps car les attaques cyber sont une composante clé des guerres hybrides. Tout devient alors fait de guerre. Il faudra faire bien attention aux renouvellements des contrats qui seront de plus en plus précis sur ce point.

    Quant à l’impact des cyberattaques, on (ne) sera (pas trop) étonné d’apprendre qu’il se situe principalement au niveau de l’interruption du travail occasionné dans l’entreprise victime : 57 % des déclarations de sinistres et des dégâts associés ont trait à ce type de perte. Et ce ne sont pas que les attaques cyber qui en sont à l’origine : des simples problèmes informatiques (matériel ou logiciel), des erreurs humaines ou des soucis du même type chez les fournisseurs en sont à l’origine.

    Il devient aussi de plus en plus difficile de souscrire une assurance pour couvrir les dommages liés aux cyberattaques: on observe un mouvement des entreprises vers des captives d’assurance (c’est-à-dire créer au sein de l’entreprise sa propre compagnie d’assurance pour s’auto-assurer) en y associant parfois d’autres entreprises. Elles auto-financent leurs propres assurances et peuvent alors faire appel à de la réassurance. Airbus, Michelin et BASF ont ainsi créé leur propre captive – Miris Insurance – dédiée au risque cyber qu’ils ont établie en Belgique (avec Veolia, Adeo, Sonepar et Solvay) . Publicis les a suivis.

    Ce qui est certain, c’est que la cybersécurité est en train de migrer dans le domaine (vaste) des RSE : l’impact d’une cyberattaque devient tellement important sur le fonctionnement d’un pays et sa population, sur la vie d’un secteur d’activité, qu’il en va de la responsabilité sociétale de l’entreprise de l’éviter. Pensons aussi aux données de clients qui s’évanouissent dans la nature, aux hôpitaux ou aux transports publics paralysés.

    Placer la cybersécurité dans les risques de gouvernance, de société et d’environnement va lui donner une autre dimension qui ne la réduira plus à un problème informatique auquel on s’habitue.

    Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain)

    _________________

    Pour en savoir plus : Cyber: The changing threat landscape Risk trends, responses and the outlook for insurance, Allianz Global Corporate Services.

     

  • Quand les objets virtuels deviennent palpables

    © Inria / Photo Kaksonen

    Doté d’un casque de réalité virtuelle, un utilisateur peut manier des objets en 3D. Mais ces derniers sont le plus souvent intangibles. Comment ressentir leur forme, texture, poids ou température, ces informations essentielles pour les appréhender et faciliter leur manipulation ? Simuler ces sensations est l’enjeu des interfaces dites haptiques, des technologies qui stimulent le sens du toucher et du mouvement. Justine Saint-Aubert et Anatole Lécuyer nous en parlent ici. Thierry Vieville.

    Cet article est repris d’un article de La Recherche avec l’aimable autorisation de la Direction de la Rédaction.

    De multiples dispositifs haptiques cherchent à rendre toujours plus tangible le monde virtuel. Les premiers systèmes étaient des bras mécaniques munis de moteurs à leurs articulations. Ils étaient amarrés à une surface fixe, comme une table, d’un côté, et tenus de l’autre par l’utilisateur. En bougeant le bras, on déplaçait son avatar – sa représentation dans le monde virtuel – et les moteurs s’activaient pour produire des forces de résistance, par exemple dès qu’une collision intervenait entre son personnage et un mur virtuel. Ces dispositifs possédaient des espaces de ­travail limités et restreignaient donc fortement les sensations du toucher. Progressivement, d’autres technologies ont vu le jour. Des systèmes portables sont apparus, comme les gants « exosquelettes » dont la structure englobe la main et permet de simuler la saisie d’un objet. Différents types de mécanismes sont à l’essai avec, par exemple, des actionnements par câbles, attachés à des capuchons positionnés sur le bout des doigts et tirés en arrière, grâce à des poulies, par des moteurs sur le poignet. Lorsqu’un moteur est actionné, il génère un effort sur l’extrémité d’un doigt. Le nombre de moteurs peut être multiplié afin d’obtenir des sensations sur plusieurs doigts. De nombreuses autres pistes sont également étudiées, comme les technologies de retour haptique « à distance » fondées sur des émissions d’ultrasons, ou les retours haptiques « de surface » pour ajouter des sensations tactiles aux écrans de téléphones portables. Malgré ces efforts, les sensations restent souvent sommaires, et le « rendu haptique » en réalité virtuelle très loin du compte.

    Préparation de crêpes virtuelles avec des interfaces haptiques à retour d’effort. L’utilisateur peut ressentir physiquement l’interaction avec des liquides comme la pâte à crêpes ou le caramel © Julien Pettré.

    Le défi, exciter les capteurs de la main sans restreindre sa mobilité

    Simuler une sensation haptique est complexe pour plusieurs raisons. Tout d’abord, la main humaine possède une grande mobilité, avec pas moins de 27 os, poignet compris, qui permettent de manipuler une grande variété d’objets. Elle est également l’un des organes les plus sensibles du corps humain, avec de nombreux et minuscules récepteurs enfouis sous la peau et capables de détecter la pression, l’étirement ou encore les vibrations – des mécanorécepteurs. Réussir à exciter tous ces capteurs tactiles sans restreindre la mobilité de la main reste un défi pour la recherche actuelle. Avec la nécessité de concevoir des dispositifs portatifs, donc légers et peu encombrants, la conception mécanique est devenue encore plus complexe. Les gants haptiques doivent généralement utiliser l’avant-bras comme support, ce qui permet de simuler des objets préhensibles, mais pas des objets statiques. Par exemple, l’utilisateur sentira le contact des doigts saisissant une tasse virtuelle, mais il ne pourra pas poser cette tasse sur une table virtuelle : impossible de ressentir la surface et les forces de réaction exercées par cette dernière. Devant la complexité d’obtenir des sensations haptiques exhaustives, des technologies ­simplifiées ont été proposées. Les interfaces « tactiles », par exemple, ne cherchent pas à stopper le mouvement, mais simplement à stimuler certains mécanorécepteurs de la peau. La plupart des manettes de réalité virtuelle actuelles se concentrent sur ce type de retour et utilisent le plus souvent de petits actionneurs envoyant des vibrations dans la main. D’autres dispositifs tactiles vont simuler des sensations de pression, de température ou d’étirement de la peau des doigts. Notre équipe s’intéresse notamment à l’utilisation de légères stimulations électriques, transmises sur la peau par des électrodes, en vue de faire ressentir des informations de contact [1].

    Gant haptique électro-tactile. Les stimulations électriques produites au niveau des phalanges via les électrodes simulent des sensations tactiles liées à l’exploration d’objets virtuels ©Projet TACTILITY.

    Exploiter les failles de notre perception.

    Pour pallier les limites actuelles des technologies, il est également possible d’exploiter les failles de notre perception et de jouer sur des « illusions haptiques ». Ainsi, lorsqu’on appuie sur un ressort et que l’on regarde en même temps, sur un écran d’ordinateur, un piston virtuel se déformer sous cet effet, si ce dernier se modifie grandement et rapidement, on aura la sensation d’effectuer une pression sur un ressort très mou. À l’inverse, si ce même piston virtuel se déforme peu ou lentement à l’écran, on aura alors l’impression que le ressort devient particulièrement dur. En réalité, pendant tout ce temps, notre doigt comprimait le ressort avec une raideur constante ! Cette technique, baptisée « pseudo-haptique », est peu coûteuse, car elle est basée sur de simples effets visuels. Elle a pu être testée à de nombreuses reprises et a notamment fait ses preuves pour simuler la ­texture d’une image, le poids d’un objet ou encore la viscosité d’un liquide [2]. Dans certains cas, ce type d’approche représente donc une alternative très intéressante aux technologies haptiques traditionnelles et plus complexes, ou en attendant que celles-ci deviennent plus accessibles. L’objectif restant toujours de réussir à berner notre cerveau et lui faire croire à une autre réalité. Car, si généralement on « ne croit que ce que l’on voit », en réalité virtuelle, pouvoir toucher augmente d’autant la crédibilité.

    Effets visuels pour simuler des sensations tactiles sur une tablette. En jouant sur des déformations du curseur qui entoure le doigt il devient possible de simuler artificiellement le côté collant ou texturé d’une image ©Antoine Costes. Voir aussi la présentation vidéo.

    [1] S. Vizcay et al., ICAT-EGVE 2021, hal-03350039, 2021.
    [2] A. Lécuyer, Presence: Teleoperators and Virtual Environments, 18, 39, 2009.

    Justine Saint-Aubert est mécatronicienne, chercheuse postdoctorante dans l’équipe Hybrid.
    Anatole Lécuyer est informaticien, Directeur de recherche Inria, responsable de l’équipe Hybrid (Inria, université de Rennes, Insa Rennes, Irisa, CNRS).

    Pour aller plus loin:  The Kinesthetic HMD (vidéo).

  • Interfaces numériques : mille nuances de liberté

    Devant notre écran de smartphone ou d’ordinateur, nous avons souvent l’impression de nous faire influencer, embarquer, accrocher, balader, manipuler, enfermer, empapaouter peut-être,… Où est passée notre liberté de choix ? Cet article de Mehdi Khamassi nous aide à nous y retrouver. Mais attention, il ne se contente pas d’aligner quelques formules simplistes. Il fait appel à notre liberté de réfléchir. Saisissons-là ! Serge Abiteboul & Thierry Viéville.

    Toute une série de rapports et de propositions de régulations des interfaces numériques (notamment les réseaux sociaux) est parue ces derniers mois, aux niveaux français, européen et international. Un des objectifs importants est de limiter les mécanismes de captation de l’attention des utilisateurs, qui réduisent la liberté des individus en les maintenant engagés le plus longtemps possible, en les orientant subrepticement vers des publicités, ou en les incitant malgré eux à partager leurs données.

    Le rapport de la Commission Bronner considère que « ce que nous pourrions penser relever de notre liberté de choix se révèle ainsi, parfois, le produit d’architectures numériques influençant nos conduites […] se jou[ant] des régularités de notre système cognitif, jusqu’à nous faire prendre des décisions malgré nous »[1]. Le rapport du Conseil National du Numérique stipule que « par certains aspects, l’économie de l’attention limite donc notre capacité à diriger notre propre attention, et in fine, notre liberté de décider et d’agir en pleine conscience »[2]. Pour le Conseil de l’Europe « les outils d’apprentissage automatique (machine learning) actuels sont de plus en plus capables non seulement de prédire les choix, mais aussi d’influencer les émotions et les pensées et de modifier le déroulement d’une action » ce qui peut avoir des effets significatifs sur « l’autonomie cognitive des citoyens et leur droit à se forger une opinion et à prendre des décisions indépendantes »[3]. Enfin, l’OCDE considère que ces influences relèvent parfois d’une véritable « manipulation », en particulier dans le cas de ce qu’on appelle les « dark patterns », qui désignent toute configuration manipulatrice des interfaces de façon à orienter nos choix malgré nous[4]. Certains auteurs parlent même de design de produits « addictifs »[5], qui de façon similaire aux machines à sous des casinos, « enferment les gens dans un flux d’incitation et de récompense »[6], « ne laissant plus aucune place au libre arbitre individuel »[7].

    On voit donc que la préservation de l’autonomie et de la liberté de choix en conscience des utilisateurs est un des enjeux majeurs de la régulation des interfaces numériques.

    Toutefois ces discussions sont minées par le très vieux débat sur le « libre arbitre » (entendu comme « libre décret », selon les termes de Descartes). Pour certains dont la position est dite « réductionniste », celui-ci n’existe pas, car tout se réduit aux interactions matérielles à l’échelle atomique. Il n’y a donc pas de problème de réduction de liberté par les interfaces numériques puisque nous ne sommes déjà pas libres au départ, du fait du déterminisme qui résulte du principe de causalité, épine dorsale de la science[8]. Ceci conduit à un fatalisme et à une déresponsabilisation. Circulez, il n’y a rien à voir !

    A l’opposé, pour les tenants d’une position dite « libertarianiste », nous restons toujours libres puisqu’une entité immatérielle, notre âme, elle-même totalement « libre » en cela qu’elle ne subirait aucune influence externe, déterminerait causalement notre corps à agir selon notre propre volonté. Nous restons donc toujours entièrement libres et responsables de nos actes sur les interfaces numériques, et il n’y a pas lieu de les réguler. Continuez de circuler !

    Une troisième voie est possible

    Il existe pourtant une troisième voie, naturaliste[9] et ancrée dans la science, dans laquelle le déterminisme n’empêche pas une autre forme de liberté que le dit « libre arbitre ». Une forme qui préserve la responsabilité de l’humain pour ses actes et son aptitude au questionnement éthique. Il s’agit d’une liberté de penser et d’agir par nous-mêmes, selon nos déterminismes internes et moins selon les déterminismes externes. Pour simplifier, le ratio entre nos déterminismes internes et externes dans nos prises de décision pourrait ainsi définir une sorte de quantification de notre degré de liberté. Par exemple, si un stimulus externe comme la perception d’une publicité pour un produit sur Internet me pousse à cliquer dessus sans réfléchir (type de comportement qualifié de stimulus-réponse en psychologie, et que je mets dans la catégorie déterminisme externe pour simplifier), je suis moins libre que lorsque je décide sans voir de publicité qu’il est l’heure d’aller sur un site commercial car j’ai besoin d’acheter un produit en particulier (dit comportement orienté vers un but en psychologie). Je suis davantage libre dans le deuxième cas puisque ma décision est guidée par mon intention, même si des mécanismes déterministes internes à mon système nerveux m’ont conduit à formuler cette intention et à prévoir un plan d’actions en conséquence. Pourtant, il n’est pas si simple de définir ce qui est interne et qui reflèterait notre nature, et ce qui est externe. Toute chose qui nous affecte dépend à la fois de celle-ci et de ce que nous sommes (l’influence sur moi d’un stimulus tel que la photo d’un produit va dépendre de mon expérience antérieure d’interaction avec des stimuli de ce type, et de nombreux autres facteurs).

    Les dialogues les plus récents entre philosophie et science cognitives[10] montrent comment il est possible de concilier déterminisme, liberté et responsabilité. Ceci est vrai notamment dans la philosophie de Spinoza, qui considère tout d’abord que le corps et l’esprit sont deux modes d’une même substance, deux manières de décrire la même chose dans deux espaces de description différents. Autrement dit, à tout état mental correspond un état cérébral, et il n’y a pas de causalité croisée entre les deux, mais seulement des causalités à l’intérieur de chaque espace : les états mentaux causent d’autres états mentaux, et les états physiques causent d’autres états physiques. Par exemple, la sensation d’avoir faim cause la décision d’aller manger ; ce qui correspond, en parallèle, à une causalité entre une activité neurophysiologique représentant un manque d’énergie pour le corps et une autre activité neurophysiologique qui déclenche une impulsion vers les muscles.

    D’un point de vue scientifique, cela implique qu’il faut éviter de faire de la psychologie une province des neurosciences, en cherchant toutes les explications à l’échelle de l’activité des neurones. De même, toutes les propriétés du vivant ne peuvent pas être réduites aux propriétés des éléments physiques (ni même atomiques) qui le composent. D’une part, les recherches en neurosciences cognitives ont besoin de termes se référant au comportement et aux phénomènes psychologiques pour concevoir des expériences et faire sens des activités cérébrales mesurées[11]. D’autre part, si le naturalisme considère que le déterminisme causal est incontournable, cela n’implique pas nécessairement un réductionnisme. Les sciences actuelles s’inscrivent en effet dans la complexité. Les composantes d’un système complexe, les interactions entre celles-ci, ainsi que leur organisation, font émerger de nouvelles propriétés globales (causalité ascendantes) qui en retour exercent des contraintes sur l’ensemble des parties (causalités descendantes)[12]. Ainsi, il n’est pas possible de réduire les propriétés d’un système complexe aux propriétés des éléments qui le composent. C’est la notion d’émergence. Par exemple, dans un certain contexte et dans un certain état physiologique, je peux ressentir une émotion. Puis, par l’interaction avec la société, je peux mettre un mot sur cette émotion, donc mieux la catégoriser, mieux la comprendre. En retour, ma connaissance et ma compréhension du mot pourront elles-mêmes moduler l’émotion que je ressens.

    Une liberté par degrés en philosophie comme en psychologie et en neurosciences

    À partir de là, un des apports des dialogues entre philosophie et sciences cognitives consiste à souligner ce qui peut moduler ces différents degrés de liberté possibles à l’humain. Ceci nous donne des indications sur comment réguler les interfaces numériques pour favoriser la liberté plutôt que la réduire, comme c’est le cas actuellement.

    Du côté de la philosophie, Spinoza considère que la connaissance adéquate des causes qui nous déterminent augmente notre liberté. Ce n’est qu’une fois que nous savons qu’un stimulus nous influence que nous pouvons y réfléchir et décider de lutter contre cette influence, ou au contraire de l’accepter lorsqu’elle nous convient. Cela veut dire qu’il faut imposer aux interfaces numériques une transparence sur les stimuli qu’elles utilisent, les algorithmes qui les déclenchent, et les données personnelles sur lesquelles ils s’appuient. Cette transparence permettrait de favoriser notre réflexivité sur nos interactions avec l’interface. Célia Zolynski, professeur de droit à La Sorbonne Paris 1, propose même de consacrer un droit au paramétrage, que la Commission Nationale Consultative des Droits de l’Homme a soutenu[13]. Ce droit permettrait à l’utilisateur de construire son propre espace informationnel afin d’y trier les influences qui lui semblent acceptables pour lui.

    On pourrait y ajouter la possibilité de trier nos automatismes comportementaux sur les interfaces numériques. Du côté de la psychologie, on sait en effet depuis longtemps que toutes nos décisions ne sont pas toujours réfléchies ni guidées par une intention explicite, mais peuvent souvent être automatiques et du coup sujettes à davantage d’influence par les stimuli externes[14]. Par exemple, quand notre esprit critique se relâche, nous avons plus de risques de cliquer sur les publicités qui apparaissent à l’écran. Les connaissances les plus récentes en neurosciences[15] nous permettent de mieux comprendre les mécanismes neuraux par lesquels la perception de stimuli conditionnés (qui ont été associés de façon répétée avec une récompense, comme de la nourriture, du plaisir, ou une reconnaissance sociale) peuvent venir court-circuiter les réseaux cérébraux sous-tendant nos processus délibératifs, et ainsi favoriser la bascule vers des réseaux liés à un mode de contrôle plus implicite et automatique (donc souvent inconscient) de l’action.

    Nous pouvons augmenter notre liberté par le tri de nos automatismes comportementaux, pour choisir ceux que nous gardons. Par exemple, je décide d’accepter l’automatisme de mon comportement quand je trie rapidement mes messages, car c’est ce qui me permet d’être efficace et d’économiser du temps. Mais je décide de combattre mon comportement consistant à automatiquement faire dérouler le fil sans fin d’actualités sur les réseaux sociaux. Car ceci m’amène à être encore connecté sur l’interface une demi-heure plus tard, alors que je voulais n’y passer que 5 minutes.

    Enfin, il faut imposer aux interfaces de mettre en visibilité nos possibilités alternatives d’agir. En effet, la modélisation mathématique en sciences cognitives nous permet dorénavant de mieux comprendre les mécanismes cérébraux qui sous-tendent notre capacité à simuler mentalement les possibilités d’actions alternatives avant de décider. Malgré le déterminisme, grâce à la simulation mentale[16], il est possible de réduire l’influence relative des causes externes (stimuli) au profit de causes internes (notre mémoire, nos intentions ou buts, nos valeurs, notre connaissance d’actions alternatives), ces éléments internes ayant eux-mêmes des causes. C’est ce qui permet au mode intentionnel de prise de décision de s’exercer[17], par opposition aux automatismes comportementaux, et ainsi de nous rendre « libres de l’immédiateté » de l’influence des stimuli externes[18]. Une hypothèse consiste à considérer qu’en augmentant le temps de réflexion, nous augmentons la longueur et la complexité de la chaîne causale qui détermine notre choix d’action, nous pouvons par la réflexion moduler le poids relatif de chaque cause dans l’équation, et ainsi réduire l’influence relative des stimuli externes, donc être plus libres[19].

    On comprend ainsi mieux pourquoi tout ce qui, sur les interfaces numériques, opacifie ou court-circuite notre réflexivité, nous empêche d’évaluer par la simulation mentale les conséquences à long-terme de nos actions. Comme il a été souligné récemment, « ce n’est pas tant que les gens accordent peu d’importance à leur vie privée, ou qu’ils sont stupides ou incapables de se protéger, mais le fait que les environnements [numériques], comme dans le cas des dark patterns, ne nous aident pas à faire des choix qui soient cohérents avec nos préoccupations et préférences vis-à-vis de la personnalisation [des services digitaux] et de la confidentialité des données. »[20]

    Paradoxe d’une société de consommation qui exagère la promotion du libre-arbitre

    Mais la liberté ne dépend pas que de l’individu et de ses efforts cognitifs. Il est important de prendre en compte les travaux en sciences humaines et sociales (SHS), notamment en sociologie, pour comprendre les autres dimensions qui influencent nos choix, comme les interactions avec les autres utilisateurs sur Internet et le rôle de la société. C’est pourquoi il faut ouvrir davantage les données des interfaces numériques aux recherches en SHS.

    Ces réflexions à l’interface entre sciences et philosophie viennent en tout cas appuyer le constat qu’une société qui met en avant des influenceurs commerciaux et politiques, des discours simplistes, des publicités mettant en scène des stéréotypes, contribue à nous habituer à ne pas faire l’effort de sortir de nos automatismes de pensée. Cela contribue même à en créer de nouveaux, donc à nous rendre moins libres et à nous éloigner de l’idéal démocratique.

    Nous sommes face à un paradoxe : celui d’une société de consommation qui acclame le libre arbitre, célèbre notre liberté de rouler plus vite à bord de notre véhicule privatif ou d’accéder à une quantité quasi-infinie de connaissances et d’information sur Internet, et pourtant gonfle notre illusion de liberté absolue tout en orientant nos choix et en nous proposant de choisir entre des produits plus ou moins équivalents. Le business model ancré sur la publicité et la surveillance des données[21] contribue à nous rendre moins libres par ses injonctions, par la manipulation de nos émotions, par le détournement de nos données et la captation de notre attention à nos dépens. Cette année le comité du prix Nobel de la paix a observé que « la vaste machinerie de surveillance des entreprises non seulement abuse de notre droit à la vie privée, mais permet également que nos données soient utilisées contre nous, sapant nos libertés et permettant la discrimination. »[22]

    Conclusion

    Vous l’aurez compris : le déterminisme n’empêche pas l’humain de disposer d’une certaine marge de liberté dans ses décisions. Il est la cause dernière de ses choix d’actions, garde la capacité de la réflexion éthique et ne peut donc être exempté d’une responsabilité sociétale et juridique[1]. Vous avez lu cet article jusqu’au bout. (Merci !) Il y avait des causes à cela. Et votre décision d’y re-réfléchir ou pas aura elle-même des causes internes et externes. Néanmoins, chercher à mieux comprendre ces causes contribue à nous rendre plus libres. Ceci peut nous aider à entrevoir les possibilités qui s’offrent à nous pour réguler les interfaces numériques de façon à ce qu’elles favorisent la liberté de penser par soi-même plutôt qu’elles ne la réduisent.

    Mehdi Khamassi, directeur de recherche en sciences cognitives au CNRS

    Remerciements

    L’auteur souhaite remercier Stefana Broadbent, Florian Forestier, Camille Lakhlifi, Jean Lorenceau, Cyril Monier, Albert Moukheiber, Mathias Pessiglione et Célia Zolynski pour les nombreux échanges qui ont nourri ce texte

    [1] Bigenwald, A., & Chambon, V. (2019). Criminal responsibility and neuroscience: no revolution yet. Frontiers in psychology10, 1406.

    [1] Rapport de la Commision Bronner, janvier 2022.

    [2] Rapport du Conseil National du Numérique, octobre 2022.

    [3] Conseil de l’Europe (2019), Déclaration du Comité des ministres sur les capacités de manipulation des processus algorithmiques.

    [4] OECD (2022), « Dark commercial patterns », OECD Digital Economy Papers, No. 336, OECD Publishing, Paris, https://doi.org/10.1787/44f5e846-en.

    [5] Eyal, N. (2014). Hooked: How to build habit-forming products. Penguin.

    [6] Natasha Schüll (2012) Addiction by design: Machine gambling in Las Vegas. Princeton Univ Press.

    [7] Yuval Noah Harari, Homo Deus, Une brève histoire de l’avenir, Paris, Albin Michel, 2017.

    [8] Dans le paradigme scientifique, tout ce qui constitue la nature obéit à des lois. Pour que la science existe nous devons considérer que les mêmes causes produiront les mêmes effets, si toutes choses sont équivalentes par ailleurs (ce qui est forcément une approximation et une simplification car il ne peut pas y avoir deux situations strictement identiques en tout point). Ce qui signifie que nous considérons qu’il existe un déterminisme causal et que ce positionnement métaphysique n’est en aucun cas démontrable, c’est une posture. Le fait que cette posture permette d’expliquer de plus en plus de phénomènes et de comportements plaide en sa faveur sans pour autant constituer une démonstration.

    [9] C’est à dire que la nature est une, qu’elle est intelligible, et que nous pouvons l’étudier à l’aide d’une approche scientifique.

    [10] Atlan, H. (2018). Cours de philosophie biologique et cognitiviste : Spinoza et la biologie actuelle. Éditions Odile Jacob. Voir aussi Monier, C. & Khamassi, M. (Eds.) (2021). Liberté et cognition. Intellectica, 2021/2(75), https://intellectica.org/fr/numeros/liberte-et-cognition.

    [11] Krakauer, J. W., Ghazanfar, A. A., Gomez-Marin, A., MacIver, M. A., & Poeppel, D. (2017). Neuroscience needs behavior: correcting a reductionist bias. Neuron93(3), 480-490.

    [12] Feltz, B. (2021). Liberté, déterminisme et neurosciences. Intellectica, 75.

    [13] Avis de la CNCDH relatif à la lutte contre la haine en ligne du 8 juil. 2021, JORF 21 juil. 2021, proposition dont le CNNum s’est ensuite fait l’écho : CNNum, Votre attention s’il vous plaît, 2022.

    [14] Houdé, O. (2020). L’inhibition au service de l’intelligence : penser contre soi-même. Paris, Presses universitaires de France-Humensis.

    [15] Khamassi, M. (Ed.) (2021). Neurosciences cognitives. Grandes fonctions, psychologie expérimentale, neuro-imagerie, modélisation computationnelle. Éditions De Boeck Supérieur.

    [16] Exemple de simulation mentale : si je me simule mentalement réalisant une action, je peux mieux estimer dans quelle situation je vais probablement me retrouver après avoir agi. Je peux alors estimer si c’est en adéquation avec mes buts et mes valeurs, et non plus être simplement en mode stimulus-réponse.

    [17] Patrick Haggard (2008). Human volition: towards a neuroscience of will. Nature Neuroscience Reviews.

    [18] Shadlen, M. N., & Gold, J. I. (2004). The neurophysiology of decision-making as a window on cognition. The cognitive neurosciences, 3, 1229-1441.

    [19] Khamassi, M. & Lorenceau, J. (2021). Inscription corporelle des dynamiques cognitives et leur impact sur la liberté de lhumain en société. Intellectica, 2021/2(75), pages 33-72.

    [20] Kozyreva, A., Lorenz-Spreen, P., Hertwig, R. et al. Public attitudes towards algorithmic personalization and use of personal data online: evidence from Germany, Great Britain, and the United States. Humanit Soc Sci Commun 8, 117 (2021). https://doi.org/10.1057/s41599-021-00787-w

    [21] Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020.

    [22] Cités par le rapport forum info démocratie, sept 2022.

    [23] Bigenwald, A., & Chambon, V. (2019). Criminal responsibility and neuroscience: no revolution yet. Frontiers in psychology10, 1406.

  • Si binaire m’était conté

    ©Catherine Créhange pour la SIF

    Le blog Binaire est un blog invité du journal Le Monde depuis 2014. Il est intéressant de raconter comment cela a démarré, parce qu’en fait, ça a démarré avec la Société Informatique de France, la SIF. À l’époque, je venais d’être nommé président du conseil scientifique de la SIF, et un copain, David Larousserie, journaliste au Monde, est venu me voir en me disant : « On ne parle pas assez de la science informatique au Monde : est-ce que tu n’as pas envie de faire un blog invité sur ce thème ? » J’ai eu envie de répondre : « Non, merci, j’ai déjà trop de choses à faire, je ne peux pas ». Mais, je me suis dit :  « Moi non, mais peut-être que le conseil scientifique de la SIF, oui ? ». En fait, cela ne s’est pas fait avec le conseil scientifique de la SIF, mais avec un groupe d’amis. Vous en connaissez sûrement certains, comme Thierry Viéville, Marie-Agnès Enard, Pierre Paradinas, Charlotte Truchet, qui étaient là hier, et d’autres. Je vais rater des gens si j’essaie de lister tout le monde, donc je vais m’arrêter au noyau initial. Donc, une bande de copains décide de réaliser ce blog ; on assume : on n’a pas d’organisation, on est assez bordéliques, mais on fonctionne.

    Nos rapports avec Le Monde étaient très bons avec les journalistes, moins avec l’administration, parce qu’on a décidé de manière autoritaire que le journal serait en licence Creative Commons. Tous les articles peuvent donc être reproduits par qui veut à condition de nous citer. Le Monde est gentiment venu me dire : « On vous donne 50% des royalties sur la publicité, signez, en bas de cette page ! » Mais, dans le contrat, il était marqué que j’abandonnais la propriété des articles au Monde, alors j’ai dit : « Je ne peux pas vous abandonner quelque chose que je ne possède pas, c’est en Creative Commons ». Ils m’ont dit : « C’est quoi ça? On va voir avec le service juridique ». Au bout de quatre ans, ils sont revenus me voir en me disant : « Mais comment ça se fait que vous n’ayez toujours pas signé le contrat ? ». J’ai proposé de signer le contrat sauf quelques articles que je ne pouvais pas signer. Ils m’ont dit : « On va voir avec les services juridiques ». On en est là. Le bon côté, c’est qu’on est toujours en Creative Commons, le côté négatif, c’est qu’on n’a jamais touché un centime.

    Notre sujet, c’est l’informatique. Je vais vous la lire notre mission : «  L’informatique participe au changement profond du monde dans lequel nous vivons, mais qu’est-ce que l’informatique, quels sont ses progrès, ses dangers, ses questionnements, ses impacts, ses enjeux, ses métiers et son enseignement ? » C’est à cela qu’on répond. On a créé des liens. Avec )I(nterstices  (on est des fans d’Interstices), de temps en temps, on partage des articles avec eux. Avec 1024 évidemment, et avec la médiation dans la fondation Blaise Pascal… Il existe tout un écosystème sur la médiation
    en France dont on tient à être partie avec notre particularité qui est d’être un blog grand public. Notre but dans la vie, c’est que les lecteurs du Monde nous lisent régulièrement, tous les lecteurs du Monde.

    Vous allez me demander : « Combien de lecteurs du Monde vous lisent ? » Pas tous. Ça se compte en quelques milliers pour l’article de base. Pour un article plus flashy comme « Les algorithmes et la sexualité », vous passez à plusieurs dizaines de milliers. C’est un très bel article de Christos Papadimitriou. On est aussi repris ; le fait d’être Creative Commons, ça a un avantage, c’est que les gens peuvent vous reprendre. Il y a des journaux avec qui on a des affinités, comme The Conversation, que vous connaissez, qui nous reprennent régulièrement, et puis il y en a d’autres qui, des fois, nous reprennent sans nous le dire. De temps en temps, vous découvrez que vous avez été repris dans un journal X ou Y. Bon, nous, on aime ça, parce que le but, ce n’est pas notre ego, c’est qu’on parle d’informatique.

    Alors, de quoi parle-t-on ? Notre sujet fétiche, ce n’est pas surprenant, c’est la science et les techniques informatiques. Et puis, la médiation, notre but, c’est de faire comprendre ce que c’est qu’un vote électronique, ce que c’est que l’IA, ce que c’est que la 5G… Tous ces trucs-là, les expliquer dans des termes que tout le monde comprend. Régulièrement, Marie-Agnès Enard revient en nous disant : « Cet article, tu n’y es pas du tout, personne ne va comprendre ». Elle nous engueule mais c’est comme ça qu’on fonctionne. On a des rubriques culte, comme « Il était une fois ma thèse », qui reprend en particulier les prix de thèses de Gilles Kahn où on demande aux étudiants d’écrire ; « les Entretiens de Binaire », dont je vais reparler…

    Et je veux finir cette première partie sur Binaire en disant qu’essentiellement, on est une émanation de la SIF donc n’hésitez pas à nous aider. Le conseil scientifique fait beaucoup ; on a des gens qui publient régulièrement dans Binaire : Claire Mathieu, Anne-Marie Kermarrec… Nous sommes aussi des éditeurs, les petites mains. Quand on n’écrit pas, on prend les articles des autres et on les met sur le logiciel du Monde… Un logiciel qui n’est pas terrible. Il y a le travail de réécriture, de discussion avec les auteurs. Si vous avez des idées d’articles, allez-y, écrivez-nous, proposez-nous des sujets, écrivez des articles. Une autre façon de contribuer qu’on aime bien, c’est de dénoncer vos collègues : « Je partage le bureau avec Machine et elle a fait un truc super, elle aimerait bien en parler mais elle n’ose pas, elle hésite. » Balancez-la !

    On aimerait bien toucher plus de monde… Alors, je vais faire des vœux pieux : on aimerait bien avoir un public plus jeune, on ne sait pas comment faire, donc on n’hésite pas à inviter des étudiants, des lycéens à écrire. C’est rare, on ne sait pas comment les toucher. Si vous avez un moyen de nous faire rajeunir, venez. On aimerait bien aussi toucher plus de profs de collège et de lycée, une manne de personnes au contact avec beaucoup de monde, en contact avec la vraie vie. On est déçus qu’ils n’écrivent pas plus. Donc si vous pouvez nous relayer…

    Et puis, il y a des choses qu’on aimerait bien faire depuis longtemps et qu’on fait de façon homéopathique comme des podcasts. Si vous avez envie de faire un podcast régulier, venez, rejoignez-nous, lâchez-vous. Si vous voulez faire des vidéos, pourquoi pas ?

    Ça, c’était le premier sujet, Binaire, j’espère que vous avez tous compris qu’on est extrêmement demandeurs du soutien franc et massif de la communauté SIF pour écrire dans Binaire et, évidemment, pour nous lire, pour nous relayer sur les réseaux sociaux, nous faire connaître. Allez-y, faites ça, on a besoin de votre soutien !

    ©Catherine Créhange pour la SIF

    Les entretiens de Binaire…

    Les Entretiens de Binaire ont commencé pratiquement au tout début de Binaire. Le conseil scientifique a écrit un texte qui était « L’informatique : la science au cœur du numérique ». On était contents de notre texte, on l’a publié sur Binaire et on aurait pu s’arrêter là. Mais, en relisant le texte, on s’est aperçus que ce n’était pas que cela, l’informatique. C’était super bien, mais c’était l’informatique décrite de l’intérieur, comme les informaticiens la voient. C’était très large, très général, avec des frontières qui englobaient la robotique, le traitement du signal… On dirait aujourd’hui : la « science du numérique », pour faire moderne, même si je préfère le mot informatique. Et puis on s’est dit : « L’informatique, c’est aussi ses liens avec les autres  disciplines », ce dont a parlé Antoine Petit. On s’est demandé comment raconter ce lien avec les autres disciplines. Et on a lancé les Entretiens autour de l’informatique. Cela consiste à s’entretenir avec des gens qui travaillent avec l’informatique mais qui ne sont pas forcément des informaticiens : une chimiste, un biologiste, un physicien, une philosophe, des gens qui connaissent bien l’informatique mais qui ne sont pas informaticiens. On les interviewe et on leur demande de raconter les liens entre ce qu’ils font et l’informatique. Donc c’est une description un peu impressionniste de l’informatique, au lieu d’être de l’intérieur, on est un peu loin, on fait ça par petites touches, et ces touches, il y en a une quarantaine maintenant, depuis 2014. C’est des touches qui, à mon avis, décrivent l’informatique autrement mais de façon au moins aussi intéressante que le texte qu’on avait écrit entre informaticiens. Par exemple, il y a un entretien avec François Houllier, qui était le président de l’INRA, qui nous raconte ce que c’est que l’informatique en agronomie, et moi, je trouve ça passionnant. Voilà, les Entretiens de Binaire.

    Et ensuite…

    Que s’est-il passé ensuite ? Un jour, Hervé Le Crosnier qui a été professeur d’informatique dans une vie antérieure, est venu dîner à la maison ; on papotait, on avait peut-être picolé un peu trop, et il m’a dit : « Dans ma maison d’édition, C&F Éditions, je te propose de publier des Entretiens de Binaire ». J’ai répondu : « Super idée, ça me fait plaisir parce que je suis fana de ces entretiens, ça va leur donner une deuxième vie, ça va les faire lire par un autre public ». Mais je me suis aussi dit : « Une fois qu’il sera rentré chez lui, il aura oublié ».

    C’est vrai qu’il ne s’est rien passé pendant un certain temps. Et puis, je vais faire un exposé à Caen, et je tombe sur une maître de conférences, Elsa Jaubert, qui me dit : « Hervé m’a demandé de regarder les entretiens pour en publier dans un bouquin ». Et puis, il se passe encore du temps et la COVID, et Hervé me présente Coralie Mondissa qui était en train d’éditer le bouquin. C’était devenu une réalité. Donc, la bonne nouvelle, la voici : un certain nombre d’entretiens autour de l’informatique, une quinzaine, vont être publiés par C&F Éditions, une maison d’édition citoyenne.

    Je vais quand même expliquer ce que ça veut dire « une maison d’édition citoyenne ». D’abord, en voyant la liste de gens qu’ils publient, vous allez peut-être comprendre un petit peu : ils publient des gens comme Stéphane Bortzmeyer, Dana Boyd, Tristan Nitot, ou Fred Turner. Bon, ils ne publient pas Mark Zuckerberg. Leur idée, c’est de parler de culture numérique, et pas pour dire : « C’est génial, la culture numérique », mais pour en parler d’un point de vue critique, et militant. Ils ont une certaine façon de prendre des valeurs et de les défendre. Nous, ça nous va bien parce que les valeurs qu’ils défendent, ont un overlap énorme avec les valeurs que défend Binaire. Pour ceux qui lisent Binaire, vous avez dû comprendre que la science, pour nous, c’est une valeur qu’il faut défendre, la culture scientifique, c’est une valeur qu’il faut défendre, qui est un peu, de temps en temps, mise sous le tapis, et c’est quelque chose, avec la médiation, qu’il fait vraiment pousser, mais il y a d’autres valeurs, comme la parité : on a énormément d’articles là-dessus, les liens entre démocratie et numérique, etc.

    L’informatique doit servir à améliorer le monde dans lequel on vit, et ça, c’est
    une valeur que Binaire partage avec C&F Éditions, et c’est pour ça qu’on est très contents d’avoir ce bouquin qui paraît chez eux. Mais, la vraie bonne nouvelle, c’est que la SIF, dans sa grande générosité, offre un livre à chacune des personnes dans la salle. Merci la SIF. Est-ce que vous avez des questions ?

    Vous avez le droit de poser une question sur Binaire à la seule condition que vous vous engagiez à rédiger un article ou à dénoncer quelqu’un qui ferait un article. C’est comme cela que ça marche dans Binaire ! On est les rois de la délation.

    Participant au congrès : « Juste une question : Binaire, ça existe, si j’ai bien compris, depuis huit ans, et j’aimerais savoir s’il y a un, deux ou trois articles dont tu te souviens, qui ont été mémorables, qui t’ont marqué? »

    C’est une question très difficile. J’aurais tendance à parler des rubriques, parce que ce sont des lieux ou des rencontres régulières. On est très fiers de la rubrique sur les thèses. À titre personnel, ce n’est pas pour vendre ma sauce, j’ai pris un plaisir considérable à faire les Entretiens de Binaire. Il y a d’autres rubriques, comme Petit Binaire, qui explique aux enfants ce que sont certaines notions d’informatique, donc il y a un grand nombre d’articles que j’adore dans les articles de Binaire. Mais revenons sur les entretiens… Ces entretiens, j’ai quand même baigné dedans depuis plusieurs années, et je les ai vécus avec beaucoup de plaisir, mais le regard de C&F Éditions dessus était tout à fait autre. Moi, ce que je voyais là-dedans, c’était comment expliquer ce que c’est que l’informatique avec ce côté impressionniste. La façon dont Hervé l’a lu est complètement différente : « Ces gens-là ont une passion et ils partagent leur passion de l’informatique ». Cela m’a fait porter un autre regard sur ces entretiens. C’est vrai que c’est ce qui transparait, c’est la passion. Par exemple, Arshia Cont parle de musique, mais aussi d’informatique qu’il découvre et qui le passionne. En fait, ce qui est vraiment très visible dans ces articles, c’est la passion que ces gens ont pour l’informatique et pour leur discipline, que ce soit la chimie, la biologie ou autre. Les scientifiques sont des gens passionnés, c’est ce qu’on voit bien, ils ont la passion de la science. Donc finalement ce qui est mémorable, ce qui m’a marqué, c’est leur passion.

    Voilà, c’est ce que je voulais raconter, je vous remercie de votre attention.

    Serge Abiteboul, Inria et ENS

  • Mon rosbif est biaisé

    Avant de vous souhaitez de joyeuses fêtes de fin d’année, partageons cette petite fiction qui nous aide à comprendre la notion de biais des algorithmes et leurs origines possibles à travers des exemples tirés de la vie quotidienne. Nous avons emprunté cet article du  numéro 20 de 1024, le bulletin de la Société Informatique de France, qui vient de sortir. Merci à Serge Abiteboul et Julia Stoyanovich. Thierry Viéville.

    Une discrimination systématique par un algorithme est appelée un biais. Les biais peuvent avoir différentes origines, et ils correspondent tous à des situations de la vie réelle. Pour illustrer cela, pensez à cuisiner du rosbif.

    Pat décide de publier un site internet de recettes familiales en commençant par la plus populaire : le rosbif. La mère de Pat, sa sœur et son frère préparent tous le rosbif à peu près de la même manière : « comme le fait grand-mère ». Ils utilisent tous la même recette — le même algorithme. Leur choix de cuisiner le rosbif de cette manière montre une sorte de biais de familiarité — privilégiant les goûts et les expériences familiers par rapport aux nouveaux.

    Lorsqu’elle sélectionne une recette de rosbif familière de manière biaisée, Pat ne fait rien de mal — elle suit simplement une tradition familiale agréable. Mais dans d’autres cas, le biais d’habitude peut être nocif : il peut conduire à une discrimination illégale dans l’embauche, le prêt ou l’octroi d’une libération conditionnelle. Aussi inoffensive soit-elle, la recette de rosbif de la famille de Pat nous permettra de discuter différents types de préjugés.

    Comment choisir une recette de rosbif à suivre ? Commencez par sélectionner vos données d’entraînement, une recette « générique » que vous avez vu d’autres utiliser, et faites-la vôtre ! Dans le cas de Pat, le type de préjugé le plus visible vient des personnes dont elle adopte la recette : sa famille. Par exemple, au Maroc, la recette générique serait de préparer du bœuf avec du curcuma, du gingembre, du cumin et de la coriandre, ainsi que du jus de grenade. Par contre, en Alsace, la base du rossbif n’est pas du tout du bœuf, mais de la viande de cheval (ross signifie cheval en alsacien). En clair, selon les personnes qu’on choisit, on obtient des recettes différentes. La famille de Pat est plutôt traditionnelle, ils utilisent du bœuf et le garnissent de persil, de sauge, de romarin et de thym (comme dans la chanson). Le biais introduit par la sélection des données d’entraînement est parfois appelé biais préexistant, car il provient de recettes qui existaient avant que vous n’envisagiez même de faire vous-même ce rosbif.

    Une pratique s’avère assez particulière dans la famille de Pat : ils découpent des tranches aux deux extrémités du rôti avant de le mettre au four. Pourquoi font-ils cela, demande Pat ? Un cousin propose : à cause de l’oxydation du rôti aux extrémités. Un autre n’est pas d’accord : parce que nous, les enfants, aimons notre rosbif bien cuit, et les petits morceaux sont alors hyper cuits. Pat demande à sa mère, sa tante et son oncle qui répondent : nous faisons ceci parce que maman faisait cela. Alors, quand elle en a l’occasion, elle demande à sa grand-mère qui répond : ma mère faisait comme ça. Mais pourquoi ? Parce que son four était trop petit pour contenir tout le rôti. C’est ce qu’on appelle le biais technique. En informatique, un tel biais peut être introduit, par exemple, parce qu’une représentation incorrecte des données a été choisie. Et ce n’est peut-être pas si facile à détecter car les programmeurs ont toujours tendance à supposer la perfection de leur code. Ou, du moins, ils remettent rarement en question un morceau de code qui fonctionne.

    Pour introduire le dernier type de biais, revenons à l’Angleterre médiévale*. Il était une fois une ville avec deux chefs qui avaient inventé des recettes de rosbif concurrentes. Le duc qui avait entendu parler de ces deux nouvelles recettes se déplaça pour venir les déguster. Malheureusement, l’un des deux chefs eut un rhume ce jour-là. Ainsi, seul Maistre Chiquart, un chef français originaire de Lyon, put faire déguster son rosbif. Le duc l’apprécia tant qu’il l’introduisit à la cour du roi. Ce fut le début de la saga de la recette du rosbif que l’on connaît aujourd’hui, alors que la recette de l’autre chef se perdit dans l’histoire, jusqu’au nom de ce chef. Sans ce rhume ce jour fatidique, la recette de rosbif de Pat aurait peut-être été très différente. C’est ce qu’on appelle le biais émergent : plus les gens utilisent la recette de Chiquart, plus elle deviendra populaire et plus les gens l’utiliseront. Cela rendra la préparation du rosbif de plus en plus uniforme.

    Le site web de Pat n’est pas très populaire auprès des millenials, la génération Y ; beaucoup d’entre eux sont végétariens et se soucient peu de recettes de rosbif. Un biais générationnel ?

    Serge Abiteboul, Inria et ENS Paris, Julia Stoyanovich, Professeure à New York University.

    [*] Attention : cette histoire est une pure fiction. Il n’y a aucune preuve réelle que le rosbif ait été inventé par un chef français, même si cela est fort probable.

  • ePoc : des formations au numérique à portée de main

    ePoc [electronic Pocket open course] est une application mobile gratuite et open source de formation au numérique développée par Inria Learning Lab (Service Éducation et Médiation Scientifiques). L’objectif : proposer des formations au numérique à portée de main. Aurélie Lagarrigue, Benoit Rospars et Marie Collin  nous explique tout cela. Marie-Agnès Énard.

    Ce billet est publié en miroir avec le site pixees.fr.

    En parallèle des Moocs produits sur la plateforme nationale FUN, ce nouveau format de formation a été spécialement conçu pour le mobile. L’intérêt est de bénéficier de formations :
    – toujours à portée de main : dans votre poche pour une consultation hors ligne où vous voulez et quand vous voulez ;
    – plus courtes avec des contenus variés et ludiques, adaptés aux petits écrans.

    Chaque formation ePoc est développée :
    – en assurant la qualité scientifique : les contenus sont élaborés en collaboration avec des chercheurs spécialistes ou experts du domaine ;
    – en respectant la vie privée : aucune collecte de données personnelles ;
    – en proposant une attestation de réussite, que vous pouvez télécharger à la fin de la formation.

    L’application est disponible gratuitement sur Google Play et App store et accessible en Open Source.
    Pour en savoir plus et télécharger l’application.

    Vous pouvez, dès à présent, télécharger 4 ePoc (entre 1 et 2h de formation chacun) avec des parcours pédagogiques engageants et spécialement conçus pour le mobile.

    Les 4 premiers ePoc à découvrir

    • B.A-BA des data : introduire les fondamentaux indispensables relatifs aux données à travers des activités simples et variées
    • Vie Privée et smartphone : découvrir l’écosystème des applications et leur usage des données personnelles
    • Internet des objets et vie privée : comprendre les implications liées à l’usage d’objets connectés dans la maison dite intelligente.
    • Smartphone et planète : identifier les impacts du smartphone sur l’environnement grâce à 3 scénarios illustrés : Serial Casseur, Autopsie d’un smartphone, La tête dans les nuages.

    Vous faites partie des premières et premiers à découvrir cette application, n’hésitez pas à faire part de vos avis (ill-ePoc-contact@inria), cela aidera à améliorer l’application.

    Voici en complément cette petite présentation vidéo:

    Belle découverte de l’application ePoc et de ses contenus !

    L’équipe conceptrice.

  • De la réalité augmentée au CERN

    Pour bien comprendre des données, les représenter visuellement est une approche bien connue ; nous avons par exemple appris au lycée comment représenter une fonction mathématique à l’aide d’une courbe pour pouvoir l’étudier. Pour appréhender des données très complexes, il existe beaucoup de méthodes et de recherches – regroupées dans un domaine baptisé Visualisation de données (DataViz en anglais) – parmi lesquelles  le potentiel de la réalité augmentée n’est pas négligeable. Dans cet article, Xiyao Wang et Lonni Besançon nous décrivent le prototype qu’ils ont développé et testé conjointement avec des physiciens du CERN, le célèbre laboratoire de physique des particules. Pascal Guitton.

     

    Image 1: Une utilisatrice portant un casque de réalité augmentée. Photo by Barbara Zandoval on Unsplash.

    La réalité virtuelle (RV) nous permet de faire l’expérience de mondes remarquablement immersifs. Ces environnements peuvent être attrayants et promettent de faciliter les tâches qui exigent un haut degré d’immersion – l’état psychologique que les utilisateurs ressentent lorsqu’ils sont plongés dans un environnement qui diffuse des stimuli en continu [1] – dans leur contenu tridimensionnel.

    Par rapport aux environnements RV totalement immersifs, la réalité augmentée (RA) offre de nouvelles possibilités, en plus de permettre des vues immersives de données stéréoscopiques en 3D. Tout d’abord, la RA ne transporte pas les utilisateurs dans un monde entièrement virtuel mais les laisse dans un environnement réel, ce qui leur permet d’interagir avec des objets habituels  tels que les dispositifs d’entrée traditionnels (par exemple, la souris). Les utilisateurs ne sont donc pas obligés d’utiliser des périphériques dédiés (par exemple, une baguette, un contrôleur 3D) comme dans la plupart des environnements RV, ce qui réduit les coûts d’apprentissage et offre un grand potentiel d’intégration des nouveaux environnements aux outils existants. Ce dernier point est essentiel car les scientifiques travaillant avec des données complexes ont tendance à s’en tenir aux outils d’analyse existants sur PC et hésitent à passer à de nouveaux outils, comme l’ont montré des travaux de recherche antérieurs [2].

     

    Afin de comprendre le cas d’utilisation potentielle de combinaison de la RA avec les outils d’exploration des données sur PC, nous avons mis en œuvre un prototype pour servir d’outil initial que nous pouvons tester avec des scientifiques étudiant des données complexes [3]. L’objectif est d’essayer de favoriser l’utilisation d’environnements immersifs par les scientifiques en les combinant à des environnements classiques.. Nous avons décidé de collaborer avec des chercheurs du CERN afin d’évaluer ce prototype. Nous ne l’avons pas développé pour remplacer les logiciels et les paramètres existants en termes de convivialité, de détails d’interaction ou de puissance de calcul, qui sont absolument nécessaires aux physiciens du CERN et qui évoluent rapidement selon eux, mais ce ne sont pas les points qui nous intéressent dans ce travail. Notre objectif était de voir comment combiner l’avantage d’un environnement de travail classique avec un environnement immersif, particulièrement intéressant pour l’analyse de données spatiales ou multi-dimensionnelles. 

     

    Notre prototype est donc décomposé en deux parties: la première sur un PC et la seconde sur un casque HoloLens,  toutes deux inspirées des environnements de travail habituels des physiciens des particules avec qui nous avons collaboré. Nous avons utilisé la métaphore d’un environnement à deux écrans, dans lequel le contenu de chacun d’entre eux peut être défini individuellement et la souris peut se déplacer d’un écran à l’autre (ce qui est maintenant classique dans beaucoup de métiers). Nous remplaçons dans notre prototype l’un de ces écrans par l’environnement de RA (Image 2). Les utilisateurs peuvent rester assis et continuer à travailler avec leurs outils traditionnels sur leur PC ou leur ordinateur portable, mais ils peuvent également passer à l’environnement de RA en cas de besoin et revenir au PC à tout moment. La communication entre les deux environnement est basée sur le WiFi en utilisant le protocole UDP. Cette communication est également bidirectionnelle : les interactions qui se produisent dans l’environnement de RA sont transmises au PC et vice-versa. Dans ce prototype, chaque environnement présente le même jeu de données, mais les vues et analyses sont configurables par les utilisateurs. De cette façon, notre prototype permet aussi de combiner plusieurs techniques d’intéractions natives à chacun des environnements. Les chercheurs peuvent ainsi sélectionner certaines parties de leurs données via des visualizations interactives sur l’écran 2D, ou bien recourir à une sélection basée sur la position et configuration spatiales des données dans l’environnement de réalité augmentée.

     

     

    Image 2: Vue de l’écran d’analyse avec son extension en réalité augmentée.

    Bien qu’il existe aujourd’hui de nombreuses façons d’interagir avec un Hololens (mains, gants, smartphones… ), nous avons décidé de permettre aux physiciens d’utiliser la souris. Lorsque la souris quitte les bords de l’écran, nous avons choisi de permettre aux physiciens d’interagir avec l’Hololens en cliquant sur la touche Shift de leur clavier. La souris se déplace alors en 2D de façon classique, et le scroll peut être utilisé pour manipuler une troisième dimension via la souris.

    Nous avons évalué ce prototype et ses capacités avec 7 chercheurs du CERN. Notre protocole d’évaluation était principalement centré sur une observation des 7 chercheurs pendant la conduite d’une tâche d’analyse représentative de leur travail. Durant cette tâche, il leur était demandé de penser à voix haute afin que nous puissions prendre notes de leurs commentaires. Une fois la tâche achevée, nous leurs demandions de répondre à plusieurs questions notamment en termes de préférences sur les combinaisons possibles entre RA et moniteurs. L’objectif premier de cette évaluation était de comprendre le potentiel, les intérêts, et les soucis de notre approche lorsqu’on la compare aux outils que les chercheurs du CERN utilisent actuellement. De cette évaluation ressort que les physiciens des particules ont bien apprécié et compris l’utilité d’un environnement d’analyse de données hybride, entre immersif et station de travail et préfèreraient, dans l’ensemble, ce genre d’environnement à un environnement unique. L’environnement immersif a bel et bien été perçu comme une extension de l’écran 2D, ajoutant des possibilités d’analyse exploratoire des données. Qui plus est, l’environnement 3D permet aussi d’étendre l’environnement de travail de façon infinie et non contrainte contrairement à un écran supplémentaire. 

    Bien que les environnements immersifs (RV et RA) soient aujourd’hui prêts à l’emploi, leur intégration avec des outils plus classiques est encore très peu explorée. Les possibilités de combinaison sont multiples et ces travaux présentent seulement une de ces nombreuses possibilités. Cependant, la validation de cette possibilité par des physiciens des particules du CERN nous montre bien le potentiel de ce genre de solution de travail hybride. 

    [1] Witmer, Bob G., and Michael J. Singer. « Measuring presence in virtual environments: A presence questionnaire. » Presence 7.3 (1998): 225-240. https://doi.org/10.1162/105474698565686 

    [2] Lonni Besançon, Paul Issartel, Mehdi Ammi, Tobias Isenberg. Hybrid Tactile/Tangible Interaction for 3D Data Exploration. IEEE Transactions on Visualization and Computer Graphics, Institute of Electrical and Electronics Engineers, 2017, 23 (1), pp.881-890. https://doi.org/10.1109/TVCG.2016.2599217 

    [3] Xiyao Wang, David Rousseau, Lonni Besançon, Mickael Sereno, Mehdi Ammi, Tobias Isenberg. Towards an Understanding of Augmented Reality Extensions for Existing 3D Data Analysis Tools. CHI ’20 – 38th SIGCHI conference on Human Factors in computing systems, Apr 2020, Honolulu, United States. https://doi.org/10.1145/3313831.3376657 

     

  • Des algorithmes pour la chasse à la fraude scientifique?

    Guillaume Cabanac est un chercheur en informatique à l’Université Paul Sabatier et membre junior de l’Institut universitaire de France (IUF). Il se spécialise dans l’analyse de texte et a fait partie, en 2021, de la liste des top 10 chercheurs de Nature pour son travail permettant de détecter des articles scientifiques frauduleux. Son travail est essentiel pour la crédibilité et la robustesse des processus scientifiques. Dans cet entretien, Guillaume nous explique comment il est en est arrivé à travailler sur ce sujet ainsi que le fonctionnement de son programme pour détecter les articles frauduleux.

     

    Binaire : Peux-tu nous présenter ton parcours et ce qui t’a poussé à chasser la fraude scientifique ?

    Guillaume : Mon choix de parcours était partagé. D’une part, je voulais faire un Bac L. parce que la littérature me plaisait. D’autre part, je voulais être informaticien. C’est finalement grâce à un ami de mon père, un ingénieur, qui un jour m’a expliqué : « Écoute ton but c’est d’être informaticien . Les lettres te plaisent beaucoup mais tu sais que tu pourrais en faire ton hobby pendant ton temps libre… » que j’ai finalement opté pour un Bac S et plus tard pour un DUT car mes parents, qui n’ont pas été à l’université, étaient un peu inquiets que je m’oriente pour la fac. J’ai fait deux ans à l’IUT mais j’ai de suite su que l’entreprise n’était pas pour moi. Franchement j’étais même un peu stressé parce qu’il fallait faire un stage de DUT assez long, au total plus de dix semaines. Et je cherchais, mais sans trouver. Je regardais mes professeurs  en cours, (ceux que j’avais étaient vraiment sympathiques), ils étaient investis, motivés. Puis, je les voyais dans leurs bureaux, ils travaillaient sur des projets intéressants.  Et moi, je me suis complètement projeté là-dedans. Je leur ai dit : “Mais ça a l’air trop bien ce boulot. Que faut-il faire pour y parvenir ?” Ils m’ont répondu : une thèse.

    C’est donc ce que j’ai commencé à vouloir faire. J’ai finalement fait mon stage dans le laboratoire d’informatique à l’université Paul Sabatier de Toulouse, où j’étudiais. J’ai appris à connaître cet univers, à voir les collègues sous leurs deux facettes, les enseignants qui sont aussi chercheurs. J’ai participé à quelques séminaires et j’ai aimé cet univers. C’était tellement super. Et je me suis dit que c’était vraiment ce que je voulais faire.
    Je suis alors parti en thèse et j’ai été recruté juste après l’obtention de mon doctorat. J’ai eu la chance d’avoir un recrutement post-thèse. Je suis un « pur produit » de l’université Paul-Sabatier de Toulouse et je pense que c’est vraiment « une espèce en voie d’extinction ». Récemment, il a été question d’imposer lors des recrutements de Maître de conférences à l’IRIT une mobilité obligatoire entre la soutenance du doctorat et le recrutement. J’espère donc ne pas être une «disgrâce »pour l’université.

    Quand je me suis présenté pour l’audition, on m’a demandé si je ne voulais pas “aller un peu à l’étranger, voir comment ça marche ailleurs, créer des liens, etc.”
    J’ai expliqué qu’ayant une famille je ne voulais pas, et que je souhaitais également favoriser un poste stable plutôt qu’un poste précaire. D’autant plus qu’après l’obtention d’un poste stable , j’aurais tout le temps de créer des liens et des connections avec d’autres collègues. Pour moi c’était soit j’étais pris en poste en France dans l’univers académique, soit j’irais dans l’industrie (où je ne tenais vraiment pas aller) car je ne voulais pas demander à ma famille de faire des sacrifices pour ma carrière. Je me disais également que si je ne trouvais pas un poste académique à Toulouse, je me consacrerai à la recherche le week-end, pendant mes temps libres et à toutes mes heures perdues car j’adore la recherche. Déjà à l’époque, j’avais compris que je pouvais faire des choses, même sans argent.

    Binaire : à quel moment t’es-tu intéressé à ces problèmes de fraude, de fake papers ?

    Guillaume : Je suis dans le domaine des systèmes d’information et plus précisément dans mon équipe nous travaillons sur le texte, le texte sur le web par exemple. J’étais captivé par l’idée travailler sur la littérature scientifique, parce que c’est un domaine très hétérogène. Il y a de la masse, il y a des réseaux de citations, d’auteurs, d’affiliations. C’est « un tout-en-un », et donc un super matériau d’étude. Par ailleurs, j’ai commencé un livre sur la science de la science, la scientométrie. Je suis allé frapper à la porte du bureau d’une sociologue d’un département proche du mien. Elle m’a accueilli à bras ouverts avant de commencer une discussion sur les sujets qui nous intéressaient tous les deux. Elle m’a proposé ensuite de rejoindre le projet ANR qu’elle venait de décrocher et de me joindre tous les vendredis au séminaire de sociologie des sciences. J’ai suivi les cours de Yves Gingras et qui est un scientomètre très réputé mais qui reste très simple, humble, et disponible. Cette nouvelle immersion dans la sociologie m’a fait réaliser qu’il est possible de ne pas faire que de la recherche en profondeur que sur un seul sujet mais qu’on peut être curieux et s’intéresser à plusieurs domaines et explorer la largeur des connaissances scientifiques (même si cela pose encore des soucis en terme de carrière).  J’ai aussi été exposé à des théories de sociologie des sciences qui ont formé mes intérêts et notamment les normes CUDOS de la science selon Merton. Il y définit notamment que la science doit être “Désintéressée” en ce sens que le chercheur ne doit pas faire ça pour être reconnu ou gonfler son h-index mais pour servir la société, et qu’elle doit se conformer au “Scepticisme Organisé” car les résultats sont soumis à un examen critique avant d’être acceptés et peuvent toujours être remis en cause.

    En réalité ces deux derniers piliers, désintéressement et scepticisme organisé, sont les deux piliers qui sont attaqués par ce sur quoi je travaille aujourd’hui.
    Le désintéressement est mis à mal lorsque des fraudeurs essaient, pour progresser, pour être promus, de publier de fausses études pour gonfler leurs métriques. Ils sont tout sauf désintéressés. Et il y a également le scepticisme organisé qui s’effrite de nos jours. On voit en effet des comités éditoriaux de revues scientifiques qui comprennent des ‘gatekeepers’ qui devraient protéger la science. Or ces ‘boards’ actuellement ne fonctionnent pas correctement. Cela peut s’expliquer parce qu’en 20 ans le nombre de revues scientifiques qui existent et sont actives a été multiplié par deux. Ces deux phénomènes, en parallèle, font qu’il y a des fraudeurs qui produisent, avec des techniques informatiques des papiers « bidons » qu’ils envoient à certaines revues. Sur les 40 000 revues qui existent dans le monde il n’y en qu’une cinquantaine qui sont ainsi affectées.

    Dans nos travaux avec Cyril Labbé et Alexander Magazinov, nous ne parlons pas des revues prédatrices, nous parlons des revues, de la “haute couture”, des revues qui ont un impact factor chez Springer ou chez Wiley par exemple. Nous travaillons, ensemble, sur cette détection de papiers « bidons ». C’est du travail volontaire sur Zoom, en pleine pandémie, poussés par l’intérêt intellectuel. Il y a également cette prise de conscience que ce que l’on trouve, via nos travaux, est important pour la communauté scientifique.

    Binaire : Quel genre de fraude peut être détectée par l’outil que vous avez développé tous les trois ?

    Guillaume : Pour expliquer comment fonctionne notre outil et ce qu’il détecte, j’aime utiliser une métaphore liée au crime. Ce que nous avons créé c’est un logiciel qui agit comme un indic ; il va d’abord fureter et mettre son nez partout et ensuite il va aller voir le commissaire de temps en temps pour lui dire : “Tu devrais aller voir ça parce que là, c’est louche.” Le commissaire et ses détectives vont pouvoir cibler un individu particulier dans la ville. Imaginons que dans cette ville il y est 16 000 personnes, grâce à l’indic il saura que c’est cette personne sur les 16 000 qui est intéressante à surveiller. En fait, en science, il y a beaucoup de gens qui sont prêts à aider à débusquer et expliquer les problèmes de certaines publications scientifiques. Mais, sans outils, à l’image du commissaire, sans les renseignements d’un indic, ils ne savent pas où regarder. Des publications indexées dans “Dimensions” par exemple, il y en a 120 000 000, et environ 6 000 000 par an, ce qui fait 16 000 par jour, un nombre bien trop conséquent pour que chacune soit passée à la loupe. Tout comme le commissaire, les scientifiques ne peuvent pas surveiller 16 000 choses différentes par jour. Je me suis dit que j’allais créer un logiciel qui aide à savoir où regarder. Le logiciel passe au peigne fin l’ensemble de la littérature scientifique en cherchant ces fameuses ‘tortured phrases’, les expressions torturées. Les expressions torturées sont le résultat d’une tentative de manipulation de la part des fraudeurs.

    Maintenant il faut comprendre le principe du paper mill. Un paper mill, c’est une entreprise, bien souvent en Chine et en Inde, qui vend des articles préparés sur commande. Il faut savoir qu’un scientifique est soumis à l’évaluation par son organisme de recherche qui lui demande d’atteindre des quotas. Par exemple, dans l’équivalent des CHU en Chine, il faut faire, comme en France, de l’enseignement, de la recherche et aussi opérer. Et peut être encore plus qu’en France, il faut atteindre ces quotas, autrement on est licencié. Il y a donc des personnels des hôpitaux qui vont voir les paper mills et contre de l’argent, ils vont faire fabriquer un article. La commande ressemble à quelque chose comme “Moi, je travaille sur le rein, il faudrait tester l’effet de telle protéine sur le rein et reporter les résultats.” Les paper mills, bien qu’on puisse penser qu’ils sont formés en science, ne sont tout de même pas des chercheurs. Ce qu’ils font, vraisemblablement, c’est une sorte d’état de l’art ou ils trouvent des articles intéressants sur le thème imposé. Ne sachant pas faire un vrai état de l’art, bien réfléchi et bien articulé, ils font ce qu’on appelle un lazy survey, c’est-à-dire qu’ils vont dire “X a fait ça”, “Y a fait ça”, “Z a fait ça”. Les paragraphes qu’ils écrivent commencent comme ça avec la citation de l’article suivi d’un copié paraphrasé collé du résumé de l’article cité. Pourquoi pas un copié/collé directement ? Parce que les maisons d’édition ont des logiciels détecteurs de plagiat. Les paper mills utilisent une technique qui va remplacer les mots par des synonymes. Donc pour « cancer du sein », le logiciel pioche un synonyme pour “cancer”, par exemple “péril”, et un synonyme pour “du sein”, par exemple “poitrine”. On obtient donc “péril de la poitrine” pour remplacer “cancer du sein”. De la même façon, “Intelligence artificielle”, devient “conscience contrefaite”. Une publication de ‘paper mills’ pourra donc contenir une phrase telle que “La voiture autonome dans la ville se guidera par sa conscience contrefaite.”

    Ces phrases torturées, nous en avons trouvées quelques-unes au début avec mes deux collègues et nous avons pioché des articles qui les contenaient. Une forme de ‘grep’ généralisé sur toute la littérature. Et en lisant les paragraphes qu’il y a autour, nous pouvions trouver de plus en plus de phrases torturées. Par effet boule de neige, nous les ajoutions dans une liste et avant de recommencer le processus entier. Et notre logiciel Problématic Paper Screener (PPS), remontait donc de plus en plus d’articles de recherche à chaque fois. En résumé, PPS est finalement cet indic qui va lister les papiers candidats à ce qu’on appelle une “réévaluation par des humains”. Par exemple, un article qui en contient sept, il n’y a aucun doute sur le fait qu’il est issu d’un ‘paper mill’ et nous invitons la communauté scientifique, via le site de PPS, à regarder les phrases torturées, prendre un screenshot et apporter la preuve du problème et le poster sur Pubpeer, la plateforme de relecture post publication.

    Mon cas est typique, je ne suis pas expert biomédical mais j’arrive quand même à lire les papiers qui sont remontés par notre logiciel et signaler les phrases torturées.
    Mais le détail de la science et les problèmes dans la science biomédicale c’est un autre sujet, qui est lui bien complexe. Je poste donc sur Pubpeer le papier concerné et les experts qui ne savaient pas où regarder, pour aider à protéger la science, peuvent commencer là car ils le voient sur la file d’accueil de Pubpeer. Et si on trouve des phrases torturées dans l’état de l’art et que le papier expose une expérience ou des études on peut être quasi sûr que les experts du domaine vont pouvoir trouver beaucoup d’autres problèmes. De façon simplifiée, par exemple, ils diront étudier 18 souris et en faire deux groupes. Chaque groupe devrait donc contenir 9 souris. Cependant, en lisant l’article, on observe qu’il y a en fait un groupe qui en contient 7 et l’autre 4. Bien évidemment, les problèmes sont en réalité plus complexes, mais les scientifiques du domaine peuvent plus facilement disséquer tous les problèmes de ces articles, les poster sur Pubpeer et contacter les éditeurs qui ont publié les articles en joignant les preuves qu’ils ont accumulé pendant leurs investigations. Via notre outil, nous sommes depuis rentrés en contact avec d’autres whistleblowers qui ont des informations importantes sur ce business de la fausse publication scientifique mais qui restent anonymes car ils sont menacés ; mais nous aident à découvrir et à signaler d’autres pratiques problématiques. Par contre, nous voulions être certains de ne pas avoir toute la reconnaissance pour nous, donc dans notre logiciel du Problematic Paper Screener, il y a une colonne en plus pour préciser qui a signalé ça sur Pubpeer et on peut ensuite dans le logiciel faire remonter tous les post Pubpeer qui contiennent une phrase torturée et remonter qui en est à l’origine.

    Binaire : Quand on regarde de plus près, l’approche que tu as à toi, qui est beaucoup plus automatisée, elle apparait comme assez complémentaire de ce que fait Elizabeth Bik qui est plutôt à regarder elle-même, apparemment manuellement, les articles pour chasser les duplications d’images, les Photoshop “maladroits” ; on pourrait imaginer que les approches automatisées soient plus efficaces qu’une approche humaine. Est-ce que tu penses qu’on peut automatiser d’autres tâches que celles que vous avez voulues automatiser ? 

    Guillaume : Il y a des collègues qui travaillent sur le p-hacking depuis au moins les années 2013. Ils ont conçu des approches pour aller identifier les différents paramètres utilisés dans les tests statistiques qui relancent le calcul et qui comparent avec ce que les chercheurs ont reporté dans le papier. ‘Statcheck’, par exemple, fais ce genre de vérification.

    Il y a beaucoup de personnes qui travaillent sur cette détection d’erreurs. Ce sont des problèmes reconnus qui sont à la fois sur les erreurs ou alors sur des approches à améliorer. Par exemple, il y a une personne qui travaille sur un logiciel qui va détecter des couleurs dans les figures qui ne sont pas perceptibles par des personnes qui sont atteintes de déficience visuelle. Et certains de ces outils automatiques ont déjà été développés plus en profondeur et intégrés par des maisons d’éditions. Ça n’est pas le cas du Problematic Paper Screener, car, même si les maisons d’édition sont intéressées, ça n’est pas ce qui nous intéresse nous.

    Binaire : Est-ce que tu vois des limites directes dans l’approche que vous avez mise en place, par exemple sur les faux positifs ?

    Guillaume : C’est quelque chose que nous avons regardé. L’exemple c’est l’utilisation du terme « acknowledgement » dans une phrase torturée mais qui apparait aussi dans la section remerciements (acknowledgments en anglais) d’un article. Alors dans ces cas-là, nous utilisons d’autres informations pour déterminer si l’article est problématique. Par exemple si c’est un article qui date d’une époque où les paper mills n’existaient pas, il est facile d’éliminer cet article. Il y a beaucoup d’autres sortes de vérifications assez simples. En revanche, on sait que si un article compte au moins deux phrases torturées repérées par notre logiciel, il n’y a quasiment jamais de faux positifs. En fait les seuls faux positif, pour le moment, ce sont nos propres papiers sur les phrases torturées, puisqu’ils contiennent ces expressions problématiques. Nous pensions en avoir trouvé un dans Nature, mais c’était en fait un article dans Nature qui parlait de notre travail.

    Une limite de notre système, c’est que notre analyse repose sur du travail manuel. On ne veut pas essayer de trouver de façon automatique plus de phrases torturées parce qu’il y aurait beaucoup de  bruit et donc potentiellement beaucoup plus de faux positifs. On pourrait imaginer utiliser un algorithme qui détecterait des nouvelles expressions dans des articles, mais ça produirait certainement beaucoup de bruit. Ça ne veut pas dire qu’il ne faut pas essayer de le faire, mais ça n’est pas notre idée initiale, ou notre intérêt direct pour le moment.

    Binaire : Suite à votre travail à tous les trois, est-ce qu’il y a un risque que les techniques pour écrire ces articles frauduleux en fait, deviennent meilleures ?

    Guillaume : C’est certain. Ce qui a fait beaucoup de bruit récemment c’est le fait qu’on a trouvé une revue scientifique très problématique avec un très grand nombre d’articles problématiques et Elsevier a fini par rétracter 400 articles scientifiques. Mais, au départ, c’était pourtant une revue très sérieuse qui avant 2019 publiait beaucoup d’articles du CNRS et qui, d’un coup, s’est mise à publier de plus grands nombres d’articles de façon plus rapide. Nous n’avons pas détecté ça via les phrases torturées mais via un screening des abstracts des articles pour détecter le langage synthétique, c’est à dire le langage généré automatiquement par des outils comme GPT 2.
    Mais ce que l’on détecte avec les phrases torturées, ça n’est que la partie visible de l’iceberg ; celle qu’il est facile de trouver. La fraude plus élaborée on ne l’a pas encore trouvée, par exemple simplement les articles générés par GPT-3. Il suffit de donner à GPT-3 un début cohérent d’article, et en appuyant sur tabulation, l’algorithme écrit le reste de façon crédible. Ça ne veut pas dire grand chose sur le fond c’est vrai mais ça peut quand même être publié dans des revues sérieuses. Si le reviewer est un expert du domaine mais qu’il n’a pas le temps et donne la relecture à ses étudiants, si la personne, junior ou non, n’ose pas dire qu’elle ne comprend pas… l’article peut être publié, et c’est l’ensemble du processus scientifique qui est danger. Les conséquences ne sont pas forcément dramatiques, mais c’est quand même de l’argent de recherche qui a été gaspillé. C’est quand même du temps qui a été gaspillé car certains chercheurs pourraient lire des papiers frauduleux et s’appuyer sur leurs résultats pour faire avancer un peu plus la science et finalement gaspiller leur temps, argent, ou matériaux à cause de ça.

    Disclaimer : cet entretien a été réalisée par Lonni Besançon qui fait partie du “Collège Invisible”, un groupe informel de détectives scientifiques, initié par Guillaume Cabanac.