• Le métavers, quels métavers ? (2/2)

    En octobre 2021, Facebook a annoncé le développement d’un nouvel environnement virtuel baptisé Metaverse. Cette information a entrainé de très nombreuses réactions tant sous la forme de commentaires dans les médias que de déclarations d’intention dans les entreprises. Comme souvent face à une innovation technologique, les réactions sont très contrastées : enfer annoncé pour certains, paradis pour d’autres. Qu’en penser ? C’est pour contribuer à cette réflexion que nous donnons la parole à Pascal Guitton et Nicolas Roussel. Dans un premier article, ils nous expliquaient de quoi il s’agit et dans celui-ci ils présentent des utilisations potentielles sans oublier de dresser une liste de questions à se poser.
    Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation 

    Pourquoi et pour quoi des métavers ?

    Comme souvent dans le domaine des technologies numériques, on entend dans les discussions sur les métavers des affirmations comme « il ne faudrait pas rater le coche » (ou le train, la course, le virage, le tournant). Il faudrait donc se lancer dans le métavers uniquement parce que d’autres l’ont fait ? Et s’ils s’y étaient lancés pour de mauvaises raisons, nous les suivrions aveuglément ? On pourrait aussi se demander si la direction qu’ils ont prise est la bonne. Autre interrogation plus ou moins avouée, mais bien présente dans beaucoup d’esprits : qu’adviendrait-il de nous si nous ne suivions pas le mouvement ? Finalement, est-ce que la principale raison qui fait démarrer le train n’est pas la peur de certains acteurs de le rater ?

    Pourquoi (pour quelles raisons) et pour quoi (dans quels buts) des métavers ? Les motivations actuelles sont pour nous liées à différents espoirs.

    Le métavers, c’est l’espoir pour certains que la réalité virtuelle trouve enfin son application phare grand public, que ce qu’elle permet aujourd’hui dans des contextes particuliers devienne possible à grande échelle, dans des contextes plus variés : l’appréhension de situations complexes, l’immersion dans une tâche, l’entrainement sans conséquence sur le monde réel (apprendre à tailler ses rosiers dans le métavers comme on apprend à poser un avion dans un simulateur), la préparation d’actions à venir dans le monde réel (préparation d’une visite dans un musée), etc.

    C’est l’espoir pour d’autres d’une diversification des interactions sociales en ligne (au-delà des jeux vidéo, réseaux sociaux et outils collaboratifs actuels), de leur passage à une plus grande échelle, de leur intégration dans un environnement fédérateur. C’est l’espoir que ces nouvelles interactions permettront de (re)créer du lien avec des personnes aujourd’hui isolées pour des raisons diverses : maladie ou handicap (sensoriel, moteur et/ou cognitif), par exemple. Des personnes éprouvant des difficultés avec leur apparence extérieure dans le monde réel pourraient peut-être s’exprimer plus librement via un avatar configuré à leur goût. Imaginez un entretien pour une embauche ou une location dans lequel il vous serait dans un premier temps possible de ne pas dévoiler votre apparence physique.

    C’est aussi l’espoir d’un nouveau web construit aussi par et pour le bénéfice de ses utilisateurs, et non pas seulement celui des plateformes commerciales. Au début du web, personne ne savait que vous étiez un chien. Sur le web d’aujourd’hui, les plateformes savent quelles sont vos croquettes préférées et combien vous en mangez par jour. Dans le métavers imaginé par certains, personne ne saura que vous n’êtes pas un chien (forme choisie pour votre avatar) et c’est vous qui vendrez les croquettes.

    C’est enfin — et probablement surtout, pour ses promoteurs actuels — l’espoir de l’émergence de nouveaux comportements économiques, l’espoir d’une révolution du commerce en ligne (dans le métavers, et dans le monde réel à travers lui), l’espoir d’importants résultats financiers dans le monde réel.

    Tous ces espoirs ne sont évidemment pas nécessairement portés par les mêmes personnes, et tous ne se réaliseront sans doute pas, mais leur conjonction permet à un grand nombre d’acteurs de se projeter dans un espace configuré à leur mesure, d’où l’expression d’auberge espagnole qu’utilisent certains pour qualifier les métavers

    Qu’allons-nous faire dans ces métavers ?

    « La prédiction est très difficile, surtout lorsqu’il s’agit de l’avenir ». A quoi servira le métavers ? Des communautés spirituelles prévoient déjà de s’y rassembler. On peut parier qu’il ne faudra pas longtemps pour que des services pour adultes s’y développent  ; on sait bien qu’« Internet est fait pour le porno », et la partie réservée aux adultes de Second Life était encore récemment active, semble-t-il. Au-delà de ces paris sans risque, essayons d’imaginer ce que pourraient permettre les métavers…

    Imaginez un centre-ville ou un centre commercial virtuel dont les boutiques vous permettraient d’accéder à des biens et services du monde virtuel et du monde réel. Dans une de ces boutiques, vous pourriez par exemple acheter une tenue pour votre avatar (comme un tee-shirt de l’UBB Rugby), qu’il pourrait dès lors porter dans toutes les activités possibles dans le métavers (rencontres entre amis, activités sportives ou culturelles, mais aussi réunions professionnelles). Dans une autre boutique, vous pourriez choisir et personnaliser une vraie paire de chaussures qui vous serait ensuite livrée à domicile dans le monde réel.

    Quelle différence avec les achats en ligne d’aujourd’hui ? Vous pourriez être assistés dans les boutiques du métavers par des personnages virtuels, avatars d’êtres humains ou d’intelligences artificielles. Vous pourriez vous y rendre accompagnés, pour faire du shopping à plusieurs ou vous faire conseiller par des proches. Vous pourriez aussi demander conseil à d’autres « clients » de la boutique qui la visiteraient en même temps que vous. Dans les boutiques où en passant de l’une à l’autre, il vous serait possible de croiser des personnes de votre connaissance (du monde réel ou virtuel) et interagir avec elles.

    Le centre commercial évoqué proposerait les grandes enseignes habituelles, mais vous auriez la possibilité de le personnaliser en y intégrant vos artisans et petits commerçants préférés, comme cette brasserie artisanale découverte sur un marché il y a quelque temps. Quel intérêt pour vous et pour elle ? La boutique dans le métavers serait un lieu de rencontre, d’échanges et de commerce, au même titre qu’un étal sur un marché, mais sans les contraintes de jour et d’heure, sans les contraintes logistiques, sans la météo capricieuse, etc. Il y a bien sur de nombreuses choses du monde réel qu’on préfèrera voir, goûter ou essayer avant d’acheter. Il y en a aussi de nombreuses qu’on peut acheter sans discuter, « les yeux fermés », ce qui fait le succès des courses en ligne livrées en drive ou à domicile. Mais pour certaines choses, le métavers pourrait offrir une expérience plus riche que le commerce en ligne actuel et moins contraignante que les formes de commerce physiques.

    Le métavers pourrait vous offrir la possibilité d’organiser vous-même vos activités collectives. Vous voulez revoir vos oncles, tantes, cousins et cousines perdus de vue depuis des lustres ? Vous ne voulez pas faire le tour de France et ne pouvez pas loger tout ce monde ? Organisez la rencontre dans le métavers, et profitez des reconstitutions de grands lieux touristiques ! Envie de voir avec eux les calanques de Marseille ou Venise ? L’expérience ne sera évidemment pas la même que dans le monde réel, mais vous pourrez avoir ces lieux rien que pour vous et vos proches, et vous pourrez les visiter de manière inédite, en les survolant par exemple. L’agence de voyage du métavers vous proposera peut-être de compléter l’expérience en dégustant un plat typique (livré chez vous et vos proches) dans une ambiance visuelle et sonore reconstituée. Alors les cousins : supions à la provençale sur le vieux port, ou cicchetti sur la place Saint-Marc ?

    Photo Helena Lopez – Pexels

    Comme certains jeux vidéo actuels, le metavers permettra sans doute la pratique de différents sports, seul ou à plusieurs. L’hiver, avec votre club de cyclisme, vous pourrez vous entraîner sur des parcours virtuels (avec un vrai vélo comme interface, si vous le souhaitez). Envie de lâcher le vélo pour un parcours de randonnée au départ du village dans lequel vous venez d’arriver ? Pas de problème : le métavers est un monde dans lequel on peut basculer facilement d’une activité à l’autre. De nouveaux sports pourraient être inventés par les utilisateurs du métavers, au sens « activités nécessitant un entraînement et s’exerçant suivant des règles, sur un mode coopératif ou compétitif ». La pratique d’un sport virtuel vous amènera peut-être à constituer avec d’autres une équipe, un club. Pour vous entraîner, quel que soit votre niveau, vous devriez sans problème trouver dans le métavers d’autres personnes de niveau similaire ou à peine supérieur, pour peu que les clubs se regroupent en fédérations. Le métavers pourrait aussi changer votre expérience de spectateur de compétitions sportives. Pourquoi ne pas vivre le prochain match de votre équipe de football préférée dans le métavers du point de vue de l’avatar de son avant-centre plutôt que depuis les tribunes virtuelles ?

    Photo Rodnae – Pexels

    Le métavers pourrait fournir l’occasion et les moyens de reconsidérer la manière dont nous organisons le travail de bureau. Un bureau virtuel peut facilement être agrandi pour accueillir une nouvelle personne, si besoin. Un étage de bureaux virtuel peut facilement placer à proximité des personnes qui travaillent dans un même service mais qui sont géographiquement réparties dans le monde réel. En combinant l’organisation spatiale de l’activité permise par le métavers avec des outils que nous utilisons déjà (messageries instantanées, suites bureautiques partagées en ligne, outils de visioconférence, etc.), peut-être pourra-t-on proposer de nouveaux environnements de travail collaboratifs permettant de (re)créer du lien entre des personnes travaillant à distance, quelle qu’en soit la raison ? Il ne s’agit pas seulement ici d’améliorer la manière dont on peut tenir des réunions. Le métavers pourrait aussi permettre des rencontres fortuites et des échanges spontanés et informels entre des personnes, à travers des espaces collectifs (couloirs entre les bureaux, salles de détente) ou des événements (afterwork virtuel).

    On pourrait voir des usages du métavers se développer dans le domaine de la santé. La réalité virtuelle est déjà utilisée depuis de nombreuses années pour traiter des cas de phobie (animaux, altitude, relations sociales, etc.) et de stress post-traumatiques (accidents, agressions, guerres, etc.). Ces thérapies reposent sur une exposition graduelle et maîtrisée par un soignant à une représentation numérique de l’objet engendrant la phobie. Le fait d’agir dans un environnement virtuel, d’en maîtriser tous les paramètres et de pouvoir rapidement et facilement stopper l’exposition ont contribué au succès de ces approches, qu’on imagine facilement transposables dans un métavers où elles pourraient être complétées par d’autres activités. Les simulateurs actuellement utilisés pour la formation de professionnels de santé ou les agents conversationnels animés développés ces dernières années pour le diagnostic ou le suivi médical pourraient aussi être intégrés au métavers. De nouveaux services de téléconsultation pourraient aussi être proposés.

    Le métavers pourrait servir de plateforme d’accès à des services publics. La municipalité de Séoul a ainsi annoncé qu’elle souhaitait ouvrir en 2023 une plateforme de type métavers pour « s’affranchir des contraintes spatiales, temporelles ou linguistiques ». Cette plateforme intègrera des reconstitutions des principaux sites touristiques de la ville actuelle, mais aussi des reconstitutions d’éléments architecturaux disparus. Les habitants pourront interagir avec des agents municipaux via leurs avatars et pourront ainsi accéder à une variété de services publics (économiques, culturels, touristiques, éducatifs, civils) dont certains nécessitaient jusqu’ici de se rendre en mairie. Des manifestations réelles seront dupliquées dans le métavers afin de permettre à des utilisateurs du monde entier de les suivre.

    Questions ouvertes

    Le métavers, par son organisation spatiale et sa dimension sociale, sera l’opportunité de développer des communautés, pratiques et cultures. Ce qui en sortira dépendra beaucoup de la capacité de ses utilisateurs à se l’approprier. Le métavers pose toutefois dès aujourd’hui un certain nombre de questions.

    Qui pourra réellement y accéder ? Il faudra sans aucun doute une « bonne » connexion réseau et un terminal performant, mais au-delà, les différences entre le métavers et le web n’introduiront-elles pas de nouvelles barrières à l’entrée, ou de nouveaux freins ? Le World Wide Web Consortium (W3C) a établi pour celui-ci des règles pour l’accessibilité des contenus à l’ensemble des utilisateurs, y compris les personnes en situation de handicap (WCAG). Combien de temps faudra-t-il pour que des règles similaires soient définies et appliquées dans le métavers ? Sur le web, il n’y a pas d’emplacement privilégié pour un site, la notion d’emplacement n’ayant pas de sens. Dans un monde virtuel en partie fondé sur une métaphore spatiale, la localisation aura de l’importance. On voit déjà de grandes enseignes se précipiter pour acquérir des espaces dans les proto-métavers, et des individus payant à prix d’or des « habitations » voisines de celles de stars. Qui pourra dans le futur se payer un bon emplacement pour sa boutique virtuelle ?

    Le métavers, comme nous l’avons expliqué, c’est la combinaison de la réalité virtuelle, des jeux vidéo, des réseaux sociaux et des cryptomonnaies, propices à la spéculation. En termes de risques de comportements addictifs, c’est un cocktail explosif ! L’immersion, la déconnexion du réel, l’envie de ne pas finir sur un échec ou de prolonger sa chance au jeu, la nouveauté permanente, la peur de passer à côté de quelque chose « d’important » pendant qu’on est déconnecté et l’appât du gain risquent fort de générer des comportements toxiques pour les utilisateurs du métavers et pour leur entourage. En France, l’ANSES — qui étudie depuis plusieurs années l’impact des technologies numériques sur la santé[1] — risque d’avoir du travail. De nouvelles formes de harcèlement ont aussi été signalées dans des métavers, particulièrement violentes du fait de leur caractère immersif et temps réel. En réponse, Meta a récemment mis en place dans Horizon World et Horizon Venues une mesure de protection qui empêche les avatars de s’approcher à moins d’un mètre de distance. D’autres mesures et réglementations devront-elles être mises en place ?

    On a vu se développer sur le web et les réseaux sociaux des mécanismes de collecte de données personnelles, de marketing ciblé, de manipulation de contenus, de désinformation, etc.  S’il devient le lieu privilégié de nos activités en ligne et que celles-ci se diversifient, ne risquons-nous pas d’exposer une part encore plus importante de nous-même ? Si ces activités sont de plus en plus sociales, regroupées dans un univers unique et matérialisées (si on peut dire) à travers nos avatars, ne seront-elles pas observables par un plus grand nombre d’acteurs ? Faudra-t-il jongler entre différents avatars pour que nos collègues de travail ne nous reconnaissent pas lors de nos activités nocturnes ? Pourra-t-on se payer différents avatars ? Quel sera l’équivalent des contenus publicitaires aujourd’hui poussés sur le web ? Des modifications significatives et contraignantes de l’environnement virtuel ? « Ce raccourci vers votre groupe d’amis vous permettant d’échapper à un tunnel de panneaux publicitaires vous est proposé par Pizza Mario, la pizza qu’il vous faut » Les technologies chaîne de blocs (blockchain en anglais) permettront-elles au contraire de certifier l’authenticité de messages ou d’expériences et d’empêcher leur altération ?

    Lors de la rédaction de ce texte, nous avons souvent hésité entre « le métavers » et « les métavers ». Dans la littérature comme dans la vidéo d’annonce de Facebook/Meta, le concept est présenté comme un objet unique en son genre, mais on imagine assez facilement des scénarios alternatifs, trois au moins, sans compter des formes hybrides. Le premier est celui d’une diversité de métavers sans passerelle entre eux et dont aucun ne s’imposera vraiment parce qu’ils occuperont des marchés différents. C’est la situation du web actuel (Google, Meta, Twitter, Tik Tok et autres sont plus complémentaires que concurrents), qui motive en partie les promoteurs du Web3. Le deuxième scénario est celui d’un métavers dominant largement les autres. Celui-ci semble peu probable à l’échelle planétaire, ne serait-ce qu’à cause de la confrontation USA – Chine (– Europe ?). Le troisième scénario est celui d’une diversité de métavers avec un certain niveau d’interopérabilité technique et existant en bonne harmonie. Il n’est pas certain que ce soit le plus probable : l’interopérabilité est souhaitable mais sera difficile à atteindre. Nous pensons plutôt que c’est le premier scénario qui s’imposera. La diversité, donc le choix entre différents métavers, est une condition nécessaire tant à l’auto-détermination individuelle qu’à la souveraineté collective.

    Qui va réguler les métavers ? Dans le monde du numérique, les normes prennent parfois du temps à s’établir et n’évoluent pas nécessairement très vite. Quand il s’agit de normes techniques, ce n’est pas un problème : le protocole HTTP est resté figé à la version 1.1 de 1999 à 2014, et cela n’a pas empêché le développement du web. Quand il s’agit de réguler les usages, les comportements, ce peut être plus problématique. Jusqu’ici, on peut s’en réjouir ou s’en désoler, le secteur du web a été peu régulé. Ceux qui définissent les règles sont souvent les premiers joueurs, qui sont en fait les premiers possédant les moyens de jouer, c’est à dire les grands acteurs du web aujourd’hui. Si demain, une partie de nos activités personnelles et professionnelles se déroule dans des métavers créés par eux sur la base d’infrastructures matérielles et logicielles extra-européennes, quels seront le rôle et la pertinence dans ces mondes des états européens ? Si ces mondes sont créés par des collectifs transcontinentaux et autogérés par des individus, la situation sera-t-elle plus favorables à ces états ?

    Enfin, mais ce n’est pas le moins important, d’un point de vue beaucoup plus pragmatique et à plus court terme, on peut s’interroger sur la pertinence de se lancer dans le développement de métavers au moment où nous sommes déjà tous confrontés aux conséquences de nos activités sur l’environnement. Le tourisme virtuel aidera peut-être à réduire notre empreinte carbone, mais le coût écologique lié à la mise en œuvre des métavers (réalité virtuelle, réseaux haut-débit, chaîne de blocs, etc.) ne sera-t-il pas supérieur aux économies générées ? Le bilan devra bien sur tenir compte des usages effectifs des métavers, de leur utilité et de leur impact positif sur la société.

    Pour conclure

    Ni enfer, ni paradis par construction, les métavers présentent des facettes tant positives que négatives, à l’image de beaucoup d’autres innovations technologiques (comme l’intelligence artificielle, par exemple). Nous avons tendance à surestimer l’impact des nouvelles technologies à court-terme et à sous-estimer leur impact à long-terme, c’est la loi d’Amara. Les métavers tels qu’on nous les décrits seront sans doute difficiles à mettre en œuvre. Rien ne dit que ceux qui essaieront y arriveront, que les environnements produits seront massivement utilisés, qu’ils le resteront dans la durée ou que nous pourrons nous le permettre (pour des raisons environnementales, par exemple). Les choses étant de toute manière lancées et les investissements annoncés se chiffrant en milliards d’euros, on peut au minimum espérer que des choses intéressantes résulteront de ces efforts et que nous saurons leur trouver une utilité.

    Alors que faire ? Rester passifs, observer les tentatives de mise en œuvre de métavers par des acteurs extra-européens, puis les utiliser tels qu’ils seront peut-être livrés un jour ? S’y opposer dès à présent en considérant que les bénéfices potentiels sont bien inférieurs aux risques ? Nous proposons une voie alternative consistant à développer les réflexions sur ce sujet et à explorer de façon maîtrisée les possibles ouverts par les technologies sous-jacentes, en d’autres termes, à jouer un rôle actif pour tenter de construire des approches vertueuses, quitte à les abandonner – en expliquant publiquement pourquoi – si elles ne répondent pas à nos attentes. Nous sommes persuadés qu’une exploration menée de façon rigoureuse pour évaluer des risques et des bénéfices est nettement préférable à un rejet a priori non étayé.

    Pascal Guitton (Université de Bordeaux & Inria) & Nicolas Roussel (Inria)

    [1] Voir par exemple son avis récent sur les expositions aux technologies de réalité virtuelle et/ou augmentée

    Références additionnelles (*)

    Quelques émissions, interviews ou textes récents :

     

    Deux articles de recherche illustrant des approches très différentes des environnements virtuels collaboratifs :

     

    • Solipsis: a decentralized architecture for virtual environments (D. Frey et al., 05/11/2008)
      https://hal.archives-ouvertes.fr/inria-00337057
    • Re-place-ing space: the roles of place and space in collaborative systems (S. Harrison & P. Dourish, 03/12/96)
      https://www.dourish.com/publications/1996/cscw96-place.pdf

    Deux fictions dans lesquelles on parle d’onirochrone et de cyberespace :

     

    Et aussi : https://estcequecestlanneedelavr.com

    (*) en plus de celles pointées par des liens dans le texte de l’article

  • Les cinq murs de l’IA 1/6 : la confiance

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ?  Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes.   Pascal Guitton et Thierry Viéville.

    Episode 1 : introduction générale, et le premier mur.

    L’intelligence artificielle progresse à un rythme très rapide tant sur le plan de la recherche que sur celui des applications et pose des questions de société auxquelles toutes les réponses sont loin d’être données. Mais en avançant rapidement, elle fonce sur ce que j’appelle les cinq murs de l’IA, des murs sur lesquels elle est susceptible de se fracasser si l’on ne prend pas de précautions. N’importe lequel de ces cinq murs est en mesure de mettre un terme à sa progression, c’est pour cette raison qu’il est essentiel d’en connaître la nature et de chercher à apporter des réponses afin d’éviter le fameux troisième hiver de l’IA, hiver qui ferait suite aux deux premiers des années 197x et 199x au cours desquels la recherche et le développement de l’IA se sont quasiment arrêtés faute de budget et d’intérêt de la communauté.

    Les cinq murs sont ceux de la confiance, de l’énergie, de la sécurité, de l’interaction avec les humains et de l’inhumanité. Ils contiennent chacun un certain nombre de ramifications, et sont bien évidemment en interaction, je vais toutefois les présenter de manière séquentielle, en cinq épisodes. Le sixième épisode examinera quelques pistes pour éviter une issue fatale pour l’IA.

    Ce texte se veut un outil de réflexion pour le lecteur, il est destiné à susciter des commentaires et réactions que ce soit sur la réalité de ces murs, sur la complétude de mon analyse, ou sur la manière d’échapper à l’écrasement sur l’un de ces murs. Je précise cependant qu’il y a d’autres facteurs, non technologiques, qui mettent en cause l’avenir de l’IA, et que je ne traite pas dans cette série. Ainsi, par exemple, la pénurie de chercheurs, ingénieurs, techniciens capables de développer et de mettre en oeuvre les technologies d’IA est très bien identifiée ; elle se matérialise par les salaires élevés qui sont versés à celles et ceux qui affichent l’IA comme spécialité, et par la mise en place de nombreux programmes de formation qui, à terme, devraient permettre de revenir à une situation normale en la matière, l’offre rejoignant la demande. Il ne manque pas non plus de démarches gouvernementales, collectives, associatives et autres pour réglementer et gouverner l’IA, je n’aborderai pas ces aspects ici. Je recommande plutôt de s’intéresser aux travaux du Partenariat Mondial sur l’Intelligence Artificielle (GPAI en anglais) qui rassemble nombre d’experts de disciplines, d’origines et de cultures différentes sur les sujets de société autour de l’IA.

    Je reconnais également qu’il y a des avis différents à ce sujet. Par exemple, l’article « Deep learning for AI » de Yoshua Bengio, Yann LeCun et Geoffrey Hinton1, rédigé suite à leur prix Turing collectif, donne des pistes pour l’avenir de l’AI par l’apprentissage profond et les réseaux neuronaux sans aborder les mêmes sujets; le rapport d’étape 2021 de l’étude longitudinale sur cent ans de Stanford2 examine les avancées de l’IA à ce jour et présente des défis pour le futur, très complémentaires à ceux que j’aborde ici; le récent livre de César Hidalgo, chaire de l’institut 3IA ANITI à Toulouse, « How Humans Judge Machines »3 s’intéresse à la perception de l’IA (et des machines) par les humains; l’ouvrage « Human Compatible »4 de Stuart Russell, professeur à Berkeley et auteur du principal livre de cours sur l’IA depuis deux décennies, s’intéresse à la compatibilité entre machines et humains, sujet que je traite différemment quand je parle du mur de l’interaction; enfin, la publication que j’ai co-éditée en 2021 avec Malik Ghallab, « Reflections on Artificial Intelligence for Humanity »5 aborde dans ses quatorze chapitres divers aspects de l’avenir de l’IA, notamment sur le futur du travail, la prise de décision par les machines, les questions de réglementation, d’éthique, de biais etc.

    Dans ce premier épisode je m’intéresse au mur de la confiance, un sujet particulièrement mis en exergue depuis quelques années.

    La confiance

    Dialogue entre Lonia, le chatbot de la banque et Y, qui a demandé un crédit.
    Y: est-ce que mon prêt a été accordé ?
    Lonia: non.
    Y: peux-tu me dire pourquoi mon prêt n‘a pas été accordé?
    Lonia: non
    Y: mais, pourquoi ne peux-tu pas me dire pourquoi mon prêt n’a pas été accordé?
    Lonia: parce que je suis une intelligence artificielle, entraînée à partir de données de crédits passés, et je ne sais pas produire d’explications.
    Y: c’est bien dommage! Mais peux-tu au moins prouver que ta décision est la bonne?
    Lonia: Non, on ne peut pas prouver les conclusions établies par des IA entraînées par apprentissage à partir de données.
    Y: ah, bon. Mais, alors, as-tu été certifiée pour le travail que tu fais? As-tu un quelconque label de qualité?
    Lonia: Non, il n’existe pas de normes pour les IA entraînées par apprentissage, il n’y a pas de certification.
    Y: Merci pour tout cela. Au revoir, je change de banque.

    Bien évidemment, derrière ce dialogue imaginaire, c’est la question de la confiance qui est posée. Et cela ne concerne pas que le domaine financier, par exemple le même échange pourrait avoir lieu au sujet d’un diagnostic médical pour lequel la machine ne pourrait fournir ni garanties ni explications.  Si les personnes n’ont pas confiance envers les systèmes qu’IA avec lesquels ils interagissent, ils les rejetteront. Il y a largement de quoi causer un troisième hiver de l’IA !

    La confiance est une notion riche et multi-factorielle, beaucoup de sociologues et de technologues se sont intéressés aux mécanismes de son établissement. Plusieurs organismes tentent de fournir des définitions de ce qu’est la confiance envers les systèmes d’intelligence artificielle, elle a été le sujet principal du groupe d’experts mobilisés par la Commission Européenne (dont tous les travaux6 se font dans l’optique « trustworthy AI »). L’organisation internationale de normalisation, ISO, considère une vingtaine de facteurs différents, avec des ramifications.

    Je résumerai ici en disant que la confiance, en particulier envers les artefacts numériques dont l’IA fait partie, est une combinaison de facteurs technologiques et sociologiques. Technologiques, comme la capacité de vérifier la justesse d’une conclusion, la robustesse à des perturbations, le traitement de l’incertitude etc. Sociologiques, comme la validation par des pairs, la réputation dans les réseaux sociaux, l’attribution d’un label par un tiers de confiance etc. Les questions d’interaction avec les utilisateurs sont intermédiaires entre ces deux types de facteurs: transparence, explicabilité, qualité des interactions de manière plus générale.

    Les facteurs sociologiques ne sont pas propres à l’IA: dans un réseau de confiance entre humains, la transmission de la confiance ne fait pas nécessairement appel aux facteurs technologiques. Par contre, la base technologique de la confiance en IA est bien spécifique et pose de nombreux défis. On ne sait pas, aujourd’hui, prouver que les conclusions d’un système entraîné par apprentissage sur une base de données sont les bonnes, qu’elles sont robustes à des petites variations, qu’elles ne sont pas entachées de biais etc. Il existe de nombreux programmes de R&D à ce sujet, dont un des plus importants est l’initiative Confiance.ai7 centrée sur les systèmes critiques (transport, défense, énergie, industrie) portée par de grands groupes industriels dans le cadre du Grand Défi sur la fiabilisation et la certification de l’IA.

    Tant que cette question restera ouverte, le risque pour l’IA de se heurter au mur de la confiance sera majeur. Il le sera encore plus pour les systèmes à risque (au sens de la Commission Européenne dans sa proposition de réglementation de l’IA8) et pour les systèmes critiques (au sens du programme Confiance.ai).

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 Deep Learning for AI. Yoshua Bengio, Yann Lecun, Geoffrey Hinton Communications of the ACM, July 2021, Vol. 64 No. 7, Pages 58-65

    2 Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.Stanford University, Stanford, CA, September 2021. Doc: http://ai100.stanford.edu/2021-report. Accessed: September 16, 2021.

    3 https://www.judgingmachines.com/

    5 B. Braunschweig & M. Ghallab (eds.), Reflections on Artificial Intelligence for Humanity, Elsevier, 2021

  • Alexandra Elbakyan: a great lady for a great project

    SciHub.ru, 2020

    Can you briefly describe Sci-Hub, its history and current status?

    Sci-Hub is a website with a goal of providing free access to all academic knowledge. Today most journals in science are becoming inaccessible because of their high prices. Sci-Hub helps remove the price barrier, or paywall. Millions of students, researchers, medical professionals and other people use Sci-Hub today to skip paywalls and get access to science.

    I created Sci-Hub in 2011 in Kazakhstan. The project immediately became very popular among researchers from Russia and the former USSR. Over the years, it kept growing and became popular worldwide.

    But Sci-Hub existence is also an ongoing struggle: the project is being hit by lawsuits, described as illegal or unlawful, and blocked. The lawsuits come from big corporations, the academic publishers: Elsevier and others. These corporations today are the owners of science. They set a high price tag to access research journals. Millions of people cannot afford it and are blocked from science and from information. Sci-Hub fights this state of things.

    Currently Sci-Hub is fighting a lawsuit in India. Academic publishers are asking the Indian government to completely block access to the website.

    Number of articles downloaded from Sci-Hub in the last 30 days (February 12, 2022)

    How accurate are the wikipedia articles about you and sci-hub?

    It depends, because articles are different in different languages. I read the English and Russian Wikipedia articles, and I really don’t like them! Key points about Sci-Hub are omitted, such as the website being extensively used by medical professionals and the fact that Sci-Hub helps save human lives. The articles seem to focus on describing lawsuits against the website and its illegal status, while the wide support and usage of Sci-Hub by scientists worldwide is scarcely mentioned.

    The Russian article, for example, gives the impression that the main point Elsevier is making in its lawsuit against Sci-Hub is that Sci-Hub uses ‘stolen’ user accounts! That is of course not true, the main reason and the main point Elsevier makes in court against Sci-Hub is copyright violation, the fact that Sci-Hub gives free access to those journals Elsevier sells for high prices! Now Elsevier PR managers are trying to reframe that, as if the main point of conflict is that Sci-Hub uses some ‘stolen’ credentials!

    There are many such unfair points in articles about Sci-Hub.

    An article about myself mentioned that I am a suspected Russian spy. One newspaper asked me for comment about that, and I commented that: there can be some indirect help from the Russian government that I’m not aware of, but I can only add that I do all the programming and server management myself.

    Somebody cut the quote, and inserted in Wikipedia only the first part: « there can be some indirect help from the Russian government that I’m not aware of » omitting that: « I do all the programming and server management myself ». There were many such insinuations. Some of them were corrected after a long time, some are remaining. For example the Russian article said that I « have blocked access to the website » that’s how they describe when Sci-Hub stopped work in Russia to protest against the treatment the project received.

    In the very beginning, when the Wikipedia article about Sci-Hub was created, the project was described as a … search engine! Which was completely incorrect. I tried fixing it but my update was rejected. The changes were finally made when I posted in my blog about the Wikipedia article being incorrect.

    Can you give us some numbers about Sci-Hub activity?

    Over the course of ten years, Sci-Hub constantly grew. In 2020, it reached 680,000 users per day! Then after the lockdown, it was back again to around 500,000 users daily.

    There are also third-party mirrors of Sci-Hub that have emerged today, such as scihub.wikicn.top and many others. When you Google for Sci-Hub, it will often give such a third-party mirror as the first result. I can see that many people now use such third-party mirrors, but I do not have access to their statistics. I only have access to the statistics of original Sci-Hub servers that I manage: sci-hub.se, sci-hub.st and sci-hub.ru

    Today Sci-Hub has downloaded more than 99% of the content from major academic publishers (Elsevier, Springer, Wiley and so on) but there are still many articles from less-known publishers remaining. So there still is a lot of work. The goal of Sci-Hub is to have all science papers ever published since 1665 or even earlier. Currently Sci-Hub has temporarily paused downloading new papers due to the Indian court lawsuit, but this will resume in the future.

    How do you see the evolution of the site? What future do you see? You seem to be playing mouse and cat to be able to provide access to the site. How long can it last?

    That will last until Sci-Hub wins and is recognized as legal in all countries of the world.

    Do you see any hope in the site becoming legit?

    That has been my goal since 2011. In fact, I expected that to happen early, because the case is so obvious: scientists are using the Sci-Hub website and they are surely not criminals, so Sci-Hub is legit. But recognition of that fact seems to take longer than I initially expected.

    We assume your popularity depends on the country? Can you tell us more about China, Africa, and France?

    I can give you some statistics coming from the Yandex counter. The internal Sci-Hub stats are only slightly different. In China, there are about 1 million users per month (in 2017 it was half a million per month). There are about 250,000 users per month coming from Africa and about 1 million coming from Europe

    For France, it was for a while above 100,000 users per month. It has decreased a lot, I believe, because researchers are accessing mirror sites.

    The quality of your user interface is mentioned by many of your users. Do you think it is a key reason for the success of sci-hub?

    I don’t think so. The main reason for Sci-Hub usage, in most cases, is lack of access to scientific articles by other means. Top countries using Sci-Hub are India and China and in those countries the usage of Sci-Hub is clearly not a matter of convenience. Sci-Hub has had this ‘convenient’ interface only since 2014 or 2015. The first version of Sci-Hub required users to enter URL and switch proxies and download articles manually, but the website quickly became very popular. Before Sci-Hub, researchers used to request papers by email; it was definitely longer and less convenient than Sci-Hub. It often took a few days to get a response and sometimes you did not get a response at all.

    How big is the team operating the site?

    Sci-Hub does not have a team! Since the beginning, it has just been a small PHP script that I coded myself, based on an open-source anonymizer code. I operate Sci-Hub servers and do all the programming myself. However, there are people who provide accounts that Sci-Hub can use to download new articles. Others manage Sci-Hub mirrors. But one cannot call that a team; they are just  collaborations.

    Do you have regular contributors who bring open access articles directly?

    Nope. Let me explain: Sci-Hub initially emerged as a tool that downloads papers automatically. That was a core idea at the heart of Sci-Hub! Sci-Hub never worked with users contributing articles. It would be impossible to have tens of millions of papers contributed by users, because such a database should have to be moderated: otherwise it could be easily attacked by someone contributing fake papers.

    There may be such an option in the future, because there are much fewer articles remaining, and Sci-Hub has downloaded the main bulk.

    What is your toughest challenge: gaining access to publications or providing access to publications?

    Most of my time and work is devoted to gaining new articles. It requires implementing various scripts for downloading articles from different publishers, and updating these scripts when publishers implement updates on their websites, making Sci-Hub’s automatic download harder. For example, Elsevier has recently implemented additional steps that make automatic download harder. The old engine of Sci-Hub stopped working and I had to implement a different approach.

    Providing access to databases is relatively easier, if we do not consider legal challenges of course.

     What drove you to build SciHub? Do you see it as part of the commons movement, a common in the sense of Elinor Ostrom?

    I was a member of an online forum about molecular biology. They had a « Full Text » section where people requested help to access articles. The section was quite active and many people were using it. They posted requests, and if some forum member had access to the article, they would send it by email.

    I got the idea that I could create a website that would make this process automatic, avoiding manual requests and sending by email: users could simply go to the website and download what they needed themselves.

    For me, there are links between this idea of communism and the idea of collective management of resources in the spirit of Elenor Ostrom.

    In the first version of Sci-Hub, there was a small hammer and sickle, and if you pointed a mouse cursor over it, it would say « communism is a common ownership of means of production with free access to articles of consumption ». So, free access to articles! For me, Sci-Hub and more generally, the  open access movement has always been connected to communism, because science articles should be common and free for everyone to access, not paid. Today scientific knowledge has become the private property of a few big corporations. That is dangerous to science.

    In 2016 I learned about the work of the sociologist  Robert Merton. He proposes different ideals for scientists. One of them is what he calls communism is: the common ownership of scientific discoveries, according to which scientists give up intellectual property in exchange for recognition and esteem. This is the goal of Sci-Hub.

    How can people help you?

    Talk about Sci-Hub, discuss it more often. Start a petition to support Sci-Hub becoming legal, and discuss it with government officials and politicians. That will help to resolve the situation.

    Alexandra Elbakyan

    SciHub.ru, 2018

    Annex

    Background information about how Sci-Hub was started is available here:

    https://engineuring.wordpress.com/2019/03/31/sci-hub-and-alexandra-basic-information/

    https://sci-hub.se/alexandra

    and in my 2015 letter to the judge, when Sci-Hub got sued in US:

    https://torrentfreak.com/images/sci-hub-reply.pdf

  • Le métavers, quels métavers ? (1/2)

    En octobre 2021, Facebook a annoncé le développement d’un nouvel environnement virtuel baptisé Metaverse. Cette information a entrainé de  nombreuses réactions tant sous la forme de commentaires dans les médias que de déclarations d’intention dans les entreprises. Comme souvent face à une innovation technologique, les réactions sont  contrastées : enfer annoncé pour certains, paradis pour d’autres. Qu’en penser ? C’est pour contribuer à cette réflexion que nous donnons la parole à Pascal Guitton et Nicolas Roussel. Dans ce premier article – bientôt suivi d’un second – ils nous expliquent de quoi il s’agit vraiment.
    Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation.

    De quoi parle-t-on ?

    Le concept de métavers[1] vient de la littérature de science-fiction. Le terme est apparu la première fois dans un roman de 1992, Le samouraï virtuel de Neal Stephenson, pour décrire un univers généré par ordinateur auquel on accède à l’aide de lunettes et d’écouteurs. D’autres romans avaient auparavant décrit des mondes virtuels plus ou moins similaires sous d’autres termes : simulateur dans un roman de Daniel F. Galouye de 1968, ou cyberespace dans les romans de William Gibson du début des années 1980, par exemple.

    Les premières réalisations concrètes de ce concept remontent aux années 1990-1995 pour Active Worlds, aux Etats Unis, ou 1997 pour Le deuxième monde, en France. Elles ont longtemps été limitées par les capacités techniques du moment.

    Aujourd’hui, il existe un grand nombre de métavers, la plupart méconnus, et c’est l’annonce de Facebook/Meta qui a remis sur le devant de la scène médiatique ces environnements.

    Photo de Bradley Hook – Pexels

    Même s’il n’existe pas de définition précise, on peut lister quelques éléments caractéristiques d’un métavers :

    • C’est une réalisation informatique qui permet de créer un univers virtuel — ou monde ou environnement virtuel — dans lequel nous pouvons interagir ;
    • L’environnement virtuel créé est composé d’éléments de paysage ou de décor, d’objets divers et d’êtres animés autonomes ou contrôlés depuis le monde réel (on parle alors d’avatars) ;
    • L’environnement peut reproduire une partie du monde réel (la ville de Paris, dans Le deuxième monde), matérialiser des éléments abstraits de celui-ci (les éléments logiciels d’un ordinateur dans le film Tron, ou les interconnexions de réseaux informatiques dans le cyberespace de la littérature cyberpunk) ou proposer quelque chose de totalement nouveau ;
    • Les lois de cet environnement virtuel et l’aspect et le comportement de ce qui le compose peuvent être similaires à ceux du monde réel, ou non (on peut donner à un avatar humain la possibilité de survoler une ville, par exemple) ;
    • L’accès à cet environnement se fait à travers des interfaces classiques (clavier, souris et/ou manette, écran éventuellement tactile) ou spécifiques (casque, lunettes, gants, etc.) qui permettent de percevoir le monde (via une représentation visuelle, sonore, haptique, olfactive) et d’interagir avec ce qui le compose ;
    • A travers ces interfaces, diverses activités sont possibles : se déplacer ; observer ; créer ou modifier des éléments ; en acquérir ou en échanger ; collaborer ou rivaliser avec d’autres personnes présentes ; etc.
    • L’environnement est accessible et utilisable simultanément par un très grand nombre de personnes ;
    • L’environnement persiste dans la durée et évolue en permanence, qu’on y accède ou non, on le retrouve ainsi rarement dans l’état où on l’a laissé.

    L’ensemble de ces caractéristiques permet à une société virtuelle de se développer, avec une culture propre, une économie, etc.

    D’où vient ce concept ?

    Première idée reçue à déconstruire : les métavers ne sont pas issus d’une révolution technologique récente initiée par Facebook. Ils reposent sur de nombreux développements scientifiques, technologiques, applicatifs et évènementiels parfois anciens qu’il convient de rappeler.

    Les métavers s’inscrivent dans le domaine de la réalité virtuelle (RV) apparue au début des années 1980 et reposant sur une représentation immersive (visuelle et parfois aussi sonore et/ou haptique) d’un environnement virtuel avec laquelle l’utilisateur peut interagir pour se déplacer et réaliser des tâches variées. La richesse de cette représentation et de cette interaction génère un sentiment de présence dans l’environnement virtuel qui favorise l’implication de l’utilisateur. Focalisées sur la compréhension de phénomènes, la conception d’objets ou systèmes et l’apprentissage de tâches, les applications de la RV se sont d’abord cantonnées à des secteurs comme les transports, l’industrie, l’architecture et l’urbanisme, la médecine, puis se sont ouvertes à d’autres domaines comme le tourisme, la culture et le divertissement.

    Dans les années 1990, le développement des technologies numériques a permis la création d’environnements virtuels collaboratifs dans lesquels différents utilisateurs pouvaient être simultanément immergés. A la croisée de différents domaines (RV, communication médiatisée, environnements de travail numériques), les premiers environnements multi-utilisateurs ciblaient encore souvent des situations professionnelles, notamment la fabrication de véhicules (voitures, avions, lanceurs de satellites) dont les acteurs sont le plus souvent localisés sur des sites différents. Assez vite, cependant, on a vu émerger des environnements destinés à des publics et des activités plus larges. Mentionnons par exemple le Deuxième monde lancé en 1997 par Canal + ou bien Second life lancé en 2003, qui a compté jusqu’à un million d’utilisateurs et reste aujourd’hui accessible.

    Reconstitution de mouvements de foules dans un espace urbain – Inria, Photo C. Morel

    Des recherches ont été menées sur les architectures nécessaires au passage à une plus grande échelle (en France, dans le cadre du projet Solipsis, par exemple). Le développement continu des technologies numériques a ensuite permis la diffusion à large échelle de matériels et logiciels précédemment cantonnés aux laboratoires de recherche ou très grandes entreprises. L’apparition dans les années 2010 de casques de réalité virtuelle de très bonne qualité mais à coût nettement réduit a notamment permis le développement de nouveaux usages de cette technologie dans les environnements professionnels et domestiques.

    Les métavers s’inscrivent aussi dans l’évolution récente des jeux vidéo. Ces jeux proposent depuis longtemps l’exploration de mondes virtuels, mais plusieurs tendances ont profondément changé la donne ces dernières années.

    L’approche « monde ouvert » sur laquelle reposent certains jeux permet l’exploration libre du monde proposé, et non plus seulement la simple progression dans une structure narrative prédéterminée. Les jeux multi-joueurs en ligne sont devenus courants. La liberté d’action permet, au-delà de la simple coprésence, la collaboration ou la rivalité entre les joueurs. Les jeux leur permettent de communiquer par texte ou oralement, de se socialiser, de s’organiser en équipes, en clans. Certains sont conçus comme des plateformes qui évoluent dans le temps à travers des mises à jour et ajouts significatifs (décors, objets, personnages animés, etc.), au point que l’on parle pour ces jeux de « saisons », comme pour les séries télévisées.

    Des jeux permettent d’acquérir — en récompense à des actions ou contre de la monnaie virtuelle achetée dans le monde réel — des armes, ballons et autres objets, des tenues, des véhicules, des bâtiments, etc. Certains permettent aussi de créer des objets, de les échanger ou de les vendre. Une économie se crée ainsi au sein de ces environnements, inscrite dans la durée et avec des conséquences bien tangibles dans le monde réel[2]. Ces sociétés et économies virtuelles attirent dans le secteur des jeux vidéo des entreprises d’autres secteurs comme ceux de la musique, pour y organiser des concerts[3], ou du luxe, pour y vendre des objets griffés[4].

    Dofus (2004), Roblox (2006), Minecraft (2011),  GTA online (2013), Fortnite (2017) ou les éditions récentes de Call of Duty (2003) illustrent la plupart des caractéristiques citées. Les briques technologiques créées pour réaliser ces environnements ont atteint un niveau très élevé de maturité et sont aujourd’hui utilisées dans de nombreux autres secteurs. Les « moteurs graphiques » Unity et Unreal sont ainsi couramment utilisés pour des applications dans les domaines de l’architecture, du cinéma ou de l’ingénierie. Ces briques pourraient jouer un rôle important dans la réalisation de nouveaux métavers, et sont valorisées comme telles[5].

    L’engouement pour les métavers coïncide aussi avec un questionnement sur l’avenir des réseaux sociaux et la place des GAFAM, et de nouvelles possibilités offertes par les technologies de type chaîne de blocs (blockchain en anglais). Les réseaux sociaux tels que nous les connaissons sont de formidables outils de communication, avec un effet démultiplicateur pour le meilleur et pour le pire. Les métavers ouvrent de nouvelles possibilités, proposent de nouvelles interactions sociales, au-delà de la simple communication à base de textes courts ou d’images. Ils sont l’occasion de repartir sur de nouvelles bases, avec l’espoir — pour les plus optimistes — qu’elles ne conduiront pas nécessairement aux mêmes dérives.

    Les technologies chaîne de blocs offrent les moyens de créer de la rareté numérique (des objets numériques ne pouvant exister qu’en nombre fini), de vérifier l’authenticité et la propriété d’un objet, de tracer son histoire, de permettre à son créateur ou sa créatrice de percevoir une redevance sur ses reventes par le biais de « contrats intelligents », etc. On voit se construire au-dessus de ces technologies de nouveaux jeux/mondes comme Decentraland ou Axie Infinity dans lesquels les joueurs/utilisateurs sont aussi les créateurs et administrateurs du monde virtuel, et peuvent en tirer de réels profits.

    Cette implication des utilisateurs dans la création et l’administration permet d’envisager à terme des mondes bien plus complexes. Ces nouveaux mondes s’inscrivent dans ce qu’on qualifie de « Web3 », un internet décentralisé (au sens du pouvoir, pas de l’architecture informatique) qui permettrait aux utilisateurs de reprendre le contrôle aux acteurs qui dominent le système actuel.

    Des décennies de romans et de films de science-fiction nous ont préparé aux métavers (Matrix, Ready Player One ou Free Guy par exemple, en plus des romans ou films déjà cités). La pandémie de Covid nous a poussé à déployer en masse des moyens informatiques pour nous coordonner, communiquer et collaborer. Des réunions de travail, des cours, des conférences, des concerts et autres performances artistiques en public se sont déroulés dans des conditions inédites. Malgré certaines difficultés, une étape a été franchie avec la numérisation de ces activités. Peut-on envisager ces expériences et d’autres sous des formes numériques plus riches, à plus grande échelle, telles que nous les promettent depuis longtemps les fictions sur les métavers ?

    Dans un texte de 2005, Cory Ondrejka (un des créateurs de Second Life) écrivait : « [Le métavers] sera si énorme que seules des approches distribuées de la création pourront générer son contenu. Les utilisateurs devront donc construire le monde dans lequel ils vivront. […] Ces résidents attireront des utilisateurs occasionnels qui joueront à des jeux, constitueront un public et deviendront des clients. Cela constituera l’offre et la demande d’un énorme marché de biens et de services. Les créateurs ayant la propriété et les droits [sur leurs créations], cela permettra la création de richesse et de capital qui alimenteront la croissance. Ce n’est qu’alors que le Metaverse basculera et que le monde, tant réel qu’en ligne, ne sera plus jamais le même. ».

    La convergence des éléments cités plus haut nous amène-t-elle au point de bascule ? De nombreuses questions scientifiques, technologiques, politiques, juridiques, économiques et sociologiques (entre autres) se posent encore. L’excitation actuelle retombera-t-elle avant qu’on ait pu y répondre ? Saura-t-on y répondre ? D’autres préoccupations rendront-elles toutes ces interrogations futiles ? Difficile de formuler un avis définitif…en attendant la seconde partie de l’article qui sera publiée jeudi prochain.

    Pascal Guitton (Université de Bordeaux & Inria) & Nicolas Roussel (Inria)

    [1] en anglais, on utilise Metaverse, contraction de meta + universe

    [2] Fortnite, en accès gratuit, génère chaque année plusieurs milliards de dollars de chiffre d’affaires dans le monde réel à travers les microtransactions qu’il permet avec sa monnaie virtuelle.

    [3] En 2020, une série de cinq concerts de Travis Scott a réuni plus de 27 millions de joueurs de Fortnite.

    [4] Une représentation numérique d’un sac Gucci a été vendue plus de 4000 dollars dans Roblox l’été dernier. Le sac vaut un peu plus de 3000 dollars dans le monde réel. Sa représentation numérique ne peut être sortie du jeu et ne peut être revendue dans celui-ci.

    [5] Roblox est valorisée en bourse à hauteur de 45 milliards de dollars, soit une fois et demi la valorisation de Twitter. Microsoft vient de racheter l’éditeur de jeux Activision Blizzard pour 69 milliards de dollars en expliquant que cette acquisition l’aiderait à développer les briques de base du métavers.

  • Réimaginer nos interactions avec le monde numérique

    Wendy E. Mackay est Directrice de Recherche Inria. Elle est la toute nouvelle titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où elle présente un cours intitulé « Réimaginer nos interactions avec le monde numérique ». La leçon inaugurale de ce cours est le 24 février 2022. Dans un monde où les machines sont de plus en plus présentes, son travail sur les interactions avec les machines est particulièrement essentiel. Elle avait déjà participé aux Entretiens autour de l’informatique en 2014 avec « L’être humain au cœur de la recherche en IHM ». Serge Abiteboul.
    Wendy Mackay, ©Collège de France

    Leçon inaugurale le 24 février 2022

    Comment ré-imaginer le monde numérique ? Se focaliser seulement sur la technologie, c’est manquer l’essentiel : nos interactions avec cette technologie. Mon domaine, l’Interaction Humain-Machine, pose une question fondamentale : Comment garantir que les ordinateurs répondent aux besoins des personnes qui les utilisent ? Non pas en général, mais de façon précise, à chaque instant et pour chacun.

    La leçon inaugurale du cours « Réimaginer nos interactions avec le monde numérique » offre un aperçu de ce domaine, y compris son rôle dans la révolution informatique, et des exemples historiques qui restent visionnaires aujourd’hui encore. J’explique les fondements théoriques de ce domaine multidisciplinaire qui puise dans les sciences naturelles et sociales ainsi que dans l’informatique, l’ingénierie et le design, et les défis qui se posent lorsque nous étudions des phénomènes que, par ailleurs, nous créons.

    J’analyse les problèmes que peuvent causer les systèmes interactifs, avec des exemples de systèmes critiques où des défauts mineurs d’interface utilisateur ont conduit à des catastrophes. Je décris également les différentes relations que nous entretenons avec les systèmes informatiques, qu’il s’agisse d’un outil que nous apprenons à utiliser, d’un assistant intelligent à qui nous déléguons des tâches ou d’un support riche pour communiquer avec les autres. Je trace enfin une perspective vers de véritables partenariats entre les humains et leurs instruments numériques.

    Les quatre premières leçons présentent les principes fondamentaux de l’interaction entre l’humain et l’ordinateur. Je commence par les principaux enseignements de la recherche sur les capacités humaines, avec des exemples qui illustrent leur contribution à la conception de technologies interactives. Ensuite, je mets l’accent sur les capacités pertinentes des systèmes informatiques, y compris les défis inhérents à la conception de l’interaction, avec des exemples historiques et actuels. La troisième leçon examine le processus de conception centré sur l’utilisateur, avec des exemples historiques de systèmes révolutionnaires et de méthodes permettant de générer de nouvelles technologies innovantes. La quatrième leçon explique comment évaluer les systèmes interactifs tout au long du processus de conception, en utilisant des méthodes qualitatives et quantitatives.

    L’interaction humain-machine tire ses théories et ses méthodes d’une grande variété de disciplines, en particulier dans les domaines des sciences naturelles et des sciences humaines et sociales. Les quatre leçons suivantes présentent quatre domaines de recherche actuels dans le domaine de l’interaction humain-machine. Chaque domaine a une longue histoire de recherches innovantes et continue d’être un domaine actif de recherche :

    • l’interaction multimodale : comment interagir avec tout le corps ;
    • la réalité augmentée et virtuelle : comment intégrer l’informatique avec le monde physique ;
    • la communication médiatisée : comment concevoir des systèmes collaboratifs ;
    • les partenariats humain-machine : comment interagir avec l’intelligence artificielle.

    Les humains utilisent diverses modalités pour communiquer, notamment la parole, les gestes, les expressions faciales et les mouvements du corps. La cinquième leçon retrace l’histoire des systèmes interactifs qui vont au-delà des entrées-sorties classiques que sont la souris, le clavier et l’écran. On peut par exemple penser aux interactions que nous avons tous les jours avec nos smartphone via un écran tactile. Je mentionne également des travaux qui combinent plusieurs modalités, comme la parole et le geste. Elle présente notamment des applications dans le domaine de la créativité, où les utilisateurs se servent de l’ensemble du corps pour créer avec le système.

    En tant qu’êtres humains, nous utilisons la « physique de tous les jours » pour interagir avec le monde qui nous entoure. La réalité augmentée s’appuie sur cette compréhension pour « enrichir » dynamiquement les objets physiques d’informations et en mélangeant objets physiques et numériques. La réalité virtuelle, quand à elle, cherche à immerger l’utilisateur dans des mondes réels ou imaginaires simulés. La sixième leçon décrit leurs histoires entremêlées, illustrées par des exemples tirés de mes propres recherches sur le papier interactif et appliquées à un éventail de domaines allant du contrôle du trafic aérien à la musique contemporaine.

    Les médias sociaux sont aujourd’hui partout et notre capacité à collaborer à distance est devenue une seconde nature, particulièrement depuis la pandémie, avec des outils de partage de documents et de communication directe ou différée par le texte, la voix ou la vidéo. La septième leçon retrace l’histoire de la communication médiatisée, en incluant des exemples tirés de mes propres recherches sur les mediaspaces et la vidéo collaborative, et décrit les recherches récentes sur la façon dont les innovations des utilisateurs avec les médias sociaux ont transformé notre façon de penser et d’utiliser les ordinateurs.

    L’avènement de l’intelligence artificielle (IA) a transformé notre façon d’interagir avec les ordinateurs. Même si l’IA peut parfois remplacer l’humain, elle est le plus souvent vouée à aider celui-ci, par exemple dans des tâches d’aide à la décision. Pourtant, une grande partie de la recherche actuelle se concentre sur la manière de créer des algorithmes plus puissants, et moins sur la manière dont ces algorithmes affectent les personnes qui les utilisent. La huitième leçon retrace l’histoire des relations entre l’IA et de l’IHM, y compris mes propres recherches sur les partenariats homme-machine, où les utilisateurs restent maîtres de l’interaction afin de passer du paradigme de « l’être humain dans la boucle » à celui de « l’ordinateur dans la boucle ».

    Wendy E. Mackay, Directeur de Recherche, Inria
    Professeure au Collège de France,
    Chaire Informatique et Sciences Numériques, 2021-2022

    La chaire Informatique et Sciences numériques

    Le site du Collège de France

    L’informatique au Collège de France sur binaire

    Les titulaires de la Chaire

    • Wendy Mackay – Réemaginer nos interactions avec le monde numérique 2021-2022
    • Frédéric Magniez – Algorithmes quantiques 2020-2021
    • Walter Fontana – La biologie de l’information. Un dialogue entre informatique et biologie 2019-2020
    • Rachid Guerraoui – Algorithmique répartie 2018-2019
    • Claire Mathieu – Algorithmes 2017-2018
    • Jean-Daniel Boissonnat – Géométrie algorithmique : des données géographiques à la géométrie des données 2016-2017
    • Yann LeCun – L’apprentissage profond : une révolution en intelligence artificielle
    • Marie-Paule Cani – Façonner l’imaginaire : de la création numérique 3D aux mondes virtuels animés 2014-2015
    • Nicolas Ayache – Des images médicales au patient numérique 2013-2014
    • Bernard Chazelle – L’algorithmique et les sciences 2012-2013
    • Serge Abiteboul – Sciences des données : de la logique du premier ordre à la toile 2011-2012
    • Martin Abadi – La sécurité informatique 2010-2011
    • Gérard Berry – Penser, modéliser et maîtriser le calcul informatique 2009-2010

     

     

  • Intelligence artificielle en médecine, faire de l’interpretabilité des réseaux de neurones une boite à outil pour le praticien

    Quelle est l’importance et l’impact de l’interprétabilité et de l’explicabilité, domaines de recherche très porteurs pour démystifier l’Intelligence Artificielle (IA), dans la relation entre l’IA et le praticien pour une relation de confiance. Discutons de ce point avec le Dr Masrour Makaremi, docteur en chirurgie dentaire, spécialiste en orthopédie dento-faciale orthodontie titulaire d’un master2 en Anthropologie biologique et d’un master2 en Neuroscience computationnelle-sciences cognitives. Il est actuellement Doctorant en Neuroscience cognitives de l’Université de Bordeaux, et  soutiendra prochainement sa thèse de science qui traite en partie de l’apport de l’interpretabilité des réseaux de neurones à une meilleure compréhension des dysmorphoses cranio-faciales. Ikram Chraibi Kaadoud, Thierry Vieville, Pascal Guitton

     

    En tant que praticien, comment en êtes-vous arrivé au domaine de l’IA ? 

    L’évolution de la technologie a toujours accompagné l’évolution de la médecine, mais cela est d’autant plus vrai ces dernières années, car l’émergence de l’IA dans la sphère médicale, vient changer non seulement notre pratique, mais aussi la manière d’envisager les outils et d’interagir avec eux, et par extension, cela vient aussi changer notre relation avec les patients.

    C’est en écoutant Yann Lecun en 2016 au collège de France, que je me suis réellement intéressé à l’IA. Il a su, à travers ses cours, démystifier le fonctionnement des réseaux de neurones artificiels que  j’ai commencé à envisager comme un moyen de pratiquer différemment mon métier…devenir en quelque sorte un expert augmenté en utilisant l’IA. Cette stratégie d’augmentation signifie que l’on part de ce que les humains font aujourd’hui pour arriver à comprendre la manière dont ce travail pourrait être approfondi, et non diminué, par une utilisation plus poussée de l’IA [1].

     Quels sont les challenges de l’IA en médecine ?

     C’est définitivement, la création d’un lien entre la cognition de l’expert et le flux des calculs numériques ! En résumé, les sciences cognitives ! Je m’explique : aujourd’hui les outils à base d’IA sont des outils soit d’aide à la décision, qui font par exemple des propositions de diagnostic, soit des outils pour faciliter le quotidien en prenant en charge les tâches répétitives. Par exemple, positionner des points sur un tracé céphalométrique pour objectiver les décalages des bases osseuses[2]. Ces outils sont déjà d’une très grande aide dans la pratique de mon métier au quotidien. Néanmoins, il leur manque la capacité de prendre en compte la cognition de l’expert auquel ils sont destinés.

    Par exemple, prenons le cas d’un joueur d’échecs. Lorsqu’il regarde un plateau, il va mentalement découper celui-ci, l’analyser et imaginer facilement le prochain mouvement, et tout cela en peu de secondes. La théorie des chunks [3]  a démontré que les maîtres d’échecs préparent leurs coups grâce à une intuition guidée par le savoir, en comparant le jeu devant leurs yeux à une situation de jeu similaire stockée dans leur mémoire épisodique à long terme (hippocampe).

    Figure 1 – Présentation d’une situation d’échec sous deux aspects différents, la même information présenté de deux manières différentes apportera potentiellement des réponses différentes de l’expert

    Si l’on met ce même joueur d’échec devant une feuille où cette fois ci le jeu d’échec est présenté sous la forme de suite de codes indiquant la position des pions (ex cavalier C4, exemple illustré en Figure 1) et qu’on lui demande de jouer, sa réponse changera. Il mettra probablement plus de temps, proposera peut-être une réponse moins performante, ou tout simplement risque d’être trop perturbé pour répondre. La modification de la représentation du problème, va donc changer la réponse de l’expert humain et cela est complètement normal. Or on demande justement à l’IA de pallier celà, mais sans connaissance de l’expert avec lequel elle doit s’interfacer. Réussir une stratégie d’augmentation nécessite la connexion de l’intuition  de l’expert au flux du processus numérique.

    Lors de la conception d’un produit quel qu’il soit, des utilisateurs sont de plus en plus souvent sollicités pour tester les produits et ainsi s’assurer que ces derniers répondent bien aux attentes. C’est aussi souvent le cas en informatique et en IA, mais cela ne semble pas assez pour vous, pourquoi ?

    L’IA peut aller au-delà d’un rôle d’outil d’aide à la pratique du métier de médecin, ou d’une quelconque expertise. L’IA peut devenir « notre troisième œil »[4], celui que l’on pourrait avoir métaphoriquement derrière la tête afin de nous aider à percevoir tout ce que nous ne percevons pas dans l’instant. L’idée ici serait d’augmenter l’expert en le connectant à l’IA, dès le début des phases de conception de celle-ci afin de créer une vraie collaboration. Les outils IA conçus en fonction des experts, de leurs contraintes métier objectives, de leurs perceptions subjectives, pourraient mieux s’interfacer avec l’expert métier. Et pour que cet interfaçage se fasse, il vaut mieux que le praticien soit impliqué dans les échanges dès le début de manière continue, et non une fois par mois comme on peut le voir dans certaines collaborations.

    Outre mon activité de clinicien, je travaille sur l’IA appliquée aux images médicales. Afin de maximiser la collaboration, nous avons installé une petite équipe de recherche en IA au sein de la clinique afin de pouvoir échanger constamment et facilement autour des techniques de vision par ordinateur, des stratégies de recherche et des analyses et interprétations des résultats. Mais au-delà de cela, je suis convaincu que l’équipe IA peut ainsi mieux accéder aux médecins, aux infirmières et assistantes, ceux qui ont une connaissance métier et qui interagissent avec les donnés là où elles se trouvent au quotidien. Nous savons qu’une grande partie de  l’apprentissage et de la communication entre individus se fait de façon non verbale et spontanée : en regroupant les praticiens, les data scientists et les données en un même lieu, c’est une symbiose naturelle que je recherche.

    Récemment, Pierre Vladimir Ennezat, (médecin des hôpitaux cardiologue, Centre Hospitalier Universitaire -CHU- Henri Mondor, Créteil) s’est inquiété dans une tribune du journal « le Monde » « des effets de la numérisation croissante de la relation entre soignants et patients ». Qu’en pensez-vous? 

    Heureusement qu’on est inquiet ! Cela nous oblige à une saine remise en cause ! Et nous incite à trouver notre place dans la médecine du futur. J’aime beaucoup citer « Michel Serres » qui pour les 40 ans de l’inria a fait un entretien, dans lequel il a dit que « les nouvelles technologies vont obliger les gens à être intelligents ». Isaac Bashevis Singer, prix nobel de la Littérature en 1978 complète cette pensée par une très belle citation « plus les technologies évolueront, plus on va s’intéresser à l’humain ». En résumé, l’informatique est incontournable dans le paysage médical aujourd’hui. L’IA est déjà en train de chambouler notre société à plusieurs niveaux et cela va sans aucun doute continuer. C’est d’ailleurs pour cela qu’avec le professeur P. Bouletreau, , professeur des Universités et Praticien Hospitalier au CHU de Lyon, nous proposons une introduction à l’IA dans le diplôme interuniversitaire de chirurgie orthognathique. Donc: oui, il va y avoir une numérisation croissante de la relation entre soignants et patients, mais je reste optimiste, car l’humain est un animal social ! C’est paradoxalement, là où il y a le plus de technologie, que l’on cherche le contact et la présence humaine.. Il nous faut donc juste réfléchir tous ensemble pour déterminer comment la machine peut trouver sa place parmi nous, et justement, l’interprétabilité va nous aider à cela.

    Alors justement, pourquoi l’interprétabilité ? Que change ce domaine en IA pour vous en tant que praticien ?

    L’interprétabilité en IA constitue le fait de véritablement rentrer dans le circuit des réseaux de neurones afin de rechercher une information qui vient compléter les connaissances déjà acquises, les challenger et les améliorer. Il faut “saisir ce que font ces réseaux de neurones”. Si ce domaine a été originellement pensé pour expliquer les mécanismes internes des réseaux de neurones, moi je le perçois comme étant un outil de découverte de connaissances auxquels, en tant que praticien, je n’aurais pas forcément pensé. Je vise donc à plus à une interprétabilité qui soit aussi explicable.  La question posée est  : que voit donc ce « troisième œil´´ ? Je suis convaincu qu’en explorant les mécanismes de prise de décision des réseaux de neurones nous pouvons faire de nouvelles découvertes. Par exemple, mieux appréhender des interactions entre différentes structures anatomiques dans une pathologie ou encore mieux définir les interactions entre la dysmorphose (mandibule en position rétrusive) et l’architecture cranio-faciale dans son ensemble (exemple illustré en Figure 2). Cette utilisation de l’interpretabilité des réseaux de neurones s’inspire de la théorie du logicien Kurt Godel qui disait : « Pour trouver des vérités dans un système donné, il faut pouvoir s’en extraire ». Je parle bien d’interprétabilité et non pas d’explicabilité, car le second, même s’il est très important, va moins loin pour moi dans le sens où il doit me permettre de valider le comportement de l’IA, et non me permettre de découvrir de nouvelles connaissances

    Figure 2 – Carte de saillance (technique score-CAN) développée à partir de superposition de 1500 téléradiographie de profil de crâne de patients avec une mandibule en position retrusive par rapport au reste du crâne : retrognathe). Cette carte permet de mieux définir les interactions entre la dysmorphose (mandibule en position rétrusive)et l’architecture cranio faciale dans son ensemble.

     

     

     

    Si vous pouviez ne transmettre qu’un message sur le sujet IA-praticien, quel serait-il ? 

    Grâce à une réelle collaboration entre les spécialistes dans chacun des domaines,  les experts en IA et à l’utilisation de l’interprétabilité, les réseaux de neurones ne doivent pas seulement évoluer d’une black-box vers une white-box pour qu’on leur fasse confiance. Mais ils peuvent devenir une véritable   ”tool-box », c’est à dire une boîte à outils, au service de la réflexion du praticienCe défi sera pour moi une clé de la réussite d’une stratégie d’augmentation en médecine mais également éviter que l’IA ne sombre à nouveau  dans un  hiver délaissé par ses utilisateurs, après des promesses qui n’aboutissent pas

    Pour en savoir plus: 

    1. Dr Masrour makaremi :https://www.makaremi-orthodontie.fr/ 
    2. Stratégie d’augmentation : 
      • Davenport TH, Kirby J. Au-delà de l’automatisation. HBR, 2016.
    3.  Utilisation de l’IA pour le positionnement de points sur un tracé céphalométrique pour objectiver les décalages des bases osseuses :
      •  Kim, H., Shim, E., Park, J., Kim, Y. J., Lee, U., & Kim, Y. (2020). Web-based fully automated cephalometric analysis by deep learning. Computer methods and programs in biomedicine, 194, 105513.
      • Lindner, C., & Cootes, T. F. (2015). Fully automatic cephalometric evaluation using random forest regression-voting. In IEEE International Symposium on Biomedical Imaging (ISBI) 2015–Grand Challenges in Dental X-ray Image Analysis–Automated Detection and Analysis for Diagnosis in Cephalometric X-ray Image. 
      • Liu, X., Faes, L., Kale, A. U., Wagner, S. K., Fu, D. J., Bruynseels, A., … & Denniston, A. K. (2019). A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. The lancet digital health, 1(6), e271-e297.
    4. Théorie des chunks :
      • Gobet, F., Lane, P. C., Croker, S., Cheng, P. C., Jones, G., Oliver, I., & Pine, J. M. (2001). Chunking mechanisms in human learning. Trends in cognitive sciences, 5(6), 236-243.
    5. IA, le troisième œil en médecine :

     

     

     

  • Le raisonnement scientifique qui se cache derrière le covido-scepticisme

    Comment les sceptiques du COVID-19 utilisent-ils les données épidémiologiques sur les réseaux sociaux pour militer contre le port du masque et autres mesures de santé publique ? Dans cet article, Crystal Lee partage le résultat d’une enquête sur les groupes de réseaux sociaux des sceptiques du COVID afin de démêler leurs pratiques d’analyse de données et leur tentative de création de sens. Lonni Besançon

    (an English version is also available)

    Image 1 : un utilisateur de résaux sociaux présentant son analyse et ses doutes sur les données officielles américaine

    Vous avez probablement assisté à une version de cette conversation au cours des derniers mois : un proche refuse de se faire vacciner ou affirme que l’épidémie de COVID est complètement exagérée, en pointant du doigt les dernières recherches lues sur Facebook. « Oui, moi je suis réellement la science », affirme-t-il. « Vous devriez faire pareil ». S’il est tentant d’écarter ces messages et conversations sur les médias sociaux comme étant simplement non scientifiques et nécessitant juste un rectificatif, une étude de six mois que j’ai menée avec une équipe de chercheurs du MIT suggère qu’une vision simpliste et binaire de la science – les chercheurs universitaires sont scientifiques, les messages Facebook ne le sont pas – nous empêche de vraiment comprendre l’accroche que génère ces groupes anti-masques. Bien que nous n’approuvions pas, ni ne cherchions à légitimer ces croyances, notre étude montre comment les utilisateurs de forums en ligne exploitent et détournent les compétences et les concepts qui sont les marqueurs de la démarche scientifique traditionnelle pour s’opposer à des mesures de santé publique telles que l’obligation de porter un masque ou l’interdiction de manger à l’intérieur d’une restaurant. Nombre de ces groupes utilisent activement des visualisations de données pour contredire celles des journaux et des organismes de santé publique, et il est souvent difficile de concilier ces discussions autour des données (voir image 1). Ces utilisateurs prétendent utiliser des méthodes scientifiques conventionnelles pour analyser et interpréter les données de santé publique ;comment se fait-il qu’ils arrivent à des conclusions totalement différentes de la majorité des scientifiques et experts de santé publique ? Qu’est-ce que « la science » telle que voudrait la définir ces groupes ?

    Image 2 : un utilisateur montrant ses doutes sur l’origine des données.

    Pour répondre à cette question, nous avons mené une analyse quantitative d’un demi-million de tweets et de plus de 41 000 visualisations de données parallèlement à une étude ethnographique des groupes Facebook anti-masques [1]. Ce faisant, nous avons catalogué une série de pratiques qui sont à la base des argumentations courantes contre les recommandations de santé publique, et beaucoup sont liées à des compétences que les chercheurs pourraient enseigner à leurs étudiants. En particulier, les groupes anti-masque sont critiques à l’égard des sources de données utilisées pour réaliser des visualisations dans les articles basés sur les données (voir images 1 et 2). Ils s’engagent souvent dans de longues conversations sur les limites des données imparfaites, en particulier dans un pays où les tests ont été ponctuels et inefficaces. Par exemple, beaucoup affirment que les taux d’infection sont artificiellement élevés, car au début de la pandémie, les hôpitaux ne testaient que les personnes symptomatiques. Ils arguent que le fait de tester aussi les personnes asymptomatiques ferait baisser cette statistique. De plus,  comme les personnes asymptomatiques ne sont par définition pas physiquement affectées par le virus, cela permet aux personnes qui utilisent cet argumentation de conclure que la pandémie n’est quasiment pas mortelle. 

    Ces militants anti-masque en déduisent donc que des statistiques peu fiables ne peuvent pas servir de base à des politiques néfastes, qui isolent davantage les gens et conduisent les entreprises à s’effondrer de façon massive. Au lieu d’accepter telles quelles les conclusions des médias d’information ou des organisations gouvernementales, ces groupes affirment que comprendre comment ces mesures sont calculées et interprétées est le seul moyen d’accéder à la vérité sans fard. En fait, pour découvrir ces histoires cachées, certains ont délibérément évité les visualisations au profit des tableaux, qu’ils considèrent comme la forme de données la plus « brute » et la moins médiatisée. Pour nombre de ces groupes, il est essentiel de suivre la science pour prendre des décisions éclairées, mais selon eux, les données ne justifient tout simplement pas les mesures de santé publique telles que le port du masque (voir image 3).

    Image 3 : un utilisateur utilisant les données de la Suède pour dire que les interventions gouvernementale ne sont pas justifiées.

     

    Que disent donc les utilisateurs de masques à propos des données ? De mars à septembre 2020, nous avons mené une étude de type « deep lurking » (observation profonde) de ces groupes Facebook – basée sur la méthode de « deep hanging out » (immersion profonde) de l’anthropologue Clifford Geertz – en suivant les fils de commentaires, en archivant les images partagées et en regardant les flux en direct où les membres animent des tutoriels sur l’accès et l’analyse des données de santé publique.

     

    Les anti-masques sont parfaitement conscients que les organisations politiques et d’information dominantes utilisent des données pour souligner l’urgence de la pandémie. Eux, pensent que ces sources de données et ces visualisations sont fondamentalement erronées et cherchent à contrecarrer ce qu »ils considèrent comme des biais. Leurs discussions reflètent une méfiance fondamentale à l’égard des institutions publiques : les anti-masques estiment que l’incohérence dans la manière dont les données sont collectées (image 4, surlignage jaune) et l’incessante propagande alarmiste rendent difficile la prise de décisions rationnelles et scientifiques. Ils pensent également que les données ne soutiennent pas les politiques gouvernementales actuelles (image 4, surlignage bleu).

    Image 4 : conversations mettant en avant les doutes sur la façon dont les données sont collectées (surlignage jaune) et sur le fait que les données ne soutiennent pas les politiques gouvernementales actuelles (surlignage bleu).

    Alors comment ces groupes s’écartent-ils de l’orthodoxie scientifique s’ils utilisent les mêmes données ? Nous avons identifié quelques tours de passe-passe qui contribuent à la crise épistémologique plus large que nous identifions entre ces groupes et la majorité des chercheurs. Par exemple, les utilisateurs anti-masque soutiennent que l’on accorde une importance démesurée aux décès par rapport aux cas recensés : si les ensembles de données actuels sont fondamentalement subjectifs et sujets à manipulation (par exemple, l’augmentation des niveaux de tests erronés), alors les décès sont les seuls marqueurs fiables de la gravité de la pandémie. Même dans ce cas, ces groupes pensent que les décès constituent une catégorie supplémentaire problématique car les médecins utilisent le diagnostic du COVID comme principale cause de décès (c’est-à-dire les personnes qui meurent à cause du COVID) alors qu’en réalité d’autres facteurs entrent en jeu (c’est-à-dire les personnes contaminées qui meurent de co-morbidité avec, mais pas à cause directement, du COVID). Puisque ces catégories sont sujettes à l’interprétation humaine, en particulier par ceux qui ont un intérêt direct à rapporter autant de décès dus au COVID que possible, ces chiffres sont largement « surdéclarés », peu fiables et pas plus significatifs que la grippe, pensent leurs détracteurs.

    Plus fondamentalement, les groupes anti-masque se méfient de la communauté scientifique parce qu’ils croient que la science a été corrompue par des motivations liée au profit et par des politiques soi-disant progressistes mais en fait déterminées à accroître le contrôle social. Les fabricants de tabac, affirment-ils à juste titre, ont toujours financé des travaux scientifiques qui ont induit le public en erreur sur la question de savoir si le fait de fumer provoquait ou non le cancer. Ils pensent donc que les sociétés pharmaceutiques sont dans une situation similaire : des sociétés comme Moderna et Pfizer vont tirer des milliards de bénéfices du vaccin, et il est donc dans leur intérêt de maintenir un sentiment d’urgence sanitaire et publique quant aux effets de la pandémie, affirment-ils. En raison de ces incitations, ces groupes soutiennent que ces données doivent faire l’objet d’un examen supplémentaire et être considérées comme fondamentalement suspectes. Pour les scientifiques et les chercheurs, affirmer que les anti-masques ont simplement besoin d’une plus grande culture scientifique, alors que justement ils s’appuient dessus et la manipule, offre aux antimasques une preuve supplémentaire de l’impulsion de l’élite scientifique à condescendre aux citoyens qui épousent réellement le bon sens. 

    Quelle solution s’offre alors pour éviter ces problèmes? 

    • Mieux rendre visible l’exemplarité : la communauté scientifique doit toujours travailler dans un vrai esprit éthique et de transparence [2], elle le fait (sauf exceptions rares et sanctionnées) mais ne montre probablement pas assez cet esprit éthique, il faudrait le ré-affirmer plus.
    • Bien rendre visible le doute : nombre de scientifiques ont aussi dit par rapport aux données du COVID « ça nous ne savons pas ou ne sommes pas sûrs´´ mais le traitement par les médias de ces incertitudes est souvent biaisée, c’est moins médiatique de dire « peut-être » que d’affirmer une chose … puis son contraire.
    • Aider à développer l’esprit critique : envers à la fois la science académique et les interprétations anti-scientifiques qui en sont faites. Développer l’esprit critique n’est pas dire qui a raison ou tort mais aider chacune et chacun à faire la part des faits de celles des croyances, à évaluer et déconstruire les arguments, non pas pour le rejeter systématiquement, mais pour en comprendre les origines.

    Les données scientifiques de cette pandémie et leurs interprétations largement médiatisées pourraient être une occasion de mieux comprendre collectivement la démarche scientifique avec sa force, ses limites et ses dévoiements.

    Crystal Lee

    Références:

    [1] Crystal Lee, Tanya Yang, Gabrielle Inchoco, Graham M. Jones, and Arvind Satyanarayan. 2021. Viral Visualizations: How Coronavirus Skeptics Use Orthodox Data Practices to Promote Unorthodox Science Online. In CHI Conference on Human Factors in Computing Systems (CHI ’21), May 8–13, 2021, Yokohama, Japan. ACM, New York, NY, USA, 18 pages. https://doi.org/10.1145/3411764.3445211

    [2] Besançon, L., Peiffer-Smadja, N., Segalas, C. et al. Open science saves lives: lessons from the COVID-19 pandemic. BMC Med Res Methodol 21, 117 (2021). https://doi.org/10.1186/s12874-021-01304-y

     

  • The scientific thinking behind COVID-19 skepticism

    How do COVID-19 skeptics use epidemiological data on social media to advocate against mask mandates and other public health measures? In this article, Crystal Lee proposes the result of an investigation into COVID skeptic social media groups to untangle their practices of data analysis and sense-making. Lonni Besançon

    (la version française est disponible ici)

    Image 1: a social network user presenting his analysis and doubts about the official US data

    You’ve likely seen some version of this conversation in the last few years: a loved one refuses to get vaccinated or claims that the COVID epidemic is completely overblown, pointing to the latest research they saw on Facebook. “I’m the one actually following the science,” they say. “You really should do your own research.” While it’s tempting to brush off these social media posts and conversations as simply unscientific and in need of correction, a six months-long study I conducted with a team of MIT researchers suggests that a simplistic, binary view of science — university researchers are scientific, Facebook posts are not — makes it difficult for us to really understand what makes these anti-mask groups tick. While we do not condone or seek to legitimize these beliefs, our study shows how users in online forums leverage skills and tropes that are the markers of traditional scientific inquiry to oppose public health measures like mask mandates or indoor dining bans. Many of these groups actively employ data visualizations to contradict those made by newspapers and public health organizations, and it can often be difficult to reconcile these discussions around the data (see Image 1). If these users claim to use conventional scientific methods to analyze and interpret publicly available health data, how is it that they come to entirely different conclusions? What is “science” as defined by these groups?

    Image 2 : a user showing his doubts about the origin of the data.

    To answer this question, we conducted a quantitative analysis of half a million tweets and over 41,000 data visualizations alongside an ethnographic study of anti-mask Facebook groups [1]. In the process, we catalogued a series of practices that undergird common arguments against public health recommendations, many of which are skills that scientists might teach their students. In particular, anti-mask groups are critical about the data sources used to make visualizations in data-driven stories (see Image 1 & 2). They often engage in lengthy conversation about the limitations of imperfect data, particularly in a country where testing has been spotty and inefficient. For example, many argue that infection rates are artificially high, as hospitals early in the pandemic were only testing symptomatic individuals. Testing asymptomatic people lowers this statistic, but since asymptomatic people are by definition not physically affected by the virus, this allows users to conclude that the pandemic is not deadly. 

    These anti-mask activists therefore conclude that unreliable statistics cannot be the basis of harmful policies that further isolate people and leave businesses to collapse en masse. Instead of accepting conclusions as is from news media or government organizations, these groups argue that understanding how these metrics are calculated and interpreted is the only way that they will access the unvarnished truth. In fact, to uncover these hidden stories, some deliberately avoided visualizations completely in favor of tables, which they construed as the “rawest,” most unmediated form of data. For many of these groups, following the science is crucial to making informed decisions — but in their view, the data simply doesn’t support public health measures like asking people to wear masks (see Image 3).

    Image 3: a user using data from Sweden to say that government interventions are not justified.

     

    So what do anti-mask users actually say about the data? From March to September 2020, we conducted a “deep lurking” study of these Facebook groups — based on anthropologist Clifford Geertz’s method of “deep hanging out” — by following comment threads, archiving shared images, and watching live streams where members led tutorials on accessing and analyzing public health data.

    Image 4 : conversations highlighting doubts about how the data is collected (yellow highlighting) and that the data does not support current government policies (blue highlighting).

    So how do these groups diverge from scientific orthodoxy if they are using the same data? We have identified a few sleights of hand that contribute to the broader epistemological crisis we identify between these groups and the majority of scientific researchers. For instance, anti-mask users argue that there is an outsized emphasis on deaths versus cases: if the current datasets are fundamentally subjective and prone to manipulation (e.g., increased levels of faulty testing), then deaths are the only reliable markers of the pandemic’s severity. Even then, these groups believe that deaths are an additionally problematic category because doctors are using a COVID diagnosis as the main cause of death (i.e., people who die because of COVID) when in reality there are other factors at play (i.e., dying with but not because of COVID). Since these categories are subject to human interpretation, especially by those who have a vested interest in reporting as many COVID deaths as possible, these numbers are vastly over-reported, unreliable, and no more significant than the flu.

    Most fundamentally, anti-mask groups mistrust the scientific establishment because they believe that science has been corrupted by profit motives and by progressive politics hellbent on increasing social control. Tobacco companies, they rightly argue, historically funded science that misled the public about whether or not smoking caused cancer. Pharmaceutical companies are in a similar boat: companies like Moderna and Pfizer stand to profit billions from the vaccine, so it is in their interest to maintain a sense of public urgency about the pandemic’s effects. Because of these incentives, these groups argue that these data need to be subject to additional scrutiny and should be considered fundamentally suspect. For scientists and researchers to argue that anti-maskers simply need more scientific literacy is to characterize their approach as inexplicably extreme, which unfortunately leaves anti-maskers with further evidence of the scientific elite’s impulse to condescend to citizens who actually espouse common sense. 

     

    What solutions are available to avoid these problems?

    • Make exemplarity more visible: the scientific community must always work in a true spirit of ethics and transparency [2], it does so (with rare and sanctioned exceptions) but probably does not show this ethical spirit enough, it should be emphasised more.
    • Make doubt visible: a number of scientists have also said in relation to the COVID data « we don’t know or are not sure » but the media’s treatment of these uncertainties is often biased, it is less media-friendly to say « maybe » than to assert one thing … and then its opposite.
    • Help develop critical thinking: towards both academic science and anti-scientific interpretations of it. Developing a critical mind does not mean saying who is right or wrong, but helping each and every one of us to separate facts from beliefs, to evaluate and deconstruct arguments, not to systematically reject them, but to understand their origins.

    The scientific data of this pandemic and their widely publicised interpretations could be an opportunity to collectively better understand the scientific process with its strength, its limits, and its deviations.

    Crystal Lee

    Références:

    [1] Crystal Lee, Tanya Yang, Gabrielle Inchoco, Graham M. Jones, and Arvind Satyanarayan. 2021. Viral Visualizations: How Coronavirus Skeptics Use Orthodox Data Practices to Promote Unorthodox Science Online. In CHI Conference on Human Factors in Computing Systems (CHI ’21), May 8–13, 2021, Yokohama, Japan. ACM, New York, NY, USA, 18 pages. https://doi.org/10.1145/3411764.3445211

    [2] Besançon, L., Peiffer-Smadja, N., Segalas, C. et al. Open science saves lives: lessons from the COVID-19 pandemic. BMC Med Res Methodol 21, 117 (2021). https://doi.org/10.1186/s12874-021-01304-y

     

  • Le plus gros bug de l’histoire !

    Un bug ne se manifeste pas nécessairement dès l’instant où il est dans un système. Les bugs les plus discrets sont d’ailleurs souvent les plus dangereux. Quand ils surgissent, la catastrophe peut être terrible comme celle d’Ariane 5 en 1996, qu’on a qualifiée de bug le plus cher de l’histoire. Plus rares, il y a des bugs dont l’effet nuisible n’apparaît que lentement et progressivement, sans qu’on ose ou puisse les corriger et dont les conséquences désastreuses s’empirent jusqu’à devenir gravissimes. Celui dont nous parle ici Jean-Paul Delahaye est de ce type. Serge Abiteboul, Thierry Viéville.

    Il s’agit du bug dans le protocole de distribution de l’incitation du réseau Bitcoin, la fameuse cryptomonnaie. On va voir qu’il est bien pire que celui d’Ariane 5.

    Pour que le réseau Bitcoin fonctionne et fasse circuler en toute sécurité l’argent auquel il donne vie, il faut que des volontaires acceptent de participer à sa surveillance et à la gestion des informations importantes qu’il gère et qui s’inscrivent sur une « chaîne de pages », ou « blo

    Explosion du vol 501 d’Ariane V du à un bug informatique ©ESA.int

    ckchain ». Une rémunération a donc été prévue pour récompenser ces volontaires, appelés validateurs. Elle provient de nouveaux Bitcoins créés ex-nihilo et est distribuée toutes les 10 minutes environ à un et un seul des validateurs. Qu’il n’y en ait qu’un à chaque fois n’est pas grave car dix minutes est un intervalle court et donc la récompense est distribuée un grand nombre de fois — plus de 50000 fois par an. Reste que distribuer cette incitation pose un problème quand les ordinateurs ne sont pas obligés d’indiquer qui les contrôle, ce qui est le cas du réseau Bitcoin où tout le monde peut agir anonymement en utilisant des pseudonymes ou ce qui revient au même un simple numéro de compte.

    Distribuer l’incitation par un choix au hasard qui donne la même chance à chaque validateur d’être retenu serait une solution parfaite si tout le monde était honnête. Ce n’est pas le cas bien sûr, et un validateur pourrait apparaître sous plusieurs pseudonymes différents pour augmenter la part de l’incitation qu’il recevrait avec un tel système. Avec k pseudonymes un validateur tricheur toucherait l’incitation k fois plus souvent que les validateurs honnêtes. S’il apparaît sous mille pseudonymes différents, il toucherait donc mille fois plus qu’un validateur honnête… qui ne le resterait peut-être pas. Le réseau serait en danger. En langage informatique, on appelle cela une « attaque Sybil » du nom d’une patiente en psychiatrie qui était atteinte du trouble des personnalités multiples ou trouble dissociatif de l’identité. Plusieurs solutions sont possibles pour empêcher ces attaques, et le créateur du protocole Bitcoin dont on ne connait d’ailleurs que le pseudonyme, Satoshi Nakamoto, en a introduite une dans son système qu’au départ on a jugée merveilleuse, mais dont on a compris trop tard les conséquences désastreuses. Ces conséquences sont si graves qu’on peut affirmer que le choix de la méthode retenue et programmée par Nakamoto pour contrer les attaques Sybil est un bug.

    Sa solution est « la preuve de travail » (« Proof of work » en anglais). L’idée est simple : on demande aux validateurs du réseau de résoudre un problème arithmétique nouveau toutes les dix minutes. La résolution du problème exige un certain temps de calcul avec une machine de puissance moyenne, et elle ne s’obtient qu’en cherchant au hasard comme quand on tente d’obtenir un double 6 en jetant de manière répétée deux dés. Le premier des validateurs qui résout le problème gagne l’incitation pour la période concernée. Toutes les dix minutes un nouveau problème est posé permettant à un validateur de gagner l’incitation.

    Si tous les validateurs ont une machine de même puissance les gains sont répartis équitablement entre eux, du moins sur le long terme. Si un validateur utilise deux machines au lieu d’une seule pour résoudre les problèmes posés, il gagnera deux fois plus souvent car avec ses deux machines c’est comme s’il lançait deux fois plus souvent les dés que les autres. Cependant c’est acceptable car il aura dû investir deux fois plus que les autres pour participer ; son gain sera proportionné à son investissement. Il pourrait gagner plus souvent encore en achetant plus de machines, mais ce coût pour multiplier ses chances de gagner l’incitation impose une limite. On considère que ce contrôle des attaques Sybil est satisfaisant du fait que les gains d’un validateur sont fixés par son investissement. Il faut noter que celui qui apparaît avec k pseudonymes différents ne gagne rien de plus que s’il apparait sous un seul, car les chances de gagner sont proportionnelles à la puissance cumulée des machines qu’il engage. Qu’il engage sa puissance de calcul sous un seul nom ou sous plusieurs ne change rien pour lui. Avec la preuve de travail, il semble que la répartition des gains ne peut pas être trop injuste car si on peut améliorer ses chances de gagner à chaque période de dix minutes, cela à un coût et se fait proportionnellement à l’investissement consenti.

    Une usine de minage de bitcoin avec ces immense salles remplies d’unités de calcul ©AndreyRudakov/Bloomberg

    Le réseau bitcoin fonctionne selon le principe de la preuve de travail. Au départ tout allait bien, les validateurs se partageaient les bitcoins créés et mis en circulation à l’occasion de chaque période, sans que cela pose le moindre problème puisque leurs machines avaient des puissances comparables et que personne n’en utilisait plusieurs pour augmenter ses chance de gagner. La raison principale à cette situation est qu’en 2009 quand le réseau a été mis en marche, un bitcoin ne valait rien, pas même un centime de dollar. Investir pour gagner un peu plus de bitcoins n’avait pas d’intérêt. Cependant, petit à petit, les choses ont mal tourné car le bitcoin a pris de la valeur. Il est alors devenu intéressant pour un validateur de se procurer du matériel pour gagner plus souvent les concours de calcul que les autres. Plus la valeur du bitcoin montait plus il était intéressant de mettre en marche de nombreuses machines pour augmenter ses gains en gagnant une plus grande proportion des concours de calcul. Une augmentation de la capacité globale de calcul du réseau s’est alors produite. Elle n’a pas fait diminuer le temps nécessaire pour résoudre le problème posé chaque dix minutes, car Nakamoto, très malin, avait prévu un mécanisme qui fait que la difficulté des problèmes soumis s’ajuste automatiquement à la puissance totale du réseau. Depuis 2009, il faut dix minutes environ pour qu’un des ordinateurs du réseau résolve le problème posé et gagne l’incitation, et cette durée n’a jamais changée car le réseau est conçu pour cela.

    Du bitcoin à la blockchain : dans ce double podcast Jean-Paul prend le temps d’expliquer comment ça marche aux élève de l’enseignement SNT en seconde et au delà.

    Les validateurs associés parfois avec d’autres acteurs spécialisés dans la résolution des problèmes posés par le réseau — et pas du tout dans la validation — ont accru leurs capacités de calcul. La puissance cumulée de calcul du réseau a en gros été multipliée par dix tous les ans entre 2010 et maintenant. C’est énorme !

    Les spécialistes de la résolution des problèmes posés par le réseau sont ce qu’on nomme aujourd’hui les « mineurs » : ils travaillent pour gagner des bitcoins comme des mineurs avec leurs pioches tirent du minerai du sous sol. Il faut soigneusement distinguer leur travail de celui des validateurs : les validateurs gèrent vraiment le réseau et lui permettent de fonctionner, les mineurs calculent pour aider les validateurs à gagner l’incitation. Si parfois des validateurs sont aussi mineurs, il faut bien comprendre que deux type différents de calculs sont faits : il y a le travail de validation et le travail de minage.

    Entre 2010 et maintenant, la puissance du réseau des mineurs a été multipliée par 1011, soit 100 milliards. L’unité de calcul pour mesurer ce que font les mineurs est le « hash ». En janvier 2022, on est arrivé à 200×1018 hashs pas seconde, soit 200 milliards de milliards de hashs par seconde, un nombre colossal.

    Bien sûr les machines utilisées ont été améliorées et on a même fabriqué des circuits électroniques pour calculer rapidement des hashs, et on les perfectionne d’année en année. Cependant, et c’est là que le bug est devenu grave, même en dépensant de moins en moins d’électricité pour chaque hash calculé, on en a dépensée de plus en plus, vraiment de plus en plus ! La logique économique est simple : plus le cours du bitcoin est élevé —il s’échange aujourd’hui à plus de 30 000 euros— plus il vaut la peine d’investir dans des machines et d’acheter de l’électricité dans le but de miner car cela permet de gagner plus fréquemment le concours renouvelé toutes les dix minutes, et cela rentabilise les investissements et dépenses courantes du minage.

    Une concurrence féroce entre les mineurs s’est créée, pour arriver en 2022 à une consommation électrique des mineurs qu’on évalue à plus de 100 TWh/an. La valeur 50 TWh est un minimum absolument certain, mais 100 TWh/an ou plus est très probable. Sachant qu’un réacteur nucléaire de puissance moyenne produit 8 TWh/an, il y a donc l’équivalent de plus de 12 réacteurs nucléaires dans le monde qui travaillent pour produire de l’électricité servant à organiser un concours de calcul qui fixe toutes les dix minutes quel est le validateur qui gagne l’incitation. Je me permets d’insister : l’électricité n’est pas dépensée pour le fonctionnement en propre du réseau, mais uniquement pour désigner le validateur gagnant. Quand on étudie le fonctionnement du réseau bitcoin, on découvre qu’il y a au moins mille fois plus d’électricité dépensée par le réseau pour choisir le gagnant toutes les dix minutes, que pour son fonctionnement propre. S’il dépense beaucoup, c’est donc à cause de la preuve de travail, pas à cause de sa conception comme réseau distribué et bien sécurisé permettant la circulation des bitcoins.

    Est-ce que cette situation justifie vraiment de parler de bug ? Oui, car il existe d’autres solutions que la preuve de travail et ces autres solutions n’engendrent pas cette dépense folle d’électricité. La solution alternative la plus populaire dont de multiples variantes ont été proposées et mises en fonctionnement sur des réseaux concurrents du bitcoin se nomme « la preuve d’enjeu ». Son principe ressemble un peu à celui de la preuve de travail. Les validateurs qui veulent avoir une chance de se voir attribuer l’incitation distribuée périodiquement, engage une somme d’argent en la mettant sous séquestre sur le réseau où elle se trouve donc bloquée temporairement. Plus la somme mise sous séquestre est grande plus la probabilité de gagner à chaque période est grande. Comme pour la preuve de travail, avec la preuve d’enjeu il ne sert à rien de multiplier les pseudonymes car votre probabilité de gagner l’incitation sera proportionnelle à la somme que vous engagerez. Que vous le fassiez en vous cachant derrière un seul pseudonyme, ou derrière plusieurs ne change pas cette probabilité. Quand un validateur souhaite se retirer, il récupère les sommes qu’il a engagées ; ce qu’il a gagné n’est donc pas amputé par des achats de machines et d’électricité.

    Cette méthode ne provoque pas de dépenses folles en électricité et achats de matériels, car il n’y en a pas ! Avec des configurations équivalentes de décentralisation et de sécurisation un réseau de cryptomonnaie utilisant la preuve d’enjeu dépensera mille fois moins d’électricité qu’un réseau utilisant la preuve de travail. Il y a une façon simple d’interpréter les choses. La preuve d’enjeu et la preuve de travail limitent toutes les deux les effets des attaques Sybil en distribuant l’incitation proportionnellement aux engagements de chaque validateur —soit du matériel de calcul et de l’électricité, soit un dépôt d’argent —. Cependant la preuve d’enjeu rend son engagement au validateur quand il cesse de participer, et donc rien n’est dépensé pour participer, alors que la preuve de travail consomme définitivement l’électricité utilisée et une partie de la valeur des matériels impliqués. En un mot, la preuve de travail est une preuve d’enjeu qui confisque une partie des sommes engagées et les brûle.

    Avoir utilisé la preuve de travail, avec les conséquences qu’on observe aujourd’hui est de toute évidence une erreur de programmation dans le protocole du réseau du bitcoin. Le bug n’est apparu que progressivement mais il est maintenant là, gravissime. Le plus terrible, c’est qu’une fois engagé avec la preuve de travail le réseau bitcoin est devenu incapable de revenir en arrière. Corriger le bug alors que le réseau est en fonctionnement est quasiment impossible.

    En effet, le pouvoir pour faire évoluer la façon dont fonctionne du réseau, ce qu’on appelle sa gouvernance, est aux mains de ceux qui disposent de la puissance de calcul pour le minage. Ils ont acheté du matériel, installé leurs usines, appris à se procurer de l’électricité bon marché, ils ne souhaitent pas du tout que la valeur de leurs investissements tombe à zéro. Ils ne souhaitent donc pas passer à la preuve d’enjeu. La correction du bug est donc devenue très improbable. Aujourd’hui le réseau Ethereum qui est le second en importance dans cette catégorie essaie malgré tout de passer de la preuve de travail à la preuve d’enjeu. Il a beaucoup de mal à le faire et il n’est pas certain qu’il y arrive. Du côté du bitcoin rien n’est tenté. Sans interventions extérieures, le bug du bitcoin va donc continuer à provoquer ses effets absurdes.

    Est-ce le plus gros bug de l’histoire ? Celui d’Ariane 5 a été évalué à environ 5 millions de dollars. Si on considère, ce qui semble logique, que tout l’argent dépensé en minage représente le coût du bug du bitcoin alors c’est beaucoup plus, puisqu’en ordre de grandeur le minage depuis 2009 a coûté entre 5 et 10 milliards de dollars et peut-être plus. Le piège économique qui est résulté du bug est d’une perversité peut-être jamais rencontrée.

    Jean-Paul Delahaye,  Professeur d’informatique à l’université Lille-I

    Au delà :

    + La preuve de travail a d’autres inconvénients que celui mentionné ici de dépenser inutilement en électricité la production d’une dizaine de réacteurs nucléaires. Ces autres inconvénients sont présentés dans un document qui peut être vu comme un complément à ce texte :
    Jean-Paul Delahaye, Les arguments en faveur de la preuve d’enjeu contre la preuve de travail pour les chaines de bloc, Institut Rousseau, février 2022.

    Une tribune intitulée «Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie » portant sur le problème de la régulation des cryptoactifs a été publiée par Le Monde le jeudi 10 février 2022. Vous pouvez en voir le texte avec la liste des signataires et éventuellement ajouter votre signature en allant en : https://institut-rousseau.fr/liste-des-signataires-tribune-regulation-cryptoactifs/

     

     

  • Aha ! Le cri de la créativité du cerveau

    Oui, binaire s’adresse aussi aux jeunes de tous âges, que les sciences informatiques laissent parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible, comment modéliser informatiquement la… créativité. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

    – Aha !
    – Toi, tu viens de trouver quelque chose
    – Oh oui : j’étais dans l’impasse depuis un moment pour résoudre mon problème, j’avais vraiment tout essayé, et puis là, soudainement, cela m’est apparu : la solution est devenue claire, générant un vrai plaisir intellectuel, et avec la certitude que c’est bien ça.
    – Ah oui, c’est ce que les spécialistes en neuroscience appellent l’insight.  Ça se rapproche de l’intuition; on parle aussi de l’effet Eureka, et c’est super bien étudié.
    – Tu veux dire qu’on sait ce qui se passe dans le cerveau à ce moment-là
    – Oui et mieux encore : on sait simuler cela de manière informatique.
    – Allez, vas-y, explique.

    – Assez simplement quand on “pense”, il y a une partie de notre pensée qui est explicite : on amène de manière explicite des éléments dans notre mémoire de travail, pour les utiliser. Il y a à la fois des souvenirs épisodiques personnellement vécus dans un lieu et à un instant donné et des connaissances générales sur les choses, à propos des règles d’action.Mais il y aussi toute une part de notre cerveau qui fonctionne implicitement, c’est à dire qui utilise des processus automatisés (donc non conscients) correspondant à des résumés, des simplifications, de pensées explicites anciennes que l’on a tellement pratiquées qu’on a fini par les automatiser. Elles sont plus rapides et simples à utiliser mais moins adaptables et moins facile à interpréter. On peut alors raisonner de manière analytique en restant au niveau explicite ou solliciter la partie implicite de notre pensée pour fournir des pistes plus inédites, et cela correspond au fonctionnement d’une partie du réseau cérébral dit “par défaut” qui s’active quand on laisse libre court à nos pensées. Ce réseau sert aussi en utilisant notre mémoire épisodique à générer des souvenirs et des épisodes imaginaires qui aident, à partir de la situation présente, à explorer les possibles.

    Modèle anatomique et fonctionnel du réseau du mode par défaut. Michel Thiebaut de Schotten, via Wikipédia © CC BY-SA, On trouvera une description précise ici.

    – Ok alors, en gros pour résoudre une tâche créative, on se prépare et puis ensuite on laisse notre cerveau tourner pour voir à trouver des choses inattendues ?
    – Tu as doublement raison : ça ne vient pas tout seul, il faut bien une phase d’initiation pour que les mécanismes implicites fonctionnent, puis une phase de “lâcher prise” et…
    – Et que se passe-t-il lors du “Aha” ?
    – Et bien regarde : il y a une rafale d’oscillations à haute fréquence du cerveau, précédée d’oscillations préparatoires plus lentes :


    Quand le phénomène d’insight apparaît il est précédé d’une augmentation des oscillations lentes du cerveau (rythme alpha qui correspond à une activité de “repos” sans effectuer de tâches particulières mais qui permet au cerveau de travailler en interne) puis se manifeste avec l’apparition d’oscillations rapides (rythme gamma concomitant à l’arrivée à la conscience d’une perception au sens large en lien avec les phénomènes d’attention. ©CLIPAREA I Custom media/Shutterstock.com (image de gauche) et adapté de The Cognitive Neuroscience of Insight, John Kounios et Mark Beeman Annual Review of Psychology, January 2014 (image de droite)

    Comme une vague de fond qui arrive ?
    – Oui : le moment “Aha” , c’est justement quand tout s’emboîte : quand on se rend compte que la solution trouvée convient à la fois au niveau du sens des choses (au niveau sémantique) et de leur fonctionnement (on parle de niveau syntaxique).
    – Ah oui : on en a une vision vraiment précise effectivement, j’ai même vu ici que cela conduit à des conseils pratiques pour doper sa créativité.
    – Ce qui est vraiment intéressant, c’est qu’au delà de ces observations on commence à pouvoir décrire les processus calculatoires mis en oeuvre dans ces processus divergents d’exploration de nouvelles pistes (par exemple des mécanismes de recherche aléatoires ou des processus qui généralisent une situation en y ajoutant des éléments “hors de la boîte” initiale) et de mécanismes convergents de validation que ce qui est trouvé est pertinent et utile.
    – Tu veux dire qu’on a des modèles informatiques de ces mécanismes créatifs ?
    – Oui plusieurs, par exemple Ana-Maria Oltețeanu, pour ne citer qu’une collègue, a regardé comment tout cela peut se mécaniser et d’autres scientifiques fournissent des outils pour aider à faire ce délicieux travail de créativité. Il y a par exemple DeepDream qui peut générer des images inédites à partir de nos consignes, ou créer des animations 3D à partir d’images de 2D, ou générer de la musique statistiquement proche d’un style musical donné, voire inventer de nouveaux styles complètement inédits grâce aux Creative Adversarial Networks (CAN).
    – Mais du coup, ça va permettre de développer des intelligence artificielles créatives à notre place ?
    – Ah ben peut-être (ou pas), mais pourquoi serait-on assez con, pour se priver de ce qui est le plus cool pour nous intellectuellement, créer ! En le faisant faire par une machine capable de produire des choses nouvelles mais pas d’envisager ou juger l’émoi qu’elles suscitent, donc qui n’a pas d’intention créatrice faute de grounding ?
    – Ah mince, encore un mot anglais à comprendre pour te suivre.
    – T’inquiète, il y a un autre article de Petit Binaire qui explique tout ça.

    Frédéric Alexandre, Chloé Mercier et Thierry Viéville.

    Pour aller plus loin : Creativity explained by Computational Cognitive Neuroscience https://hal.inria.fr/hal-02891491

  • Les géocommuns au service de la société

    Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Sébastien Soriano,  directeur général de l’Institut national de l’information géographique et forestière (IGN) depuis janvier 2021. Les cartes géographiques sont un élément essentiel des communs. C’est aussi l’occasion pour Sébastien Soriano de revenir sur certains thèmes de son livre récent [1], « Un avenir pour le service public »
    Sébastien Soriano en 2015. Wikipédia.

    Binaire : peux-tu raconter aux lecteurs de binaire ton parcours ?

    Sébastien Soriano : Je suis ingénieur des télécoms. J’ai travaillé dans des cabinets ministériels notamment sur la mise en place de la French Tech et du plan France Très Haut Débit. Et puis j’ai passé une partie de ma vie à travailler sur la concurrence, en particulier dans le domaine des télécoms comme Président de l’Arcep. Je me suis aussi investi sur l’Europe, comme président de l’agence européenne des télécoms, le BEREC. Enfin, j’ai écrit récemment un livre sur le service public[1], dont l’idée principale est assez simple : Il faut penser un « État augmenté ». Il faut sortir du débat dominant : faire comme avant mais avec plus de moyen pour l’État, ou de réduire le rôle de l’État en abandonnant certaines de ses responsabilités au privé. Je prône plutôt ce que j’ai appelé l’« État en réseau », un État qui construit des alliances avec des acteurs, collectivités locales, associations, collectifs citoyens, entreprises…, pour augmenter son impact et relever les nouveaux défis, en particulier écologiques.

    Cette réflexion m’a conduit à approfondir la notion de commun. A l’Arcep, j’avais poussé l’idée de voir les réseaux comme « biens communs », au service de tous. Cela m’a pris un peu de temps de comprendre qu’ils devaient être plus que cela, véritablement devenir des « communs » au sens où ils devaient être codéployés par une galaxie d’acteurs plus large que quelques grandes entreprises privées. C’est apparu clairement avec la 5G. Il est devenu évident qu’une large partie de la société devait être impliquée dans son déploiement, qu’elle devait être associée à l’action au-delà d’un simple rôle de spectateur.

    Interface d’édition d’OpenStreetMap

    b : Quelle est la place de l’Open data à l’IGN ?

    SSo : L’IGN, qui a une forte culture d’innovation, s’est bien informatisé avec l’arrivée des systèmes d’information géographiques. Si cette transformation avec l’informatique a été réussie, l’IGN a moins bien abordé sa transformation numérique. Quand vous avez vos données gratuites, vous augmentez vos capacités d’alliance. Le précédent modèle économique de l’IGN a fait de l’institut un « spectateur » de l’arrivée des modèles gratuits, de Google Maps, Google Earth, OpenStreetMap, etc.

    Pour la cartographie, un autre mouvement s’est combiné à cela en France. La Loi NOTRe, portant sur la nouvelle organisation territoriale de la République, reconnait depuis 2015 la place des régions pour coordonner l’information géographique au niveau local. Certaines collectivités ont maintenant de véritables « petits IGN » qui collectent des données, les analysent, les utilisent au service des politiques locales, souvent de manière très innovante.

    Pour ce qui est de l’IGN, l’institut a été pris dans un mouvement général du public dans les années 80-90 qui conduisait à monétiser ses données. La puissance publique demandait aux établissements de diversifier leurs sources de revenus, comme les musées l’ont fait, par exemple. Cela a freiné la capacité d’ouverture de l’IGN. Du coup, l’ouverture s’est faite très progressivement.

    A partir de 2010, les données sont devenues gratuites pour l’éducation et la recherche puis progressivement pour toutes les missions de services publics. En 2015, la loi Lemaire a généralisé cette gratuité à tous les organismes publics. Depuis le 1er janvier 2021, toutes les données de l’IGN sont ouvertes, en anticipant d’un an sur le calendrier prévu.  Seule la carte au 1 : 25 000, bien que gratuitement accessible en ligne, reste encadrée quant à sa réutilisation pour les usages grand public.

    Il faut voir que tout cela a conduit l’IGN à un profond changement de modèle économique, et aussi un changement de culture. L’institut n’est plus porté aujourd’hui que pour 10% de son budget par la vente de cartes ou de prestations commerciales. Ensuite, 45% correspondent à la SCSP – la subvention pour charge de service public. Il nous faut aller chercher les autres 45% sur des financements de projets publics de différents ministères. Nous sommes au service de la puissance publique. Mais on ne nous fait pas un chèque en blanc. Nous devons en permanence convaincre de l’utilité de ce que nous faisons.

    Carte de l’IGN, site web IGN, 2021.

    b : Peux-tu maintenant nous parler du futur ?

    SSo : Nous avons défini une nouvelle stratégie, « les géocommuns ». Et en fait, c’est  une démarche plus qu’une stratégie.

    L’IGN est un miroir tendu au territoire national pour se regarder et pour se comprendre. On doit bien-sûr poser la question : quelle est l’intention de ce miroir ?

    À une époque, les cartes étaient d’abord conçues dans des buts guerriers. Puis l’IGN, lancé dans les années 40, a accompagné l’aménagement du pays et sa reconstruction. Il nous faut aujourd’hui nous replacer dans deux grands bouleversements de nos sociétés : l’anthropocène, une transformation rapide, et la révolution numérique. Notre but est d’apporter à la nation des informations qui lui permettent de maitriser son destin dans ce double mouvement. Notre méthode, c’est de faire cela avec les autres services publics et en travaillant avec tous ceux qui veulent contribuer, par exemple avec des communautés comme OpenStreetMap.

    Réaliser une cartographie de l’anthropocène est un objectif ambitieux. Pour cela, il faut savoir mettre en évidence les transformations rapides voire brutales, et l’évolution de la planète. La carte au 1 : 25 000 décrit le territoire de manière statique. Nous devons décrire désormais des phénomènes comme la propagation hyper rapide de maladies forestières.  Si cela prend 25 ans, on risque de ne plus avoir de forêt à l’arrivée. Alors, on croise des sources, on s’appuie sur le monde académique, on utilise l’intelligence artificielle.

    L’expérimentation de contribution collective
    sur la « BD TOPO », Site Web IGN, 2021

    b : Pourrais-tu nous expliquer ce qu’est pour toi un commun ?

    SSo : La notion fondamentale est à mon sens la coproduction. Un commun, c’est une ressource, par exemple un ensemble de données, qui est coproduit. L’idée est de construire des communautés ad hoc suivant le sujet pour produire cette ressource ensemble. La gouvernance de la communauté est un aspect essentiel de la notion de commun.

    Pour certains, les communs doivent nécessairement être ouverts et gratuits, mais cela n’est pas forcément intrinsèque selon moi. De manière générale, il faut avoir une approche pragmatique. Si on est trop puriste sur l’idée de communs, il ne reste que les ZAD et Wikipédia. Bien sûr, dans l’autre direction, on voit le risque de commons washing. Selon moi, par exemple, une règle importante pour pouvoir parler de commun, c’est que la porte reste ouverte, que cela ne puisse pas être un club fermé. Tout le monde a droit d’entrer ou de sortir de la production. La gouvernance doit permettre d’éviter que le commun soit accaparé par quelques-uns.

    Je peux prendre un bel exemple qui illustre ces principes. Dans le cadre de la « Fabrique des géocommuns » que nous mettons en place, nous ouvrons un chapitre sur un service du style street view, une vue immersive, le petit bonhomme jaune de Google. Pour faire cela, Google fait circuler des véhicules dans toutes la France avec des capteurs. Nous n’avons pas les moyens de faire cela. Alors, nous allons chercher des partenaires, lancer un appel à tous ceux qui ont envie de faire cela avec nous et qui ont parfois déjà des données à mettre en commun. On va se mettre d’accord sur une gouvernance pour définir le régime d’accès aux données. En particulier, il faut choisir la licence : la licence Etalab 2.0 que l’IGN utilise pour le moment (une licence inconditionnelle) ou la licence ODbL utilisée par OpenStreetMap par exemple, qui spécifie que celui qui utilise les données doit accepter de partager ce qu’il en fait de la même façon.

    Qui va répondre ? On espère pouvoir compter sur OpenStreetMap. La communauté existe déjà, on n’a pas de raison d’en créer une nouvelle. Ils sont capables de se réunir à une dizaine de personnes pendant un weekend pour « faire » un arrondissement de Paris. Pas nous ! Mais nous espérons aussi attirer des entreprises qui travaillent pour des collectivités et ont déjà des mines de photos. Certains ont donné un accord de principe pour les mettre en commun.

    Il ne faut pas voir de concurrence entre ces mondes. Les données cartographiques en accès ouvert viennent massivement de données publiques. Les fonds de carte sur OpenStreetMap proviennent pour beaucoup de sources publiques. La foule est utile pour apporter des données complémentaires, qui ne sont pas dans ces données publiques.

    Après l’ouverture des données IGN au 1er janvier 2021, l’ambition est aujourd’hui de co-construire les référentiels de données, les services et les outils d’une information géographique au service de l’intérêt général. Avec les citoyens et pour les citoyens, avec les territoires et pour les territoires, c’est ça les géo-communs ! (Site web de l’IGN, 2021)

    b : Qu’est-ce qui se passe au niveau international pour les données cartographiques ?

    SSo : Cela bouge lentement. Les Suisses ont mis leurs données cartographiques en données ouvertes. Le cas des États-Unis est intéressant. La loi états-unienne ne permet pas de vendre des données publiques à des citoyens, parce que ceux-ci ont déjà payé en quelque sorte pour les construire, en payant leur impôt.

    b : Pourrais-tu nous parler maintenant du gouvernement ouvert ?

    SSo : Je milite dans mon livre pour une trilogie État-Marché-Commun parce que le duo État-Marché n’arrive plus à résoudre des problèmes qui sont devenus trop complexes. Il faut raisonner dans un jeu à trois. L’État participe avec sa légitimité, sa capacité de rassembler, sa violence légitime. Le marché apporte sa capacité à mobiliser des moyens financiers, sa capacité d’innovation. La société permet de faire participer les citoyens qui sont aujourd’hui plus éduqués, ont plus de temps libre, cherchent du sens à leurs actions.  Cette force sociale, on peut l’appeler les communs, même si l’utilisation de ce terme n’est qu’un raccourci.

    Le numérique apporte une puissance considérable pour accélérer les coopérations, les échanges. Mais c’est à mon avis restrictif que de se limiter au seul numérique. C’est pour cela que je n’aime pas trop le terme « open gov » parce qu’il est souvent compris comme se limitant au numérique.

    Prenez une initiative comme « Territoires zéro chômeurs longue durée ». Le constat de départ, c’est qu’il existe une frange de la population que, une fois écartée du marché du travail, on ne sait plus remettre sur ce marché. Il faut arriver à casser la spirale qui éloigne ces personnes du monde du travail. L’approche est de créer un tissu local qui leur trouve des emplois ; ce sont de vrais emplois pour ces personnes mais ces emplois ne sont le plus souvent pas rentables économiquement. Le rôle de l’État est de créer une tuyauterie financière, en s’appuyant sur une loi, pour réunir de l’argent qui est prévu pour cela et s’en servir pour financer en partie ces emplois. Après deux ans, ces ex-chômeurs retournent sur le marché du travail.

    Le rôle de l’État est de mettre tout le monde en réseau et de faire appel à des initiatives locales. Vous voyez, on n’est pas dans le numérique, même si le numérique est un outil qui peut être utile pour aider à mettre cela en place. Je crois qu’il faut plutôt le voir comme une coproduction permise par l’État en réseau.

    b : Deux questions. D’abord, on accorde selon toi trop d’importance au numérique dans la transformation de l’État.

    SSo : Oui. La transformation de l’État n’est pas juste une question numérique même si, bien sûr, le numérique a une place très importante à jouer.

    b : Ensuite, pour ce qui est de « Territoires zéro chômeurs longue durée », dans l’Économie Sociale et Solidaire, des initiatives semblables n’existaient-elles pas déjà avec des acteurs comme le Groupe SOS ou ATD Quart Monde ?

    SSo : Bien sûr. D’ailleurs, ATD Quart Monde est au cœur de ce dispositif. Mais l’associatif n’arrivait pas seul à régler ce problème. Il fallait l’idée de transformer les allocations chômages en revenus. Seul l’État pouvait faire cela. C’est selon moi le rôle de l’État. Mettre en place le mécanisme et, peut-être, coconstruire un réseau pour arriver ensemble à résoudre le problème.

    b : Un mot pour conclure ?

    SSo : Un sujet qui m’interpelle est la perte de légitimité des structures d’autorités, la puissance publique mais aussi les scientifiques. Les autorités naturelles ne sont plus reconnues. Je pense qu’il est important d’aller discuter avec les communautés sur les sujets qui fâchent. En particulier, l’administration doit accepter le dialogue. On change de paradigme. L’administration descend de son piédestal pour coconstruire avec d’autres même si ce n’est pas facile. C’est une nécessité pour l’administration qui peut ainsi retrouver une certaine légitimité.

    Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, serial entrepreneur

    Pour aller plus loin

    [1] Sébastien Soriano, Un avenir pour le service public, Odile Jacob, 2020.
    [2] IGN, Changer d’échelle, site web de l’IGN, 2021

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Pour une gouvernance citoyenne des algorithmes

    Un nouvel entretien autour de l’informatique.
    Karine Gentelet est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et professeure invitée à l’Université Laval. Elle a été en 2020-21 titulaire de la Chaire Abeona – ENS-PSL, en partenariat avec l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Le titre de sa chaire était « La gouvernance citoyenne pour renverser l’invisibilité dans les algorithmes et la discrimination dans leurs usages ». Elle aborde ce sujet pour binaire.
    Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation.
    Karine Gentelet, Site de l’ENS

     Binaire : Peux-tu nous parler du parcours qui t’a conduite notamment à être titulaire de la chaire Abeona ?

    Karine Gentelet : Mon profil est multidisciplinaire, avec une formation en anthropologie et en sociologie. J’ai un doctorat en sociologie, mais je préfère me définir par mes thèmes de recherche plutôt que par des disciplines.

    Française d’origine, je suis arrivée au Québec il y a plus de trente ans. C’était à une période traumatique de l’histoire du Québec, une grave crise interne, la crise d’Oka[1]. Cela m’a marquée de me retrouver face à des personnes en position de minorité, en difficulté. Je me suis intéressée à la reconnaissance des droits des peuples autochtones, à la façon dont ils mobilisent la scène internationale pour faire reconnaître leurs droits, et à la façon dont ils ont accès à la justice d’une manière large.

    Un moment donné, j’ai rencontré quelqu’un qui travaillait pour une communauté extrêmement excentrée au Nord du Québec. Là-bas, quand ils sont arrêtés pour une infraction, les prévenus sont emmenés dans le sud à 6 ou 7 heures de vol d’avion. A cause de la distance, leur famille ne peut plus les voir alors qu’ils sont parfois très jeunes. Pour pallier ce problème, la solution a été d’utiliser la technologie numérique pour déplacer virtuellement le tribunal et l’installer dans le Nord. Cela a redéfini l’espace du procès de façon remarquable : les bancs du juge, des accusés, du procureur, tout change ; les salles d’audience deviennent rondes par exemple. Ces minorités qu’on voit comme vulnérables arrivaient à renverser des rapports de pouvoir, et à redessiner l’espace du procès.

    Cela m’a conduite à être impliquée dans des projets de recherche sur les conditions de mise en place d’une cyber-justice. Et c’est ainsi que je suis arrivée à technologie numérique et l’intelligence artificielle (IA pour faire court).

    En général, ce qui m’intéresse c’est toujours de regarder l’angle mort, non pas tant ce qui se passe que ce qui ne se passe pas, ce qui n’est pas dit. Prenez des questions de décisions automatisées. J’étudie comment les gens voient le déploiement de ces outils, comment ils aimeraient qu’ils soient déployés. C’est là que mon expérience d’anthropologue me sert, à étudier comment les gens vivent avec ces technologies.

    B : La sociologie est typiquement plus dans l’observation que dans l’action ? Est-ce que cela te satisfait ?

    KG : Il y a plusieurs types de sociologie et la discipline a évolué. La sociologie devient, selon moi, de plus en plus anthropologique et regarde la société non plus telle qu’elle est mais avec un point de vue d’altérité, ce qui change le regard. On est dans une perspective beaucoup plus critique qu’avant, beaucoup plus près de l’action. De toute façon, comme je l’ai dit, je ne me vois pas uniquement comme sociologue mais plutôt dans la pluridisciplinarité.

    Pour l’IA, il ne faut pas se cantonner à l’observation de ce qui s’y passe. Il faut comprendre comme on se l’approprie, apporter un regard critique.

    Jon Tyson, unsplash.com

    B : En quoi les sciences sociales peuvent-elles servir à mieux comprendre l’IA ?

    KG : Souvent l’IA est présentée en termes purement techniques. Mais en fait, dans la manière dont elle est déployée, elle a des impacts sociétaux essentiels qu’il faut comprendre et qui nécessitent une perspective de sciences sociales.

    Il y a en particulier des enjeux de classification des datasets qui vont nourrir les algorithmes d’IA. Distinguer entre un chat et un chien n’a pas d’impact sociétal critique. Par contre, le classement d’une personne comme femme, homme, non binaire ou transgenre, peut soulever des questions de prestations sociales, voire conduire à la discrimination de certaines communautés, à des drames humains.

    Pour un autre exemple, pendant la pandémie, dans certains hôpitaux, les systèmes d’aide au triage tenaient compte des dépenses qui avaient été faites en santé auparavant : plus on avait fait de dépenses en santé dans le passé, moins la santé était considérée comme bonne ; on devenait prioritaire. Cela peut paraitre logique. Mais ce raisonnement ne tenait pas compte d’une troisième dimension, le statut socio-économique, qui conduisait statistiquement à un mécanisme inverse : les personnes socialement défavorisées avaient souvent fait moins de dépenses de santé parce qu’elles ne disposaient pas d’une bonne couverture de santé, et étaient en plus mauvaises conditions.

    Une analyse en science sociale permet de mieux aborder ce genre de questions.

    B : La question se pose aussi pour les peuples autochtones ?

    KG : Historiquement marginalisés, les peuples autochtones du Canada ont pris conscience très rapidement de la pertinence des données qui les concernent. Ceci a alors une incidence sur l’importance de ces données dans le fonctionnement des algorithmes. Ce sont des peuples avec une tradition orale, nomade, ce qui a une incidence sur la manière dont ils conçoivent les relations à l’espace, au temps, et à autrui. Pour eux, leurs données deviennent une extension de ce qu’ils sont, et doivent donc rester proches d’eux et c’est pourquoi c’est particulièrement important pour ces peuples autochtones de garder la souveraineté de leurs données. Ils tiennent à ce que leur acquisition, leur classification, leur analyse en général, restent sous leur contrôle. Ils veulent avoir ce contrôle pour que ce que l’on tire de ces données ne soit pas déconnecté de leur compréhension du monde.

    B : Est-ce qu’il y aurait un lien épistémologique entre les constructions de données et la compréhension du monde ?

    KG : Bien sûr. Les classifications de données que nous réalisons dépendent de notre compréhension du monde.

    J’ai co-réalisé une étude sur Wikipédia. Le système de classification de la plateforme entre en conflit avec la perspective de ces groupes autochtones. Pour eux, un objet inanimé a une existence, une responsabilité dans la société. Et puis, la notion de passé est différente de la nôtre. Les ancêtres, même décédés, sont encore dans le présent. La classification de Wikipédia qui tient par construction de notre culture ne leur convient pas.

    Ils considèrent plus de fluidité des interactions entre choses matérielles et immatérielles. Pour eux les pierres par exemple ont une agentivité et cela amènerait à une autre représentation du monde. Cela conduirait les algorithmes d’IA a d’autres représentations du monde

    Photo de Ian Beckley provenant de Pexels

    B : Tu veux dire que, pour structurer les données, on a plaqué notre interprétation du monde, alors que celle des peuples autochtones pourrait apporter autre chose et que cela pourrait enrichir notre connaissance du monde ?

    KG : Oui. J’ai même un peu l’impression que l’interprétation du monde qu’apportent les peuples autochtones est presque plus adaptée à des techniques comme les réseaux neuronaux que la nôtre à cause de l’existence de liens tenus entre les différentes entités chez eux, dans la fluidité des interactions. Mais je ne comprends pas encore bien tout cela ; cela demanderait d’être véritablement approfondi.

    Pour ceux qui ne correspondent pas forcément aux classifications standards de notre société occidentale, cela serait déjà bien d’avoir déjà plus de transparence sur la formation des datasets : comment ils ont été collectés, comment les gens ont consenti, et puis comment les classifications ont été réalisées. C’est véritablement une question de gouvernance des données qui est cruciale pour ceux qui sont minoritaires, qui ne correspondent pas forcément au cadre habituel.

    B : Est-ce que selon toi l’IA pourrait être une menace pour notre humanité, ou est-ce qu’elle pourrait nous permettre d’améliorer notre société, et dans ce cas, comment ?

    Photo de Nataliya Vaitkevich provenant de Pexels

    KG : On essaie de nous pousser à choisir notre camp. L’IA devrait être le bien ou le mal. Les technophiles et l’industrie essaient de nous convaincre que c’est beau, bon, pas cher, et que ça va améliorer le monde. Pourtant, cela a clairement des impacts négatifs sur certains groupes au point que leurs droits fondamentaux peuvent être à risque. Pour moi, l’IA, c’est comme souvent dans la vie, ni blanc ni noir, c’est plutôt le gris. Mais, si je ne vois pas dans l’IA une menace de notre mode de vie, je crois qu’il y a besoin d’une vraie réflexion sociétale sur les impacts de cette technologie. En fait, je me retrouve à accompagner certains groupes sur leur compréhension des impacts, et souvent les impacts sont négatifs.

    Il faut cesser de se bloquer sur la question de choisir son camp, pour ou contre l’IA, et travailler à comprendre et éliminer les impacts négatifs.

    L’IA est censée être un progrès. Mais un utilisateur se retrouve parfois dans a situation d’être confronté à une IA imposée, de ne pas comprendre ses décisions automatisées, de ne pas pouvoir les remettre en cause. Le résultat c’est que cela peut amplifier une possible situation de précarité.

    Quand j’ai renouvelé mon assurance auto, on m’a proposé une réduction de 15% si j’acceptais que la compagnie d’assurance traque tout mon comportement au volant. J’ai refusé. Mais d’autres n’auront pas les moyens de refuser. Cela pose la question du consentement et d’une société à deux vitesses suivant ses moyens financiers.

    On pourrait multiplier les exemples. Il faut que les citoyens puissent décider ce qu’on fait avec les algorithmes, et en particulier ceux d’IA.

    B : La notion de gouvernance des algorithmes est centrale dans ton travail. Comment tu vois cela ?

    KG : Le discours institutionnel à la fois des acteurs privés et des acteurs publics parle de la gouvernance de l’IA comme s’il y avait une dichotomie entre gouvernance de la société et gouvernance de IA, comme s’il y avait une forme d’indépendance entre les deux. L’IA est un outil et pas une entité vivante, mystérieuse et incompréhensible, qui flotterait au-dessus de la société. Je ne comprends pas pourquoi on devrait réinventer la roue pour l’IA. Nous avons déjà des principes, des pratiques de gouvernance, des lois, des représentants élus dans la société, etc. Pourquoi l’IA aurait-elle besoin d’autre chose que de structures existantes ?

    On voit arriver des lois autour de l’IA, comme l’ « Artificial Intelligence Act[2] » de l’Union européenne, cela me pose problème. S’il y a des enjeux importants qui amèneront peut-être un jour des modifications en termes de régulation, il n’y a pas de raison d’autoriser à cause de l’IA des atteintes ou des risques sur les droits humains. A qualifier un droit spécifique pour l’IA, on risque de passer son temps à courir derrière les progrès de la techno.

    Le problème vient de la représentation anthropomorphique qu’on a de ces technologies, la place que l’on donne à l’IA, la sacralisation qu’on en fait. Les décideurs publics en parlent parfois comme si ça avait des pouvoirs magiques, peut-être un nouveau Dieu. Il faut sortir de là. C’est juste une technologie développée par des humains.

    Le point de départ du droit qui s’applique pour l’IA devrait être l’impact sur les êtres humains. Il n’y a aucune raison de sacraliser le fait qu’on parle de numérique. C’est avant tout un problème de droits humains. Alors, pourquoi faudrait-il inventer de nouveaux outils de régulation et de gouvernance plutôt que d’utiliser les outils qui sont déjà là.

    Serge Abiteboul, Inria et ENS, Paris, et Claire Mathieu, CNRS et Université de Paris

    [1] La crise d’Oka ou résistance de Kanehsatà:ke est un événement politique marquant qui opposa les Mohawks au gouvernement québécois puis canadien, durant l’été du 11 juillet au 26 septembre 1990. La crise demandera l’intervention de l’armée canadienne après l’échec d’une intervention de la Sûreté du Québec. (Wikipédia, 2022)

    [2] Note des auteurs : l’ « Artificial Intelligence Act » est une proposition pour le moins discutable de la Commission européenne pour construire un cadre réglementaire et juridique pour l’intelligence artificielle.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Le Web3 ? C’est quoi ça encore ?

    Du web par la blockchain et un rêve de décentralisation ?  C’est le projet Web3 dont certains technophiles ne cessent de parler depuis quelque temps.

    Pour nous aider à y voir plus clair,
    Numerama nous l’explique en 8 minutes dans ce podcast

    Gavin Wood, en décembre 2017. // Source : Noam Galai, repris de l’article Numerama.

    En un mot ?

    Le projet derrière Web3 est de procéder à une décentralisation du net, « Les plateformes et les applications ne seront pas détenues par un acteur central, mais par les usagers, qui gagneront leur part de propriété en contribuant au développement et à la maintenance de ces services », ceci en s’aidant de la technologie dite de la blockchain (ou chaîne de blocs). Il s’agit de l’équivalent d’un registre numérique et public dans lequel toutes les transactions en sont inscrites et conservées, nous explique Gavin Wood.

    Euh c’est quoi la blockchain déjà ?

    Nous trouvons les intentions et le positionnement vraiment super, et cette idée de blockchain, comme Heu?Reka et ScienceEtonnante nous l’explique, y compris en vidéo, tandis que Rachid Guerraoui démystifie la blockchain pour nous sur binaire.

    L’avis de binaire sur le web3

    L’article Numerama est vraiment bien fait et c’est tout à fait intéressant de voir comment des professionnel·le·s de l’informatique se proposent de remodeler notre monde numérique de demain,

    Et nous sommes d’accord avec l’avis de Numerama : la logique de financiarisation qui sous-tend ce nouveau concept à la mode fait débat.

    En plus, plusieurs interrogations se posent à nous.

    – Tout d’abord, l’accès à cette nouvelle technologie : qui pourra et saura la maîtriser ? Une des raisons principales du succès du web actuel repose sur sa large ouverture. Ici on parle d’un système où les usagers pourront, au delà d’un simple usage, « gagner une part de propriété en contribuant au développement et à la maintenance de ces services » : l’idée est vraiment intéressante et louable, mais impose là encore que nous maîtrisions toutes et tous ces technologies et dans une certaine mesure leur fondements,  cela n’exclue-t-il pas de facto une grande partie des utilisateurs  actuels ? En tout cas cela nourrit cette réflexion commune sur le niveau de culture scientifique et technique que l’usage du numérique impose à chacun·e d’acquérir.

    – Et puis, demeure la question fondamentale : à quel coût environnemental ? Si le Web3 présente des avantages questionnables pour la démocratie, il conduit à des dégâts indiscutables pour cette planète que nous avons reçue et devons laisser en héritage à nos enfants.  Les deux sûrement, mais dans ce cas, ce Web3 n’est apparemment pas encore la solution.

     

  • Comment les IA font semblant de comprendre le langage humain ?

    Nous savons que les IA ne sont pas intelligentes et pourtant elles arrivent à approcher le fonctionnement humain dans de plus en plus de domaines. Aujourd’hui, nous nous intéressons au traitement du langage humain. Après avoir abordé la reconnaissance vocale, nous vous proposons d’approfondir d’autres aspects comme la complétion ou la traduction grâce à une très intéressante vidéo publié par David Louapre sur son blog Science Étonnante. Thierry Viéville et Pascal Guitton

    Commençons par une dictée.

    En fait, les lignes que vous commencez à lire, là, maintenant, n’ont pas été tapées au clavier mais… dictées à l’ordinateur ? Ce dernier comprend-il ce qui lui est dit ? Nullement. Alors comment fait-il ? ! 

    Un ancien dictaphone des années 1920 qui enregistre la voix sur un cylindre phonographique cartonné recouvert de cire ou celluloïd. La parole humaine transformée en simple sillon en spirale … est-ce moins étonnant que de la voir binarisée ? ©MadHouseOldies

    La parole humaine est constituée d’environ une cinquantaine de phonèmes. Les phonèmes sont des sons élémentaires (entre une voyelle et une syllabe) qui se combinent pour former des mots. Nous utilisons entre 1 000 et 3 000 mots différents par jour, et en connaissons de l’ordre de 10 000 en tout, selon nos habitudes de lecture. Pour un calcul statistique, ce n’est guère élevé : le son de la voix est donc simplement découpé en une séquence de petits éléments qui sont plus ou moins associés à des phonèmes, pour ensuite être associés à des mots. Le calcul statistique cherche, parmi tous les bouts de séquences de mots, ceux qui semblent correspondre au son ainsi découpé et qui sont les plus probables. Il ne reste plus qu’à sortir le résultat sous forme d’une chaîne de lettres ou de caractères pour obtenir une phrase à l’oral.

    Un exemple de signal sonore d’une voix humaine en bleu et l’analyse des graves et des aiguës (le spectre fréquentiel) de la zone claire : c’est à partir de cet alphabet sonore approximatif que l’on effectue les calculs statistiques qui transcrivent le son.

    Bien entendu, ce mécanisme ne comprend rien à rien. Ces mots ne font pas du tout sens  par la machine, puisqu’il ne s’agit que d’une mise en correspondance entre des sons et des symboles. Ce procédé n’est donc exploitable que parce que la voix humaine est moins complexe qu’elle n’y paraît, et surtout car il a été possible de se baser sur une quantité énorme de données (des milliers et des milliers de paroles mises en correspondance avec des milliers et des milliers de bouts de séquences de mots) pour procéder à une restitution fiable du propos dicté. Ces calculs sont à la fois numériques, puisque chaque son est représenté par une valeur numérique manipulée par calcul, et symboliques, chaque phonème ou mot étant un symbole manipulé par un calcul algorithmique.

    Et ensuite … comment manipuler le sens du langage ?

    Donnons la parole à David Louapre pour en savoir plus, grâce à cette vidéo :

    enrichie, si besoin, de d’éléments complémentaires.

    Vous avez vu ? Nous en sommes à avoir pu « mécaniser » non seulement la reconnaissance des mots mais aussi la manipulation du sens que nous pouvons leur attribuer.

    On en fait même tout un fromage.

    Comme l’explique David, les modèles de langue neuronaux contextuels sont désormais omniprésents y compris en français avec ces travaux des collègues Inria. Le calcul peut par exemple résoudre des exercices de textes à trous, que l’algorithme a pu remplir avec le bon mot, avant de se tourner vers des applications plus utiles comme la traduction automatique, la génération assistée de texte, etc.

    Mais finalement, je me demande si parfois, je n’aimerais pas me faire « remplacer » par une IA pendant des conversations inintéressantes où je m’ennuie profondément :). Oh, ce n’est pas que je pense qu’elles sont devenues intelligentes, ces IA … c’est plutôt que franchement, entre humains, on se dit que ma foi, des fois, il faut avoir la foi, pour pas avoir les foies, à écouter ce qui se dit … quelques fois…

     

  • Le mot du président de la SIF

    Nous avons crée en janvier 2014 binaire en partie à l’initiative de la Société Informatique de France. Depuis, si le blog est indépendant, il a gardé des liens étroits avec la SIF,  des convergences d’intérêts, d’objectifs, des liens d’amitiés. Un de ses anciens présidents, Colin, a été éditeur de binaire, un autre, Pierre, est éditeur en ce moment. Donc, nous sommes toujours particulièrement heureux quand la SIF, aujourd’hui avec son président Yves Bertrand, prend la parole dans binaire. Yves est professeur en informatique à l’Université de Poitiers. L’équipe de binaire.
    Informatique : Yves Bertrand élu président de la SIF, le conseil d'administration...
    Yves Bertrand, président de la SIF

    Février 2021… c’est en ce début d’année frappée comme la précédente du sceau de la pandémie mondiale, et entre deux périodes de confinement, que j’ai eu le plaisir et l’honneur de succéder à Colin de la Higuera, Jean-Marc Petit et Pierre Paradinas à la présidence de la Société informatique de France (SIF).

    L’histoire de certaines sociétés savantes s’inscrit dans un temps long : par exemple, les Sociétés physique, mathématique, chimique de France sont respectivement nées en 1873, 1872 et en 1857, et les disciplines qui les fondent sont au minimum multi-séculaires. Une vision positive de ces sociétés suggère qu’elles naquirent à une époque où les disciplines qui les portent avaient déjà acquis une certaine forme d’indépendance, de visibilité, de reconnaissance en tant que telles dans la société, et vis-à-vis des autres disciplines en particulier.

    En serait-il de même pour l’informatique et la Société informatique de France ? Soyons optimistes : gageons que oui. La SIF n’aura que 10 ans en 2022.

    Le premier texte du Conseil Scientifique de la SIF : L’informatique : la science au cœur du numérique, est publié dans binaire. Si vous souhaitez comprendre ce qu’est réellement cette science et cette technologie, lisez ce texte, qui devrait tenir lieu de prolégomène à toute initiation à l’informatique. Parions que, même si son propos a maintenant près de 10 ans, les définitions de l’informatique qu’il propose resteront pour longtemps.

    Cette époque qui voit la naissance de la SIF est également celle de la rédaction du rapport de l’Académie des sciences paru en mai 2013 sur l’enseignement de l’informatique en France. La plupart des attentes qu’il exprimait pour l’enseignement de l’informatique dans le secondaire peuvent être considérées comme satisfaites. En effet, depuis 2019, l’enseignement « Sciences numériques et technologies » (SNT) est suivi par tous les élèves de seconde générale. La réforme du baccalauréat, parmi ses 13 spécialités, inclut « Numérique et sciences informatiques » (NSI) au même niveau et volume horaire que les autres spécialités, notamment scientifiques. Début 2019, le CAPES du même nom est créé. En 2020, naissent 26 classes préparatoires « Mathématiques, physique, ingénierie et informatique » (MP2I) qui ouvrent en 2021. Et, point d’orgue aux yeux de certains pour la reconnaissance d’une discipline, Jean-Michel Blanquer annonce la création de l’agrégation d’informatique le 9 mars 2021. N’en jetez plus !

    Mes prédécesseurs et leurs équipes, les membres du conseil d’administration et du conseil scientifique de la SIF, et nombre de ses adhérents peuvent se féliciter à juste titre de ces avancées majeures pour l’informatique : ils ont œuvré sans relâche, et certains d’entre eux depuis plusieurs décennies (voir l’article de J. Baudé dans Binaire, 30 novembre 2021), pour qu’elles voient le jour. Ils ont pu s’appuyer sur le travail de nombreux enseignants du second degré et n’ont compté ni leur temps ni leur énergie pour se former à l’informatique puis pour l’enseigner au lycée à chaque fois que l’institution leur en a laissé l’opportunité.

    1024 raisons de comprendre l'informatique – binaire

    Le paysage de l’informatique s’est enrichi avec des sites comme Interstices, la revue 1024, le programme de formation Class’Code, la Fondation Blaise Pascal, Software Heritage, etc.

    Et maintenant ? Le travail de la SIF serait-il achevé ? Les combats qu’elle mène seraient-ils sans objet ? Que nenni. Pour l’agrégation 2022, seuls 20 postes sur les 2620 disponibles sont dévolus à l’informatique. Même si les effectifs de la spécialité « NSI » du lycée semblent prometteurs et en hausse d’une année à l’autre, ils demeurent confidentiels par rapport aux autres spécialités scientifiques. Et cette spécialité n’attire que 13% de filles. En terminale, elles ne sont plus qu’environ 2500 à la suivre sur toute la France. Le contenu effectif de l’enseignement SNT fait débat, pour le moins. Le second « i » de « MPII » devra faire du chemin en termes de volume horaire et de visibilité pour devenir un « i » réellement majuscule.

    En un mot, en formation, l’informatique vient d’acquérir plusieurs lettres de noblesse. Mais ces lettres sont pour l’heure écrites d’un trait politique hésitant, et d’une encre bien loin de conférer à l’informatique le triple statut de science, de technique et d’industrie, comme celui qui caractérise par exemple la chimie sans que cela fasse débat. Tant est fait depuis quelques années en termes institutionnels, mais tout reste à faire…

    En effet :

    – l’informatique se heurte d’abord à un souci d’appellation. Elle est tour à tour confondue, remplacée par de faux synonymes, tels que « numérique » (ou, pire, « digital »), « information », « TIC », ou associée, rarement avec bonheur, à ces mêmes vocables ;

    – d’une part, le caractère de discipline scientifique à part entière de l’informatique est contesté par de nombreux scientifiques, d’autant plus qu’ils sont eux-mêmes ignorants d’une science bien plus jeune que celle qu’ils pratiquent. Il est d’autre part largement méconnu du grand public qui confond en toute bonne foi la discipline avec les objets matériels qui la réifient et les usages qui envahissent le quotidien ;

    – non seulement la part des femmes dans les formations et les métiers en informatique est dramatiquement bas, mais depuis 30 ans au moins aucune initiative en faveur de la féminisation de notre secteur ne semble porter ses fruits.

    En formation, la spécialité « NSI » reste à ouvrir, au bon vouloir des politiques publiques nationale et académiques, dans la moitié des lycées généraux. Les générations de capésiens et d’agrégés restent à former et à recruter, en harmonie avec les enseignants déjà en charge de l’informatique au lycée. Mais surtout, l’effort d’information et de communication doit se porter bien en amont du lycée, là où les stéréotypes de genre peuvent encore se déconstruire : dès l’école primaire, et vis-à-vis du grand public et des familles.

    Cet effort peut se traduire par des actions de médiation scientifique en informatique visant à expliciter en termes accessibles à tous ce que cachent des termes utilisés inconsidérément comme « intelligence artificielle », « big data », « algorithmes », « numérique » qui ont en commun d’être aussi largement répandus que méconnus quant à leur acception précise. L’informatique « débranchée », ou sans ordinateur, peut faire merveille chez les plus jeunes, et le corps enseignant fourmille de vrais talents en matière de médiation. Le rôle de la SIF est de promouvoir et de mener de telles actions, en particulier avec la fondation Blaise Pascal dont le rôle est de financer des projets de médiation en mathématiques et en informatique. Il est aussi primordial de faire preuve d’ouverture en collaborant avec les sociétés savantes d’autres disciplines dont certaines sont rompues depuis longtemps à la médiation scientifique de haute qualité.

    Mais la SIF ne doit ni ne peut limiter son action à la formation et à la médiation, aussi importants ces champs soient-ils. Elle a le devoir d’éclairer le citoyen, l’usager et le décideur sur les impacts sociétaux des usages positifs ou négatifs de l’informatique tant ces impacts sont majeurs dans la plupart des activités humaines. Sommes-nous, informaticiennes et informaticiens, des professionnels de ces impacts sociétaux ? Assurément non. Mais nous sommes producteurs des « algorithmes » qui semblent aussi magiques qu’ils sont obscurs aux non-informaticien(ne)s, des logiciels qui en découlent, des « intelligences artificielles » qui traitent des « datas », plus abstruses encore. C’est pourquoi nous nous devons d’expliquer inlassablement ce que fait ou ne fait pas un algorithme, un logiciel, comment agissent les paramètres qui modifient son comportement, quelles sont leur puissance et leurs limites, et comprendre le plus objectivement qu’il nous sera possible le champ sociétal impacté pour expliciter son entrelacement avec l’informatique.

    En particulier, à l’heure ou le politique s’empare des concepts informatiques à la mode pour s’ériger en contempteur ou thuriféraire de telle ou telle évolution sociétale, comme s’il venait à l’esprit d’un juriste de s’emparer de l’art de concevoir et fabriquer des couteaux en tant qu’argutie pour ou contre la peine de mort, la SIF se doit non pas de prendre parti pour ou contre telle option de société, mais de démythifier l’informatique pour la démystifier, déconstruire pour le citoyen, l’usager, le décideur et au besoin contre le politique quand ce dernier oscille entre raccourci abusif et contrevérité patente, afin qu’en conscience parce qu’en connaissance, il recouvre la possibilité de statuer sur l’usage qu’il en fera. Le devoir d’éclairer de façon non partisane de celles et ceux qui « font » l’informatique est grand : contrairement à l’usager du couteau qui peut légitimement se targuer d’une compréhension « objective » de ce à quoi il peut servir parce qu’il y a un accès tactile et visuel « direct », l’usager de l’informatique n’a aucun accès direct à un logiciel, et moins encore aux algorithmes qui le sous-tendent, tant ils sont immatériels et complexes.

    Les souverainetés numériques de l’État, de l’entreprise, du citoyen (peut-on être souverain sans être souverainiste ?), la protection des données (quelles données protège-t-on de qui / quoi, pour qui / pourquoi ?), le climat, l’écologie, l’énergie (l’informatique peut-elle prétendre à un bilan carbone neutre ?), l’orientation scolaire (Parcoursup est-il soluble dans le parti socialiste ?), le vote électronique (est-il définitivement non sécurisable ?) : ce ne sont que quelques-unes des innombrables questions de société dont la SIF, en collaboration avec l’ensemble de ceux qui font l’informatique et notamment les industries et leurs représentants, doit s’emparer. Avec pour unique souci de déconstruire pour faire comprendre, d’expliquer pour maîtriser, de diffuser pour permettre aux libertés individuelles et collectives de s’exercer plus et mieux quant à l’usage d’une science et des technologies qu’elle engendre.

    Si sous la houlette de mes prédécesseurs et de la mienne, la SIF a pu et peut s’enorgueillir dans les domaines précités d’avancées dont on pourra un jour affirmer qu’elles ont fait progresser – même très peu – le libre-arbitre, le vivre-ensemble de celles et ceux qui sont impactés par l’informatique en ayant fait progresser leur connaissance de ce domaine, nous pourrons alors, immodestement sans doute, conjecturer que nos efforts n’auront pas été totalement vains.

    Yves Bertrand, président de la SIF.

    SIF Logo

  • Les avatars peuvent-ils remplacer notre corps ?

    En réalité virtuelle, se pose notamment la question de notre représentation à l’aide d’avatars dans ces mondes virtuels : préférons-nous  choisir une copie conforme de ce que nous sommes ou au contraire une apparence très différente ? Et que devient cette interrogation dans un contexte de réalité augmentée ? C’est le le sujet de la thèse que prépare Adélaïde Genay et que nous vous proposons de découvrir grâce à un  article publié par The Conversation à l’occasion de la Fête de la science. Pascal Guitton.

    Utiliser notre corps semble si naturel : il suffit d’avoir l’intention de faire un mouvement pour que celui-ci se produise. Cette capacité cache pourtant de nombreux processus complexes qui occupent encore de nombreux neuroscientifiques, psychologues et philosophes en quête d’explications sur ce qui cause le sentiment d’avoir un corps.

    Cette sensation, appelée « sentiment d’incarnation », est décrite par Kilteni et al. comme composée de trois dimensions :

    • l’agentivité, c’est-à-dire la sensation d’être l’auteur des mouvements du corps ;
    • la propriété corporelle, soit le sentiment que le corps est la source des sensations éprouvées ;
    • l’autolocalisation, c’est-à-dire la sensation d’être situé à l’intérieur du corps.

    Si ces trois sens semblent empêcher la dissociation de notre corps et de notre « esprit », il est pourtant possible de créer l’illusion d’avoir un autre corps. En effet, aussi étrange que cela puisse paraître, réaliser cette expérience est aujourd’hui un jeu d’enfant grâce à la Réalité Virtuelle (RV). La plupart d’entre nous connaissent cette technologie pour son aptitude à nous transporter dans un endroit différent, mais celle-ci nous permet également d’incarner un corps différent.

    Cette illusion est rendue possible grâce aux multiples stimuli sensoriels que nous procurent les casques de RV et qui modifient notre perception du monde. Immergé dans un environnement 3D, l’utilisateur prend le point de vue d’un avatar qui répond à ses faits et gestes comme s’il s’agissait de son propre corps, produisant ainsi l’impression qu’il lui appartient.

    « Effet de Protée »

    La possibilité d’incarner un autre corps intéresse de nombreux chercheurs qui se voient ouvrir des portes vers des expérimentations autrement impossibles. L’objectif de ma thèse, c’est de comprendre comment nous percevons les avatars pour rendre leur utilisation plus naturelle. Un sujet qui me fascine particulièrement est celui de l’influence de l’image de soi sur notre perception du monde : changeons-nous notre façon de voir les choses en changeant notre représentation de nous-mêmes ? Si cette question semble être philosophique, elle se révèle être d’une importance grandissante pour les chercheurs en Interactions Homme-Machine.

    Au début de ma thèse, j’ai commencé par me renseigner sur les travaux en réalité virtuelle qui se sont attardés sur ce sujet avant moi. Certains ont obtenu des résultats très étonnants associés à un phénomène appelé « Effet de Protée » : changer virtuellement la couleur de peau d’une personne conduirait à une baisse de biais ethniques à moyen terme.

    Immergé dans un environnement 3D, l’utilisateur prend le point de vue d’un avatar qui répond à ses faits et gestes. Shutterstock

    D’autres études vont encore plus loin et encouragent le changement de comportement dans des objectifs thérapeutiques (troubles alimentaires, traitement de douleurs…). Plus surprenant encore, des chercheurs ont réussi à montrer qu’il est possible d’améliorer momentanément notre faculté à résoudre des problèmes en faisant incarner Albert Einstein à des participants. Incroyable ! Et pourquoi ne pas utiliser Michel-Ange comme avatar pour booster nos talents de peintre, ou Jimi Hendrix pour de meilleures improvisations à la guitare ?

    Inspirée par tous ces résultats, j’ai décidé de me lancer dans l’étude du sentiment d’incarnation. En particulier, j’ai voulu explorer comment mettre en place un tel sentiment sans avoir à s’immerger dans un monde virtuel. De précédentes études ont montré qu’il est effectivement possible d’évoquer ce type de sensations envers un mannequin ou une prothèse. Cependant, les possibilités d’expérimentation avec des objets réels sont limitées et difficiles à mettre en place.

    Sentiment de propriété corporelle

    C’est pourquoi je me suis intéressée à la Réalité Augmentée (RA) : en effet, cette technologie permet de voir et d’interagir avec des hologrammes dynamiques intégrés à notre environnement réel, et notamment avec des avatars 3D animés. Peu de choses sont connues sur la perception des avatars dans ce contexte. Si celle-ci s’avère être similaire à celle en RV, alors cela voudrait dire que les changements de comportement observés en milieu virtuels pourraient être reproduits et exploités directement au sein de notre environnement quotidien.

    Une étude menée par Škola et Lliarokapis semble encourager cette hypothèse. Dans leur article, les auteurs comparent le sentiment d’incarnation dans différents contextes en reproduisant la célèbre illusion de la main en caoutchouc. Cette illusion consiste à donner l’impression au participant que la main en caoutchouc posée devant lui fait partie de son corps.

    Pour créer cette illusion, un expérimentateur caresse la main en caoutchouc exactement en même temps que la vraie main du participant, cachée sous un drap. Si le participant réagit physiquement à une menace, par exemple en retirant sa vraie main suite à la chute d’un couteau sur la fausse main, alors cela confirme qu’il s’est fortement approprié la main.

    La réalité augmentée permet d’insérer des éléments virtuels dans notre perception du monde qui nous entoure. Shutterstock

    Dans l’étude de Škola et Lliarokapis, l’expérience de cette main en caoutchouc est comparée à celle de mains virtuelles visionnées en réalité augmentée et en réalité virtuelle. Leurs résultats ne semblent pas montrer de différence significative entre la perception globale des trois conditions. Cependant, les auteurs constatent un plus fort sentiment de propriété corporelle dans le cas de la main en caoutchouc que dans celui de la main virtuelle en réalité augmentée, mais pas en réalité virtuelle.

    Malgré qu’aucune différence notable entre les conditions n’ait été conclue, ce dernier résultat m’a particulièrement intriguée. Se pourrait-il que le mélange d’éléments réels et virtuels en réalité augmentée soit à l’origine de cette variation subtile du sentiment de propriété ? Cela expliquerait pourquoi aucune différence de ressenti ne fut observée entre la main en caoutchouc et la main virtuelle en réalité virtuelle puisque dans ces deux conditions, le visuel est homogène. Si cela s’avère vrai, alors le contexte environnemental serait un facteur d’influence du sentiment d’incarnation qui n’a encore jamais été identifié.

    Enjeux éthiques et médicaux

    Ma première expérience a consisté à étudier cette question. À l’aide d’un dispositif de RA, j’ai comparé le sentiment d’incarnation de mains virtuelles face à des quantités progressives d’objets virtuels intégrés dans le monde réel. Chaque session, les participants voyaient devant leurs mains virtuelles 1) des objets virtuels, 2) des objets réels ou 3) les deux types mélangés.

    Les mesures obtenues au travers des questionnaires indiquent une légère variation du sentiment d’incarnation. Les mains en condition 3 (objets mélangés) semblent avoir suscité un sentiment de propriété corporelle plus fort qu’en condition 2 (objets réels). Des corrélations ont également été observées d’une part entre l’appropriation des mains de l’avatar et l’immersion de l’utilisateur, et d’autre part, entre l’appropriation et la perception de la cohérence du contenu virtuel. Ces résultats suggèrent que la cohérence perçue du contenu virtuel est subjective et joue un rôle dans le sentiment d’incarner un autre corps.

    Cependant, comment expliquer la différence de propriété corporelle entre les conditions 2 et 3, et surtout, l’absence de différence entre les autres paires de conditions ? Il est impossible à ce jour de répondre avec certitude et d’autres études seront nécessaires pour quantifier ce biais. Approfondir la recherche à ce sujet semble crucial pour vérifier si l’« Effet de Protée » peut avoir lieu dans de telles conditions.

    Le travail sur le sentiment d’incarnation peut avoir des applications thérapeutiques, notamment dans le cas de l’anorexie. Shutterstock

    Les enjeux liés à la reproduction de ce phénomène sont considérables, en particulier dans le domaine médical : la réalité augmentée étant plus facilement acceptée que la réalité virtuelle dans son utilisation journalière, l’« Effet de Protée » rendrait possible l’intégration de prothèses virtuelles au quotidien de personnes amputées pour soulager leurs douleurs fantômes. Il pourrait également servir lors de la rééducation post-AVC de patients, ou encore lors de l’élaboration de stratégies de traitement de troubles psychiques comme l’anorexie.

    De nombreux autres exemples dans le domaine de l’éducation, du cinéma interactif, de l’art de scène, des jeux vidéos ou encore du sport pourraient bénéficier de l’incarnation d’avatars en RA. Plus généralement, un utilisateur pourrait intégrer les illusions d’incarnation à son quotidien pour accomplir des tâches plus efficacement en choisissant l’apparence de son avatar en fonction de celles-ci.

    Mais à l’heure où les rendus graphiques en RA sont de plus en plus réalistes, de nombreuses questions éthiques voient le jour : à quel point est-il acceptable de modifier le comportement et la perception d’un individu ?

    Si l’incarnation virtuelle peut apporter beaucoup d’avantages, il est de la responsabilité des chercheurs, des créateurs de contenu et des distributeurs de systèmes de RA d’élaborer un code de conduite pour prévenir les dérives inévitables et implications psychologiques et sociales de l’incarnation virtuelle. Ainsi, dans la suite de ma thèse, ma mission sera non seulement d’agrandir notre compréhension de ce phénomène fascinant, mais également de discuter des possibilités pour l’encadrer.

    Adélaïde GENAY (doctorante Inria, Equipe-projet Potioc, Bordeaux)

  • Que se passe-t-il dans les cerveaux des cons ?

    binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible … comment les mots prennent du sens dans notre cerveau et ainsi  mieux comprendre la différence entre l’intelligence naturelle et algorithmique.
    Marie-Agnès Enard, Pascal Guitton  et Thierry Viéville.

    – Alors y’a des gens tu parles avec eux, tu crois qu’ils te comprennent, et tout d’un coup, comme un voile qui se déchire, ils te lâchent une énormité … et tu réalises qu’en fait ils n’ont rien compris depuis le début. 

     – Ok, si je te suis bien, ta définition de la connerie, ce serait une personne avec qui tu discutes, mais finalement les mots ne font pas vraiment sens pour elle ?

    Dans le film «Diner de con » de Francis Veber, le personnage de François Pignon n’est pas dénué d’intelligence, loin de là, c’est d’ailleurs  le ressort de cette comédie pour … inverser les rôles, mais beaucoup d’éléments incarnés dans nos rapports sociaux ne font pas de sens pour lui ©EFVE

    – Oui, c’est ça : quelqu’un qui a appris à manipuler les symboles du langage, qui peut donner l’illusion un moment, mais en fait ces symboles ne font pas vraiment sens pour lui, leur signification n’est pas enracinée dans son intelligence humaine. 

    – Ah oui, c’est pas con. Et tu sais quoi ? Tu viens de soulever le problème du fondement des symboles, c’est à dire comprendre comment un signe (un mot, un geste, un son, …) acquiert son sens dans notre cerveau humain.

    – Et on a compris ça ? 

    – En partie oui. On sait par exemple que quand les mots font référence à une personne ou une chose, par exemple en utilisant une description physique “l’objet en bois muni d’un tuyau avec un embout noir et un fourneau marron” ou une description par son usage “le truc où on met du tabac qu’on allume pour aspirer la fumée”, ces mots prennent du sens. C’est une étape nécessaire de trouver un tel lien pour décider quelle chose on désigne. D’ailleurs dans le cerveau les zones qui correspondent à la perception de cet objet s’activent quand le mot qui le désigne prend du sens. Et selon certaines théories, le cerveau comprendrait ces descriptions car il ferait une « simulation » physique de la description, et c’est pour ça qu’elle serait « grounded » même si c’est pas une expérience vécue. 

    Dans ce tableau dit de “la trahison des images” René Magritte nous interpelle sur cette image de pipe qu’on ne peut ni bourrer, ni fumer, comme on le ferait avec une vraie pipe. ©University of Alabama site

    – Ah oui .. ça s’allume dans ma tête ! Tu veux dire qu’un objet prend du sens par rapport à son aspect ou l’usage qu’on peut en faire en lien avec les zones cérébrales concernées ? 

    – C’est çà, on est capable de choisir des référents des symboles qu’on manipule et pour que ça fonctionne, cela doit se faire consciemment, en lien avec les potentialités (ce qu’on peut faire avec) liées à ce symbole. 

    –  En fait, notre intelligence humaine est forcément incarnée en lien avec notre corps, alors ?

    – Absolument. Et même quand on fait des maths, ou que l’on développe des pensées abstraites, en fait on “détourne” des mécanismes incarnés pour ses usages plus édulcorés.

    John Searle partage une expérience de pensée où un programme informatique, aussi complexe que nécessaire, ou bien une personne dotée de tous les documents idoines, simule une conscience capable de mener un dialogue en chinois sans que cela fasse le moindre sens pour elle. ©wikicommon

    – Mais alors, les personnes qui pensent que grâce au numérique on va pouvoir transférer toute notre mémoire et ses mécanismes, y compris notre conscience, dans un ordinateur pour vivre éternellement, c’est du délire ? 

    – oui, c’est très con. En fait c’est un fantasme assez courant et ancien : avant on pensait pouvoir prendre possession d’un corps plus jeune et y transférer notre esprit pour une nouvelle vie, mais notre esprit fait corps avec notre corps en quelque sorte.

    – Alors si je te suis bien, l’idée qu’on attribue à René Descartes d’une dualité corps-esprit c’est pas trop en phase avec la neurologie cognitive moderne alors ?

    – Eh, tu as bien suivi 🙂

    – Mais alors, dans un ordinateur, les symboles qui sont manipulés ne font pas de sens, puisqu’il y a pas de corps avec lesquels ils peuvent s’incarner ?

    – C’est cela, bien entendu on peut “simuler” c’est à dire reproduire par le calcul, le comportement d’une intelligence naturelle traitant un type de question bien particulier et, qui va “faire comme si”, au point de tromper pendant un temps limité, mais qui peut-être long. Ah oui comme un con qui tente de se comporter de manière pertinente, mais à qui il manque des “bases” et qui va forcément finir par dévoiler que les choses ne font pas de sens pour lui.

    – Exactement, Et tu vois en quelques échanges on vient tout simplement de donner  quelques éléments de compréhension de cette notion complexe de  fondement des symboles (« grounding » en anglais) qui remet en cause l’idée d’intelligence artificielle désincarnée mais “consciente”.

    – Ah ben ouais, j’me sens moins con 🙂

    P.S.: Merci à Xavier Hinaut pour sa relecture et un apport.

  • La Chine et les communs numériques


    Stéphane Grumbach est directeur de recherche à Inria et enseignant à Sciences Po. Il a été directeur de l’IXXI, l’institut des systèmes complexes de la Région Auvergne Rhône Alpes. Il a été directeur du Liama, le laboratoire sino-européen en informatique, automatique et mathématiques appliquées de Beijing.  L’essentiel de sa recherche concerne les questions globales, et notamment comment le numérique modifie les rapports entre les nations et oriente les sociétés dans l’adaptation aux changements écosystémiques. Nous l’avons interviewé notamment pour mieux comprendre ce qui se passe en Chine autour du numérique et des communs numériques.

    Peux-tu nous parler de ton activité professionnelle actuelle ?

    Depuis quelques temps, je fais moins de technique et plus de géopolitique. Je m’intéresse au numérique et pour moi le numérique est un système de pouvoir qui implique de nouveaux rapports de force entre les personnes et les pays. Je reste fasciné par le regard que les Européens portent sur la Chine. Ils ne voient dans la stratégie chinoise que l’aspect surveillance de sa population alors que cette stratégie est fondée sur la souveraineté numérique. Les États-Unis ont aussi un système de surveillance du même type et les Américains ont bien saisi la question de souveraineté numérique.

    A l’École Normale Supérieure de Lyon, je travaille avec des gens qui étudient les systèmes complexes, sur la prise de conscience de changements de société causés par la transition numérique, ses imbrications avec la transition écologique. Il y a des anthropologues et des juristes ce qui me permet d’élargir mon horizon.

    Où est-ce qu’on publie dans ce domaine ?

    Ce n’est pas facile. Sur cet aspect, je regrette le temps où ma recherche était plus technique ; je savais alors précisément où publier. Par exemple, sur les aspects plus politiques du développement durable, il n’est pas facile de trouver le bon support.

    Emblème national de la République populaire de Chine

    Parle nous d’un de tes sujets de prédilections, la Chine.

    Je voudrais en préambule proposer une analyse globale de la situation. Contrairement à la vision qui mettrait la Chine d’un côté et le monde occidental de l’autre, le monde numérique se sépare entre Chine et États-Unis d’un côté et de l’autre l’Europe.

    Entre la Chine et les États-Unis, une différence est la liberté d’expression. Aux États-Unis, cette liberté fait l’objet du premier amendement de la constitution, c’est dire son importance. En Chine, le sujet n’existe pas. Il y a une forme de possibilité de critiquer, mais la critique doit se faire de biais, jamais directement. L’expression critique reste typiquement métaphorique, mais les Chinois la comprennent bien. Depuis l’ère Trump, les Américains ont essayé de bloquer le développement numérique chinois. Deux idées sont importantes : la souveraineté et l’extension extraterritoriale. Ce sont les bases du conflit États-Unis et Chine.

    Actuellement la tension monte de manière inquiétante. Des deux côtés, un processus de désimbrication intellectuelle et technologique est enclenché. C’est une mauvaise nouvelle globalement car c’est le chemin vers des conflits.

    La pensée numérique s’est beaucoup développée en Chine, qui est devenue depuis un certain temps précurseur au niveau mondial. Aux États-Unis, les liens entre l’industrie numérique et l’État sont importants, mais se cantonnent principalement à la sécurité. En Chine en revanche, cela va plus loin : le rôle stratégique des plateformes numériques est mieux reconnu et plus large, dans l’économie, le social, au-delà de la simple surveillance. C’est ce qui donne au pays une avance sur le reste du monde.

    La Chine est aujourd’hui dans une phase de définition des rapports de force entre les plateformes et l’État. Les États-Unis feront la même chose, mais probablement plus tard. Le dogme dominant aujourd’hui est que la régulation nuirait à l’innovation et à la sécurité nationale. En Chine, la définition de ces rapports est dictée par l’État : c’est une décision politique de l’État.

    Par ailleurs, on assiste actuellement à un durcissement politique en Chine, une baisse de la liberté de critique et une moins grande ouverture. L’instabilité sociale potentielle pousse à une politique de redistribution des richesses. Une forte régulation des plateformes a été lancée depuis l’arrêt brutal de l’IPO d’Ant Financial l’année dernière. Ces régulations touchent aussi les plateformes de la EdTech, avec des arguments de justice sociale également.

    Comment arrives-tu à t’informer sur la Chine ?

    C’est devenu plus difficile parce que malheureusement on ne peut plus y aller à cause de la politique de protection face au Covid. Mais il se publie beaucoup de choses en Chine qui sont accessibles.

    Est-ce qu’il y a des sites de données ouvertes en Chine ?

    Oui il y a par exemple des équivalents de data.gouv en Chine, beaucoup au niveau des provinces et des villes. En matière de données ouvertes, la politique chinoise est différente de celle que nous connaissons en Europe. Plutôt que d’ouvrir les données et d’attendre que des acteurs s’en saisissent, on procède en ciblant des acteurs précis pour réaliser des services innovants à partir potentiellement d’un cahier des charges, sous contrôle de l’administration publique. L’ouverture se fait dans le cadre d’appels d’offres comme c’est le cas, par exemple, à Shanghai. Bien sûr, comme ailleurs, on assiste à des résistances, des villes qui hésitent à ouvrir leurs données.

    Il faut aussi parler des expérimentations mettant en œuvre le social scoring, une notation sociale. Il s’agit de mesurer la “responsabilité citoyenne” de chacun ou de chacune, suivant les bonnes ou les mauvaises actions qu’il ou elle commet. C’est aujourd’hui très expérimental, mais différentes villes l’ont déjà implémenté.

    Il faut bien réaliser que la frontière entre espace public et privé est plus floue en Chine que chez nous. Par exemple, la circulation des voitures est monitorée et les PV sont mis automatiquement, ils sont visibles sur un site en ligne. Il faut avoir une vignette qui atteste de sa capacité à conduire et avoir bien payé ses PV. Cette approche est similaire à ce qui se pratique aux États-Unis avec le financial scoring qui est largement utilisé. Les Chinois sont globalement bienveillants face aux développements numériques et ils font preuve d’un “pragmatisme décontracté” à son égard. Les données personnelles ne sont pas accessibles à tous, et une nouvelle législation est entrée en vigueur au mois de novembre 2021, inspirée du RGPD.

    Le quartier général de Baidu, Wikipédia

    Est-ce qu’il y a des plateformes basées sur les communs numériques comme Wikipedia ou OpenStreetMap ?

    Oui des analogues existent. Il y a un équivalent de Wikipédia réalisé par Baidu, et des équivalents locaux d’OpenStreetMap. Sur les pages Wikipédia en chinois les points de vue ne sont pas toujours ceux des autorités. C’est parfois censuré mais les gens savent souvent contourner la censure.

    Et pour ce qui est des logiciels libres ?

    L’open source est relativement présent. La tech peut parfois avoir des accents libertaires qui la mettent en opposition avec les autorités. Mais l’État chinois sait se servir de l’open source en particulier comme outil de souveraineté numérique. Le système d’exploitation Harmony de Huawei (basé sur Android) est bien un enjeu de la lutte entre la Chine et les États-Unis pour la dominance technologique et le découplage des économies numériques.

    Plus généralement, que peut-on dire sur les communs numériques en Chine ?

    Il n’y aurait aucun sens à ne pas profiter de tels communs en Chine comme en France. D’ailleurs, ces communs sont fortement développés en Chine, plus que dans d’autres pays. Les données accumulées par les plateformes en Occident ne sont utilisées que par celles-ci pour un intérêt mercantile, au-delà de la sécurité. Mais ces données peuvent être vues comme des communs, dont l’usage doit être encadré bien sûr par exemple par l’anonymisation.

    Si on regarde bien, Google dispose de données stratégiques pour un grand nombre de sujets au-delà de la sécurité comme la santé, l’économie ou l’éducation. Pourtant aux États-Unis et en Europe, les relations entre l’État et les plateformes sont focalisées sur la sécurité. Cela fait passer à côté de nombreuses opportunités. En Chine, tous les sujets sont abordés en s’appuyant sur les services numériques, y compris par exemple la grogne sociale. Avec ces services, on peut détecter un problème régional et procéder au remplacement d’un responsable.

    La Chine construit une société numérique nouvelle, et exploite les données pour la gouvernance. En ce sens, elle est en avance sur le reste du monde.

    Et quelle est la place de l’Europe dans tout ça ?

    Pour l’Europe, la situation est différente. Contrairement à la Chine ou aux États-Unis, elle n’a ni technologie ni plateforme. Elle est donc dépendante sur ces deux dimensions et essaie de compenser par la régulation. Mais sa régulation est focalisée sur la protection de l’individu, pas du tout sur les communs ou l’intérêt global de la société. L’Europe n’a aucune souveraineté numérique et ses outils et services n’ont pas de portée extraterritoriale, parce qu’elle n’a pas d’outils de taille mondiale.

    Pour les Chinois, l’Europe n’existe plus : les cadres chinois voient l’Europe comme nous voyons la Grèce, une région qui a compté dans l’histoire mais qui ne pèse plus au niveau politique et stratégique, sympa pour les vacances. Je ne suis pas sûr que la vision des américains soit très différente de celle des Chinois d’ailleurs.

    La stratégie chinoise des routes de la soie, une infrastructure absolument géniale du gouvernement Chinois, contribuera d’ailleurs à augmenter la dépendance de l’Europe vis à vis de la Chine, à long terme peut-être dans un équilibre avec les États-Unis, voire dans une séparation de l’Europe dans deux zones d’influence comme c’était le cas pendant la guerre froide.

    Serge Abiteboul, Inria et ENS, Paris, & François Bancilhon, serial entrepreneur

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Impacts environnementaux du numérique : le Mooc

    Impact Num est un MOOC pour se questionner sur les impacts environnementaux du numérique, apprendre à mesurer, décrypter et agir, pour trouver sa place de citoyen dans un monde numérique.

    Ce MOOC  se donne pour objectif d’aborder l’impact du numérique sur l’environnement, ses effets positifs et négatifs, les phénomènes observables aujourd’hui et les projections que nous sommes en mesure de faire pour l’avenir. Il est à destination des médiateurs éducatifs et plus largement du grand public.

    Co-produit par Inria et Class’Code avec le soutien du Ministère de l’éducation nationale, de la jeunesse et des sports et d’Unit, ce cours a ouvert le 22 novembre 2021 ; vous pouvez dès à présent vous inscrire sur la plateforme FUN.

    Ce MOOC, c’est une trentaine d’experts du domaine, des vidéos didactiques et ludiques pour poser les enjeux, des activités interactives pour analyser, mesurer et agir, des fiches concept pour approfondir les notions.

    L’équipe de Class’Code

    Repris de https://pixees.fr/impacts-environnementaux-du-numerique-un-mooc-pour-se-questionner/