Catégorie : Numérique

  • L’echostétoscopie en commun

    Dans le cadre de la rubrique sur les Communs numériques, binaire a rencontré Mehdi Benchoufi, médecin de santé publique à l’hôpital Hôtel-Dieu, ancien chef de clinique en épidémiologie clinique et agrégé et docteur en mathématiques. Il s’est principalement investi aux interfaces entre médecine connectée et technologies ouvertes : imagerie par ultra-sons, méthodologie de développement des solutions d’intelligence artificielle. Il a été pionnier dans les applications de la blockchain pour la qualité des essais cliniques. Il a été membre du Conseil Scientifique de la Fondation pour la Recherche Médicale de l’AP-HP (l’Assistance publique – Hôpitaux de Paris). Il est l’un des cofondateurs et le président de echOpen Factory, une startup de la santé qui développe et commercialise un échographe ultra portable, à bas coût.
    Mehdi Benchoufi

    Binaire : Qu’est-ce que le mot commun évoque pour toi ? 

    Mehdi Benchoufi : Une des grandes passions de ma vie est les mathématiques. La première chose que m’évoque les communs c’est le commun des mathématiques. Les mathématiques appartiennent à tous et sont développées par tous. Que serait le monde aujourd’hui si le théorème de Pythagore était propriétaire ? Ce commun a un impact invraisemblable sur le monde. C’est mon goût personnel pour les mathématiques qui m’a donné le goût de la culture du partage telle qu’on la voit dans l’ouverture des données ou du logiciel. On s’inscrit dans une tradition historique de mise en commun, on croise les apports des uns et des autres, et on consolide une connaissance commune.

    Peux-tu nous parler du commun sur lequel tu travailles aujourd’hui ?

    Je travaille depuis longtemps sur un outil pour mettre l’échographie à la portée de tout le monde. Quand j’étais interne, j’ai réalisé l’intérêt de pouvoir faire des échographies sur le lieu de prise en charge des malades. Notamment, j’ai été marqué par le cas de patients victimes de ruptures d’anévrismes de l’aorte et dont on aurait augmenté les chances de survie si les équipes mobiles de prise en charge avaient disposé d’un matériel échographique de tri, pas cher, miniaturisé et connecté.

    C’est ce qui m’a donné l’idée du projet ouvert et collaboratif echOpen au côté de mes collègues Olivier de Fresnoye, Pierre Bourrier et Luc Jonveaux, le premier avec une longue expérience humanitaire, le second radiologue expert de l’échographie, le troisième ingénieur et maker versé dans les technologies acoustiques. L’objectif est de produire une sonde ultrason ouverte, connectée à un smartphone afin de transformer de manière radicale le processus de diagnostic dans les hôpitaux, les cabinets de médecine générale et les déserts médicaux. On tient à ce qu’elle soit abordable, bien moins chère que les produits actuellement sur le marché.

    Nous avons créé une association en 2015 pour organiser les développements de la communauté. Dans une première phase qui a duré 3-4 ans, nous avons mis en place tous les outils utilisés dans la fabrication d’un échographe ; c’est en accès libre sur github et des équipes l’utilisent dans le monde entier. Dans un second temps, pour passer du démonstrateur au produit, nous nous sommes structurés en entreprise, tout en tâchant de continuer à associer la communauté.

    Commençons par la première phase, peux-tu nous parler de votre communauté ?

    Il y avait un noyau d’une trentaine de contributeurs. Et puis d’autres personnes ont soutenu le projet de diverses manières, par exemple, en participant à son financement ou en nous encourageant. Je dirais peut-être un millier de personnes réparties sur 5 continents, des informaticiens, des physiciens, des médecins,  des spécialistes en acoustique en électronique, etc.

    Pour prendre un exemple, parmi tous ces soutiens, nous avions ce Canadien, un super développeur qui avait fait la une de Hacker News. Il est passé à Paris et a demandé à nous rencontrer. Il est resté 10 jours chez nous et nous a fait gagner un facteur 10 dans les performances de l’application. C’est le genre d’agilité et de créativité que nous apportait la communauté au sens large.

    Un autre exemple. Les membres de notre communauté du Pérou nous ont fait connaître une pathologie atypique, un cancer du foie que même nos collègues médecins français ignoraient. Ce sont des formes très rares dans le monde mais fréquentes dans ce pays qui touchent des gens entre 15 et 25 ans en milieu rural. Le malade arrive pour le diagnostic avec une espèce de pastèque dans le ventre et c’est déjà trop tard. Il faudrait dépister cette maladie à temps. Nous nous disions que notre petit échographe serait capable de faire cette détection à distance.

    Pour revenir à la contribution d’echOpen aux communs de façon plus générale, dans le logiciel Open Source, la difficulté majeure à laquelle nous avons été confrontées est le caractère inapplicable, dans le domaine de la santé, du principe « give to get » qui peu ou prou régit le développement libre ou open source, c’est-à-dire je donne quand je sais que je vais recevoir. Si je contribue au logiciel libre d’édition de texte emacs,  j’apporte une brique qui complète un ensemble dont je vais être l’utilisateur. Mais cette règle-là n’est pas évidente dans notre cas. Dans le domaine de la santé, les membres de la communauté ne sont pas nécessairement les consommateurs de la technologie.

    Est-ce que la communauté a défini ses propres règles de fonctionnement ?

    Il y a des règles, mais honnêtement ces règles n’ont jamais été vraiment formalisées. On travaille sur Github. Mais c’est aussi important pour la communauté de se retrouver physiquement pour travailler ensemble dans les mêmes locaux. C’est ce que nous avons pu faire dans les locaux de l’hôpital Hôtel Dieu à Paris.

    Donc en 2018, vous basculez vers une organisation différente : une entreprise privée. Qu’est-ce qui motive ce choix ?

    Au bout de trois ans de développement, s’est reposée notre motivation initiale : avoir de l’impact sur le travail des praticiens et servir les patients. Nous avons compris que notre prototype n’était pas industrialisable. Il fallait un travail d’une tout autre nature, d’une tout autre ampleur, pour satisfaire notamment les exigences en termes de certification et de sécurité. Nous avions réalisé notre mission en tant que Fablab et nous nous sommes lancés dans l’aventure entrepreneuriale, et sommes repartis “from scratch » pour viser la qualité d’un dispositif médical. Pour cela, il fallait des financements et des efforts conséquents. Il s’agissait de financements importants,et les fonds comme ceux que nous avions obtenus auprès des fondations qui nous avaient soutenus depuis le début, la fondation Pierre Fabre, la fondation Sanofi Espoir et la Fondation Altran pour l’Innovation, ne pouvaient suffire. Nous nous sommes transformés en startup.

    Le monde est ce qu’il est ; nous sommes dans une économie capitalistique dont le modèle est assis sur la propriété. Personne n’investit un euro dans une société qui n’est pas propriétaire de sa technologie. Je trouve cette logique contestable mais c’est la réalité.

    La mise en place de notre première recherche de fonds a été difficile. Les capitaux-risqueurs que nous avons rencontrés ne trouvaient pas leur intérêt dans une solution bas coût, lorsque les compétiteurs vendent substantiellement plus chers. Mais nous avons tenu bon et avons pu trouver les moyens de nous financer jusqu’à aujourd’hui !

    Comment s’est passée le passage du commun à l’entreprise ?

    Très bien. Toute la communauté contributrice a participé aux discussions quant à l’évolution de notre organisation, à la répartition des titres de l’entreprise à due concurrence des contributions effectuées. L ‘association est toujours en place et elle a une part substantielle de l’entreprise privée, elle a ainsi co-fondé le véhicule industriel echOpen factory. Elle a concentré et intensifié ses activités pour adresser un enjeu de santé publique majeure au niveau mondiale, la santé maternelle dans les pays à faible revenu. Aujourd’hui l’aventure continue. Nous continuons à travailler main dans la main avec nos communautés technique et médicale en les impliquant dans l’expérimentation de nouveaux usages du dispositif. Avec toujours le même objectif en ligne de mire : rendre l’imagerie médicale accessible partout dans le monde.

    Les membres de votre communauté, les 30 et les 1000, ont tous accepté ?

    Nous avons mobilisé l’ensemble des contributeurs actifs d’echOpen, soit une trentaine de personnes. Tous ceux auxquels nous avons proposé des parts ont accepté, sauf le développeur  Canadien dont je vous ai parlé.

    On a bien eu deux départs mais c’était avant la transformation en entreprise. Deux personnes ont quitté le projet  pour des différences de points de vue techniques et opérationnels. L’une d’entre elles, Luc Jonveaux, a proposé un fork sur Github et a continué à développer son projet de matériel de recherche, ce qui montre là une façon intéressante de gérer le dissensus au sein d’une communauté. Nous sommes toujours en très bons termes avec ces deux personnes.

    Vous construisez un appareil. Qu’est ce qui est ouvert ? Le design général ? Le matériel ? Le logiciel ?

    Dans la première phase Fablab, tout ce qui était réalisé l’était en open source ! Si on est parvenu à diminuer le coût du dispositif, c’est parce qu’on a pris cette approche. On n’est pas parti de l’existant comme l’aurait fait un industriel, ni d’un processus de transfert technologique comme dans un laboratoire. On est parti de la page blanche en nous appuyant sur des briques logicielles en open source. C’était un chemin possible pour arriver à un design raisonnable en termes de qualité, et industrialisable dans des conditions de coût qui étaient les nôtres.

    Notre modèle était assez original avec notamment à la fin une phase FabLab qui était constitutive de la communauté et relativement productive puisqu’on a aujourd’hui des universités qui utilisent les cartes électroniques ou des petits logiciels qu’on a développés. En revanche, à l’issue de cette phase, on ne pouvait pas viser une sonde de qualité médicale. Nous sommes repartis de zéro.

    Je pense que toute start-up qui reprendrait le travail de la communauté serait capable de refaire ce que nous avons réalisé. En tout cas, nous lui avons donné les bases pour le faire.

    Plusieurs brevets d’invention ont été déposés. Notre volonté est d’ouvrir la technologie dès lors qu’une nouvelle version s’y substitue. Donc, à chaque fois que nous remplaçons une version, nous ouvrons le code de la précédente. Nous nous protégeons. Nous voulons éviter qu’un concurrent modifie le produit à la marge, brevette, et ensuite nous empêche d’exploiter le fruit de nos travaux. Enfin, c’est ce qui est prévu parce que, pour l’instant, nous n’avons pas encore sorti la deuxième version qui nous permettra d’ouvrir la première.

    Deuxième élément en gestation et en discussion : la possibilité de permettre à des tiers de développer les algorithmes, par exemple des algorithmes d’intelligence artificielle sur la base de notre sonde. Nous sommes contactés par différentes entreprises et d’autres structures qui veulent s’appuyer sur un appareil qui n’est pas cher.

    Et ce à quoi nous réfléchissons, c’est à open-sourcer des outils d’interfaçage à notre solution pour des tiers développant des services complémentaires aux nôtres. C’est en discussion et je ne sais pas quand ça va atterrir, mais ça fait partie de nos réflexions.

    Où en êtes-vous aujourd’hui ?

    Notre startup fonctionne bien. Nous sommes même la première startup à avoir l’AP-HP dans notre capital. Nous avons aujourd’hui un produit opérationnel qui a déjà passé l’essai clinique. Il est en cours de finalisation.

    Serge Abiteboul, Inria et ENS, François Bancilhon, serial entrepreneur

    Les communs numériques

  • Si binaire m’était conté

    ©Catherine Créhange pour la SIF

    Le blog Binaire est un blog invité du journal Le Monde depuis 2014. Il est intéressant de raconter comment cela a démarré, parce qu’en fait, ça a démarré avec la Société Informatique de France, la SIF. À l’époque, je venais d’être nommé président du conseil scientifique de la SIF, et un copain, David Larousserie, journaliste au Monde, est venu me voir en me disant : « On ne parle pas assez de la science informatique au Monde : est-ce que tu n’as pas envie de faire un blog invité sur ce thème ? » J’ai eu envie de répondre : « Non, merci, j’ai déjà trop de choses à faire, je ne peux pas ». Mais, je me suis dit :  « Moi non, mais peut-être que le conseil scientifique de la SIF, oui ? ». En fait, cela ne s’est pas fait avec le conseil scientifique de la SIF, mais avec un groupe d’amis. Vous en connaissez sûrement certains, comme Thierry Viéville, Marie-Agnès Enard, Pierre Paradinas, Charlotte Truchet, qui étaient là hier, et d’autres. Je vais rater des gens si j’essaie de lister tout le monde, donc je vais m’arrêter au noyau initial. Donc, une bande de copains décide de réaliser ce blog ; on assume : on n’a pas d’organisation, on est assez bordéliques, mais on fonctionne.

    Nos rapports avec Le Monde étaient très bons avec les journalistes, moins avec l’administration, parce qu’on a décidé de manière autoritaire que le journal serait en licence Creative Commons. Tous les articles peuvent donc être reproduits par qui veut à condition de nous citer. Le Monde est gentiment venu me dire : « On vous donne 50% des royalties sur la publicité, signez, en bas de cette page ! » Mais, dans le contrat, il était marqué que j’abandonnais la propriété des articles au Monde, alors j’ai dit : « Je ne peux pas vous abandonner quelque chose que je ne possède pas, c’est en Creative Commons ». Ils m’ont dit : « C’est quoi ça? On va voir avec le service juridique ». Au bout de quatre ans, ils sont revenus me voir en me disant : « Mais comment ça se fait que vous n’ayez toujours pas signé le contrat ? ». J’ai proposé de signer le contrat sauf quelques articles que je ne pouvais pas signer. Ils m’ont dit : « On va voir avec les services juridiques ». On en est là. Le bon côté, c’est qu’on est toujours en Creative Commons, le côté négatif, c’est qu’on n’a jamais touché un centime.

    Notre sujet, c’est l’informatique. Je vais vous la lire notre mission : «  L’informatique participe au changement profond du monde dans lequel nous vivons, mais qu’est-ce que l’informatique, quels sont ses progrès, ses dangers, ses questionnements, ses impacts, ses enjeux, ses métiers et son enseignement ? » C’est à cela qu’on répond. On a créé des liens. Avec )I(nterstices  (on est des fans d’Interstices), de temps en temps, on partage des articles avec eux. Avec 1024 évidemment, et avec la médiation dans la fondation Blaise Pascal… Il existe tout un écosystème sur la médiation
    en France dont on tient à être partie avec notre particularité qui est d’être un blog grand public. Notre but dans la vie, c’est que les lecteurs du Monde nous lisent régulièrement, tous les lecteurs du Monde.

    Vous allez me demander : « Combien de lecteurs du Monde vous lisent ? » Pas tous. Ça se compte en quelques milliers pour l’article de base. Pour un article plus flashy comme « Les algorithmes et la sexualité », vous passez à plusieurs dizaines de milliers. C’est un très bel article de Christos Papadimitriou. On est aussi repris ; le fait d’être Creative Commons, ça a un avantage, c’est que les gens peuvent vous reprendre. Il y a des journaux avec qui on a des affinités, comme The Conversation, que vous connaissez, qui nous reprennent régulièrement, et puis il y en a d’autres qui, des fois, nous reprennent sans nous le dire. De temps en temps, vous découvrez que vous avez été repris dans un journal X ou Y. Bon, nous, on aime ça, parce que le but, ce n’est pas notre ego, c’est qu’on parle d’informatique.

    Alors, de quoi parle-t-on ? Notre sujet fétiche, ce n’est pas surprenant, c’est la science et les techniques informatiques. Et puis, la médiation, notre but, c’est de faire comprendre ce que c’est qu’un vote électronique, ce que c’est que l’IA, ce que c’est que la 5G… Tous ces trucs-là, les expliquer dans des termes que tout le monde comprend. Régulièrement, Marie-Agnès Enard revient en nous disant : « Cet article, tu n’y es pas du tout, personne ne va comprendre ». Elle nous engueule mais c’est comme ça qu’on fonctionne. On a des rubriques culte, comme « Il était une fois ma thèse », qui reprend en particulier les prix de thèses de Gilles Kahn où on demande aux étudiants d’écrire ; « les Entretiens de Binaire », dont je vais reparler…

    Et je veux finir cette première partie sur Binaire en disant qu’essentiellement, on est une émanation de la SIF donc n’hésitez pas à nous aider. Le conseil scientifique fait beaucoup ; on a des gens qui publient régulièrement dans Binaire : Claire Mathieu, Anne-Marie Kermarrec… Nous sommes aussi des éditeurs, les petites mains. Quand on n’écrit pas, on prend les articles des autres et on les met sur le logiciel du Monde… Un logiciel qui n’est pas terrible. Il y a le travail de réécriture, de discussion avec les auteurs. Si vous avez des idées d’articles, allez-y, écrivez-nous, proposez-nous des sujets, écrivez des articles. Une autre façon de contribuer qu’on aime bien, c’est de dénoncer vos collègues : « Je partage le bureau avec Machine et elle a fait un truc super, elle aimerait bien en parler mais elle n’ose pas, elle hésite. » Balancez-la !

    On aimerait bien toucher plus de monde… Alors, je vais faire des vœux pieux : on aimerait bien avoir un public plus jeune, on ne sait pas comment faire, donc on n’hésite pas à inviter des étudiants, des lycéens à écrire. C’est rare, on ne sait pas comment les toucher. Si vous avez un moyen de nous faire rajeunir, venez. On aimerait bien aussi toucher plus de profs de collège et de lycée, une manne de personnes au contact avec beaucoup de monde, en contact avec la vraie vie. On est déçus qu’ils n’écrivent pas plus. Donc si vous pouvez nous relayer…

    Et puis, il y a des choses qu’on aimerait bien faire depuis longtemps et qu’on fait de façon homéopathique comme des podcasts. Si vous avez envie de faire un podcast régulier, venez, rejoignez-nous, lâchez-vous. Si vous voulez faire des vidéos, pourquoi pas ?

    Ça, c’était le premier sujet, Binaire, j’espère que vous avez tous compris qu’on est extrêmement demandeurs du soutien franc et massif de la communauté SIF pour écrire dans Binaire et, évidemment, pour nous lire, pour nous relayer sur les réseaux sociaux, nous faire connaître. Allez-y, faites ça, on a besoin de votre soutien !

    ©Catherine Créhange pour la SIF

    Les entretiens de Binaire…

    Les Entretiens de Binaire ont commencé pratiquement au tout début de Binaire. Le conseil scientifique a écrit un texte qui était « L’informatique : la science au cœur du numérique ». On était contents de notre texte, on l’a publié sur Binaire et on aurait pu s’arrêter là. Mais, en relisant le texte, on s’est aperçus que ce n’était pas que cela, l’informatique. C’était super bien, mais c’était l’informatique décrite de l’intérieur, comme les informaticiens la voient. C’était très large, très général, avec des frontières qui englobaient la robotique, le traitement du signal… On dirait aujourd’hui : la « science du numérique », pour faire moderne, même si je préfère le mot informatique. Et puis on s’est dit : « L’informatique, c’est aussi ses liens avec les autres  disciplines », ce dont a parlé Antoine Petit. On s’est demandé comment raconter ce lien avec les autres disciplines. Et on a lancé les Entretiens autour de l’informatique. Cela consiste à s’entretenir avec des gens qui travaillent avec l’informatique mais qui ne sont pas forcément des informaticiens : une chimiste, un biologiste, un physicien, une philosophe, des gens qui connaissent bien l’informatique mais qui ne sont pas informaticiens. On les interviewe et on leur demande de raconter les liens entre ce qu’ils font et l’informatique. Donc c’est une description un peu impressionniste de l’informatique, au lieu d’être de l’intérieur, on est un peu loin, on fait ça par petites touches, et ces touches, il y en a une quarantaine maintenant, depuis 2014. C’est des touches qui, à mon avis, décrivent l’informatique autrement mais de façon au moins aussi intéressante que le texte qu’on avait écrit entre informaticiens. Par exemple, il y a un entretien avec François Houllier, qui était le président de l’INRA, qui nous raconte ce que c’est que l’informatique en agronomie, et moi, je trouve ça passionnant. Voilà, les Entretiens de Binaire.

    Et ensuite…

    Que s’est-il passé ensuite ? Un jour, Hervé Le Crosnier qui a été professeur d’informatique dans une vie antérieure, est venu dîner à la maison ; on papotait, on avait peut-être picolé un peu trop, et il m’a dit : « Dans ma maison d’édition, C&F Éditions, je te propose de publier des Entretiens de Binaire ». J’ai répondu : « Super idée, ça me fait plaisir parce que je suis fana de ces entretiens, ça va leur donner une deuxième vie, ça va les faire lire par un autre public ». Mais je me suis aussi dit : « Une fois qu’il sera rentré chez lui, il aura oublié ».

    C’est vrai qu’il ne s’est rien passé pendant un certain temps. Et puis, je vais faire un exposé à Caen, et je tombe sur une maître de conférences, Elsa Jaubert, qui me dit : « Hervé m’a demandé de regarder les entretiens pour en publier dans un bouquin ». Et puis, il se passe encore du temps et la COVID, et Hervé me présente Coralie Mondissa qui était en train d’éditer le bouquin. C’était devenu une réalité. Donc, la bonne nouvelle, la voici : un certain nombre d’entretiens autour de l’informatique, une quinzaine, vont être publiés par C&F Éditions, une maison d’édition citoyenne.

    Je vais quand même expliquer ce que ça veut dire « une maison d’édition citoyenne ». D’abord, en voyant la liste de gens qu’ils publient, vous allez peut-être comprendre un petit peu : ils publient des gens comme Stéphane Bortzmeyer, Dana Boyd, Tristan Nitot, ou Fred Turner. Bon, ils ne publient pas Mark Zuckerberg. Leur idée, c’est de parler de culture numérique, et pas pour dire : « C’est génial, la culture numérique », mais pour en parler d’un point de vue critique, et militant. Ils ont une certaine façon de prendre des valeurs et de les défendre. Nous, ça nous va bien parce que les valeurs qu’ils défendent, ont un overlap énorme avec les valeurs que défend Binaire. Pour ceux qui lisent Binaire, vous avez dû comprendre que la science, pour nous, c’est une valeur qu’il faut défendre, la culture scientifique, c’est une valeur qu’il faut défendre, qui est un peu, de temps en temps, mise sous le tapis, et c’est quelque chose, avec la médiation, qu’il fait vraiment pousser, mais il y a d’autres valeurs, comme la parité : on a énormément d’articles là-dessus, les liens entre démocratie et numérique, etc.

    L’informatique doit servir à améliorer le monde dans lequel on vit, et ça, c’est
    une valeur que Binaire partage avec C&F Éditions, et c’est pour ça qu’on est très contents d’avoir ce bouquin qui paraît chez eux. Mais, la vraie bonne nouvelle, c’est que la SIF, dans sa grande générosité, offre un livre à chacune des personnes dans la salle. Merci la SIF. Est-ce que vous avez des questions ?

    Vous avez le droit de poser une question sur Binaire à la seule condition que vous vous engagiez à rédiger un article ou à dénoncer quelqu’un qui ferait un article. C’est comme cela que ça marche dans Binaire ! On est les rois de la délation.

    Participant au congrès : « Juste une question : Binaire, ça existe, si j’ai bien compris, depuis huit ans, et j’aimerais savoir s’il y a un, deux ou trois articles dont tu te souviens, qui ont été mémorables, qui t’ont marqué? »

    C’est une question très difficile. J’aurais tendance à parler des rubriques, parce que ce sont des lieux ou des rencontres régulières. On est très fiers de la rubrique sur les thèses. À titre personnel, ce n’est pas pour vendre ma sauce, j’ai pris un plaisir considérable à faire les Entretiens de Binaire. Il y a d’autres rubriques, comme Petit Binaire, qui explique aux enfants ce que sont certaines notions d’informatique, donc il y a un grand nombre d’articles que j’adore dans les articles de Binaire. Mais revenons sur les entretiens… Ces entretiens, j’ai quand même baigné dedans depuis plusieurs années, et je les ai vécus avec beaucoup de plaisir, mais le regard de C&F Éditions dessus était tout à fait autre. Moi, ce que je voyais là-dedans, c’était comment expliquer ce que c’est que l’informatique avec ce côté impressionniste. La façon dont Hervé l’a lu est complètement différente : « Ces gens-là ont une passion et ils partagent leur passion de l’informatique ». Cela m’a fait porter un autre regard sur ces entretiens. C’est vrai que c’est ce qui transparait, c’est la passion. Par exemple, Arshia Cont parle de musique, mais aussi d’informatique qu’il découvre et qui le passionne. En fait, ce qui est vraiment très visible dans ces articles, c’est la passion que ces gens ont pour l’informatique et pour leur discipline, que ce soit la chimie, la biologie ou autre. Les scientifiques sont des gens passionnés, c’est ce qu’on voit bien, ils ont la passion de la science. Donc finalement ce qui est mémorable, ce qui m’a marqué, c’est leur passion.

    Voilà, c’est ce que je voulais raconter, je vous remercie de votre attention.

    Serge Abiteboul, Inria et ENS

  • IA explicable, IA interprétable: voyage dans les archives Binaires

    Peut-on comprendre et expliquer une décision automatisée prise par un système d’intelligence artificielle ? Pouvons-nous faire confiance à ce système autonome ? En tant qu’utilisateur, cela engage notre responsabilité et pose des questions. A travers Binaire, plusieurs chercheurs ont partagé leur travail à ce sujet ! Voici un résumé et récapitulatif autour de l’explicabilité et l’interprétabilité proposé par Ikram Chraibi Kaadoud chercheuse en IA passionnée de médiation ! Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

    Un petit rappel de contexte

    Dans de nombreux domaines, les mutations technologiques de ces dernières années ont mené à la disponibilité et à la prédominance de données complexes et hétérogènes. Par conséquent, de plus en plus de domaines d’application font appels aux systèmes d’intelligence artificielle (IA) dans le but de comprendre ces données, réaliser des prédictions jusqu’à aider l’humain à prendre des décisions.  Dans notre quotidien, les prises de décisions assistées par  des systèmes d’IA (voir automatisées quand urgence oblige) sont ainsi devenues une réalité quasi-omniprésente : algorithme de recommandation de médias, identification ou reconnaissance d’espèces animales et végétales, détection de pathologies, etc. 

    Dans ce contexte, l’humain, à la fois concepteur et utilisateur de tels systèmes d’IA, est un acteur incontournable. Amené à prendre des décisions basées sur ces systèmes, il engage sa responsabilité dans les choix qu’il effectue ce qui entraîne une exigence forte en termes de transparence et de compréhension des comportements de ces systèmes d’IA. Or, cette compréhension est loin d’être garantie puisque l’explicabilité* des modèles (notamment les propriétés d’interprétabilité des modèles à base de réseaux de neurones) est actuellement un sujet très complexe, objet d’études et de débats au sein même de la communauté scientifique en IA.  Ce qui se traduit par de la méfiance de la part du grand public, face à ces systèmes considérés  comme opaques parfois qualifiés de « boîtes noires ». 

    L’explicabilité* d’une IA vs celle d’un expert: Quand un expert humain prend une décision, il peut expliquer sur quelles connaissances, à partir de quels faits et quelles inférences il a utilisées pour arriver à sa conclusion. On parle d’explicabilité pour un système d’IA quand il peut lui aussi décrire comment a été construite sa décision. Dans certains cas, cette explication peut-être très complexe, voire impossible à appréhender par un humain ; en effet, un système de raisonnement automatisé peut enchaîner un très grand nombre de données, d’inférences qui dépassent de loin la capacité de nos cerveaux. Et c’est d’ailleurs bien pour ça que nous faisons appels à des machines qui ne sont pas intelligentes mais qui savent traiter des masses gigantesques d’informations.

     

    Depuis 2018, l’entrée en vigueur du règlement européen général de protection de données (RGPD), ainsi que les exigences sociétales en faveur de systèmes IA de confiance, ont permis l’essor d’algorithmes d’IA explicables et transparents dans le paysage informatique. Chacune et chacun a, en théorie, le droit et la possibilité d’exiger une explication des processus de traitement automatique de données tels que justement les systèmes d’IA, mais pouvoir le faire au niveau des connaissances de toutes et tous est un défi culturel et pédagogique.

    Cela a eu comme conséquence une explosion des travaux de recherche publiés sur ces sujets (explicabilité, interprétabilité, transparence, éthique, biais), et également une restriction de l’utilisation et l’amélioration d’un certain nombre de modèles existants autant dans l’industrie que – et surtout – dans la recherche.

    Mais qu’est-ce que l’IA explicable (ou XAI pour eXplainable Artificial Intelligence) ?

    En résumé, l’IA explicable peut être considérée comme une solution permettant de démystifier le comportement des systèmes d’IA et les raisons à l’origine de ce dernier. Il s’agit d’un ensemble d’approches et d’algorithmes permettant de proposer, par exemple,  des systèmes d’aide à la décision et d’explication de ces décisions. Expliquer le raisonnement d’un système, avec ses points forts et faibles, ainsi que son potentiel comportement dans le futur est le but de ce domaine. Pourquoi cela ? Entre autres: 1) favoriser l’acceptabilité de ces systèmes en prenant en compte les aspects éthiques et transparents, et le profil de l’utilisateur cible de cette explication, 2) veiller au respect de l’intégrité morale et physique de chacune et chacun, 3) augmenter les connaissances des experts grâce à la connaissance extraite par ces mécanismes d’IA explicable.

    En résumé, la dimension humaine est donc omniprésente depuis la conception jusqu’ à l’utilisation en passant par l’évaluation de modèle d’IA explicable.

    Pour en savoir plus, le blog binaire récapitule  les liens vers les articles que nous avons déjà partagés sur ces sujets :

    Comment comprendre ce que font les réseaux de neurones est le point d’entrée de ce sujet. Voici une série de trois articles grand public pour commencer de Marine LHUILLIER , Ingénieure d’études et Data engineer (spécialiste des données et de leur traitements) :  

     

    Démystifier des systèmes d’IA d’aide à la décision et les expliquer, permet également d’amener une connaissance pertinente à la portée du public ciblé. Un médecin peut donc voir en un système d’IA un moyen d’acquérir plus de connaissances sur une pathologie par exemple. L’IA transparente devient alors un outil d’apprentissage au service d’une expertise. Le Dr Masrour Makaremi nous avait partagé son point de vue sur cet aspect :

     

    Les algorithmes d’explicabilité peuvent être aussi être utilisés dans des contextes très ludiques comme le jeu de bridge. Il s’agit d’un jeu de cartes qui nécessite de maîtriser plusieurs compétences intéressantes à modéliser artificiellement et à démystifier, telles que faire des déductions, émettre et réviser des hypothèses, anticiper les coups de l’adversaire ou encore évaluer les probabilités. Marie-Christine Rousset, Professeur d’informatique à l’Université Grenoble Alpes, se penche et explique comment fonctionne le robot de bridge Nook, développé par NukkAI,  laboratoire privé d’Intelligence Artificielle français dédié aux développements d’IA explicables :

     

    L’IA explicable peut aussi être un moyen de favoriser l’acceptabilité de l’IA dans l’agriculture. Dans ce domaine, où la compétence de terrain est très présente, l’IA peut se révéler être un objet de frustration car elle ne permet pas de comprendre les tenants et les aboutissants. Emmanuel Frénod, mathématicien et professeur à l’Université de Bretagne Sud, au sein du Laboratoire de Mathématiques de Bretagne Atlantique, aborde le sujet de l’intégration d’outils en IA en agriculture et de la problématique des boîtes noires dans ce domaine :

     

    NOTRE PETIT PLUS : UNE NOUVELLE VIDÉO !

    Deux chercheuses en IA de l’IMT Atlantique, Lina Fahed et Ikram Chraibi Kaadoud, sont intervenues à Women Teckmakers Montréal et Québec 2021, un programme mis en place par le Google developpers Group afin de souligner le talent des femmes dans le milieu de l’informatique, de promouvoir la passion et d’accroître la visibilité de la communauté technologique féminine. Ces chercheuses ont ainsi abordé des éléments de réponses aux questions de confiance en IA et ont discuté des concepts de transparence et d’éthique à travers l’explicabilité en IA, un sujet de recherche toujours d’actualité.

    Cette présentation en français (avec des planches en anglais facilement lisibles, nous permettant aussi de se familiariser avec ce vocabulaire anglo-saxon) introduit aux concepts d’explicabilité et d’interprétabilité en IA, et fournit une description des grandes familles de stratégies en explicabilité, y compris d’un point de vue technique.  Il aborde également les difficultés inhérentes au domaine notamment lorsque les données sont hétérogènes (c’est à dire de différents formats) , ou encore en questionnant l’impact éthique et sociétale du sujet au vu de l’omniprésence des systèmes IA dans notre environnement. 

    Ikram Chraibi Kaadoud , chercheuse postdoctorale travaillant actuellement sur le sujet de l’intelligence artificielle eXplainable (XAI) sur des séries temporelles hétérogènes à l’Institut des Mines Télécom Atlantique.

  • L’IA contre l’inaction climatique et pour activer la transition énergétique

     Patricia Gautrin , doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA,   nous présente et discute ici le rôle potentiel de l’IA pour l’inaction climatique et comment cet outil peut aider à activer la transition énergétique. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères sur le lien suivant. Ikram Chraibi Kaadoud et Thierry Viéville.

    Grâce à l’explosion des données sur le climat, l’IA offre des possibilités de visualisation de scénarios nous permettant de prendre conscience de notre inaction climatique. Elle déploie également l’étude des changements climatiques et facilite une transition efficace vers des énergies propres.

    Rappelez-vous de la marche de Montréal pour le climat du 27 septembre 2019, avec Greta Thunberg, de la ferveur des militants rassemblés près du monument George-Étienne Cartier, sur l’avenue du Parc… Mises au pied du mur, nos sociétés réagissent et emboîtent nécessairement le pas vers la transition énergétique. Or, comment atteindre plus rapidement nos objectifs de décarbonation? Comment changer drastiquement nos habitudes et ne plus dépendre des énergies non renouvelables?

    « Prendre d’urgence des mesures pour lutter contre les changements climatiques et leurs répercussions. »– Objectif 13 des Nations Unies

    CONSTAT ALARMANT ET INACTION CLIMATIQUE

    Année après année, nous ne pouvons que constater les effets dévastateurs des changements climatiques. Désormais, ils affectent tous les pays du monde, en perturbant les vies et les économies nationales. Selon le rapport 2021 du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC): « la température de la planète devrait augmenter de 1,5°C dès 2030, soit dix ans plus tôt que la précédente prévision du GIEC. Le GIEC étudie cinq scénarios et le plus pessimiste prévoit un réchauffement compris entre 3,3 et 5,7°C

    « Le niveau des océans s’est élevé de 20 cm depuis un siècle, et le rythme de cette hausse s’est accéléré durant la dernière décennie avec la fonte des calottes glaciaires. D’après les prévisions, la mer pourrait gagner 1 mètre d’ici 2100 et 2 mètres d’ici 2300

    Le GIEC montre que la concentration de gaz carbonique (CO2) dans l’atmosphère depuis 2011 est en moyenne de 410 ppm (parties par million), un niveau jamais atteint depuis 2 millions d’années. Sachons que le CO2 est le principal agent des gaz à effet de serre à l’origine du réchauffement climatique. De plus, les émissions de CO2 sont dues aux énergies fossiles. D’après la NASA, « 19 des années les plus chaudes se sont produites depuis 2000, à l’exception de 1998.»

    « Toute la planète chauffe et certaines régions plus que d’autres. Selon les experts, la fonte des calottes glaciaires constitue un point de rupture. Elle aura des conséquences dévastatrices, radicales et même irréversibles pour la planète et l’humanité », confirme le GIEC. L’inaction climatique finira par nous coûter bien plus que de s’engager dans la transition énergétique. Cependant, réduire les émissions de gaz à effet de serre, tout en renforçant la résilience climatique, ne peut que créer prospérité et vie meilleure.

    L’IA POUR VISUALISER LES IMPACTS DU CLIMAT

    L’apprentissage automatique permet de scénariser et d’amplifier nos gestes pour voir où nous mènerait l’inaction climatique. Alors, pour visualiser l’effet des changements climatiques sur une zone donnée, une équipe de recherche en intelligence artificielle du Mila a développé un site Web. Le site Ce climat n’existe pas génère un filtre réaliste de l’effet des changements climatiques à partir de Google Street View.

    Cette expérience nous permet de voir les scénarios envisageables si l’inaction climatique demeure le réflexe global. Conçu par une classe d’algorithmes d’apprentissage automatique, ce projet a mobilisé des spécialistes et de collaborateurs sous la direction de Yoshua Bengio.

    L’IA AMASSE DES DONNÉES SUR LE CLIMAT

    Les données amassées sur le climat sont de plus en plus nombreuses et leur variété de même que leur hétérogénéité s’amplifient. Or, les méthodes de traitement et d’analyse deviennent de plus en plus complexes.

    Grâce à de nouveaux capteurs, nous avons accès aux données satellitaires, aux stations météorologiques et aux simulations qui nous permettent de faire des observations climatiques sans pareil. De surcroît, les données de production et de consommation d’énergie sont de plus en plus accessibles. Cependant, de grands défis persistent quant à l’extraction de ces données et à leur analyse. L’apprentissage statistique offre alors de bons outils de calcul.

    L’IA POUR ANALYSER LE CLIMAT

    Bien que nous soyons souvent témoin de prévisions météorologiques fautives, les estimations sur les variations climatiques sont beaucoup plus fiables, car elles reposent sur des données stables, comme les saisons ou la géographie.

    « On peut prévoir le climat alors même qu’on ne sait pas prévoir la météo au-delà de quelques jours.» – Olivier Talagrand, directeur de recherche émérite CNRS au Laboratoire de Météorologie Dynamique.

    L’IA engendre une approche pilotée par les données, pour extraire les caractéristiques primordiales du climat. Ce qui permet de procéder à la classification :

        • des régimes météorologiques ;
        • des modes de variabilité climatique ;
        • des chaînes de causalité.

    ANALYSE DE CAS EXTREMES

    L’IA offre également la possibilité d’analyser et de simuler des cas extrêmes, parfois très impactants. Elle permet de déceler ces conditions climatiques extrêmes et leurs changements, et ensuite de modéliser les relations entre extrêmes météorologiques. Enfin, l’analyse peut montrer les impacts potentiels sur les sociétés ou sur les écosystèmes de ces situations extrêmes. On procède alors à une analyse de la chaîne de causalité de ces extrêmes.

    LA MODELISATION CLIMATIQUE

    L’IA permet l’élaboration de paramètres physiques, comme la convection, le rayonnement ou encore la micro-physique, pour produire des modèles climatiques. Ces modèles sont alors fondés sur des méthodes d’apprentissage de type physics-inspired AI (IA inspirée par la physique).

    En effet, une intelligence artificielle pure, ou sans contrainte physique, n’est pas pertinente dans le cas des changements climatiques et ne fournit pas de bonnes extrapolations ou généralisations. Elle doit être alimentée par des données physiques.

    L’IA POUR ACTIVER LA TRANSITION ÉNERGÉTIQUE

    Tout d’abord, il faut comprendre que les données climatiques seraient inexploitables sans l’intelligence artificielle. Puis, sachons que l’IA est en mesure de développer des scénarios de transition énergétique.

    « L’IA sera utilisée dans la supervision et le contrôle du trafic des véhicules autonomes dans le but de réduire l’empreinte énergétique et environnementale des transports.» – Institut EuropIA

    Les actions concrètes permises par l’IA:

        • Modélisation de la topologie des réseaux
        • Gestion de contraintes comme l’intermittence
        • Modélisation du comportement des consommateurs et des producteurs
        • Estimation des modèles prédictifs profonds de séries temporelles
        • Identification des ressources renouvelables
        • Gestion du réseau pour assurer son équilibre optimal, sa résilience et sa flexibilité

    Comment une entreprise peut-elle lutter contre les changements climatiques avec l’IA ?

    Les entreprises peuvent faire partie de la solution en s’engageant à décarboner leurs activités et chaînes d’approvisionnement. Pour ce faire, elles peuvent :

        • améliorer leur efficacité énergétique par des calculs prévisionnels ;
        • réduire l’empreinte carbone de leurs produits, services et processus grâce aux données recueillies et aux analyses ;
        • fixer des objectifs de réduction des émissions en phase avec les recommandations des spécialistes du climat ;
        • augmenter leurs investissements dans le développement de produits, services et solutions sobres en carbone ;
        • automatiser la chaîne d’approvisionnement.

     

    En somme, l’IA transforme complètement le monde de l’énergie et de l’environnement, grâce aux performances de l’apprentissage et aux capacités phénoménales de traitement massif de données. La mobilité change grâce à la conduite autonome. La gestion globale de la demande énergétique et des systèmes complexes, comme la production décentralisée d’énergie renouvelable ou l’optimisation de procédés industriels, ce fera grâce à l’IA.

    « L’électrification croissante du mix énergétique et la diversification des sources de production, intermittentes, variables, distribuées, les multiples techniques algorithmiques incluant l’IA engendrent un formidable potentiel de nouvelles fonctionnalités au service des secteurs de l’énergie, de la mobilité et de l’environnement grâce à des moyens de communication autorisant des transferts massifs de données et à l’augmentation phénoménale des puissances de calcul », selon l’Institut EuropIA.

    L’intelligence artificielle est source d’innovation. Elle attire le monde des start-ups et transforme radicalement « tant l’offre d’énergie que le rapport du citoyen à son usage de l’énergie. »

    Autres articles sur le même thème :

     

    Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.

     

  • Robotination pour apprendre en faisant

    Comprendre l’informatique et pas juste consommer les produits numériques : certes. Mais, s’il vous plaît … pas juste apprendre à programmer ! Rien ne sert de coder, il faut comprendre à point. Les robotinations en sont un témoignage. Voici ce que  Sabrina et Jessica Barnabé, et Thierry Viéville, dans le cadre de Terra Numerica, vont nous expliquer en détail pour que nous aussi, parents, enseignant·e·s ou tout autre professionnel·le·s de l’éducation puissions nous en inspirer. Gageons que vous serez surpris de voir ces enfants commencer leur première leçon d’informatique en triant leurs déchets … avant de construire eux-mêmes leur jouet. Ikram Chraibi Kaadoud.

    Où et qui ?

    C’est d’abord l’histoire d’un lieu : Terra Numerica est un projet d’envergure et fédérateur pour la diffusion de la culture des sciences du numérique dans le sud-est de la France, localisé à Sophia-Antipolis, et porté par de structures de recherche (CNRS, Inria et Université Côte d’Azur), des composantes de l’Éducation Nationale, des partenaires associatifs ou socio-économiques. On y offre un tiers lieu d’activités scientifiques pour populariser ces sciences.  Mais c’est surtout la concrétisation du rêve d’un petit groupe de chercheurs autour de Dorian Mazauric, à savoir créer un espace de partage des sciences du numérique, qui vient d’ouvrir ses portes en juin 2022 et dont on vous parle plus ici.

    C’est ensuite une histoire de personnes. SNJL est une auto-entreprise artisanale de création d’objets scientifiques et de conception et réalisation d’activités de découvertes scientifiques, numérique, jusqu’au jeux de logique. Elle se met surtout au service des publics qui n’ont pas facilement accès à cette culture scientifique et a dans son ADN l’égalité des genres et l’équité sociale. Et cela jusque dans les fondatrices de l’entreprise  elles-mêmes:  l’une est entre autre maçonne, l’autre est aussi kinésiologue.Autre particularité :  les deux sont des curieuses de science sans formation scientifique initiale poussée, preuve que chacun et chacune, en ce qui les concernent, peut se construire une culture scientifique et technique permettant de comprendre le numérique et de développer un esprit critique vis à vis de ce que cela peut nous apporter. 

    C’est enfin le support de la Fondation Blaise Pascal qui a permis de faire ces belles choses. Soulignons que la mise en place d’activité proche du public comme par exemple, pour quelques enfants qui ont besoin d’une attention particulière est souvent plus couteux que les activités traditionnelles de médiation,  investissement auquel ne rechigne pas la Fondation Blaise Pascal, que nous saluons pour cela.

    Quel est ce projet de « robotination » ?

    La Robotination propose une démarche où les enfants découvrent l’informatique en construisant un robot, leur robot. Ces ateliers ludiques pour enfants de 6 à 11 ans, filles et garçons, offrent une initiation à la robotique avec principalement du matériel de récupération et des câblages simples, réalisables par les plus jeunes. Cela permet une mise en confiance face à l’univers électronique ou numérique et la matière scientifique.

    En alliant science et créativité, esprit critique et développement durable, l’atelier montre aux enfants concrètement que tout ne s’achète pas, mais peut se construire, et démontre que ce qu’ils apprennent à l’école peut permettre de faire plein de choses passionantes et super au quotidien. “On a pu observer une vraie jubilation des enfants,et  l’équipe d’animation,  à arriver au bout de leur réalisation”, témoigne un membre de l’équipe. Tout cela permet aux enfants de partir concrètement à la découverte des concepts informatiques.

    En construisant son propre robot à partir de la vision imagée que l’on peut en avoir, l’atelier démystifie robotique et intelligence artificielle pour les enfants : rien de magique, juste des algorithmes devenus suffisamment complexes pour effectuer des tâches intellectuelles (“cognitives´´ pour employer le terme exact) qui auraient été intelligentes si elles avaient été faites par un humain.

    Bien entendu, toutes les ressources sont ouvertes et librement réutilisables (open hardware et software) et l’équipe reste au contact des personnes qui les réutilisent pour les accompagner (au-delà de mettre ces ressources en ligne).

    Y-a-t-il une démarche pédagogique ?

    Oui, ce travail se fait aussi avec le conseil de chercheur·e·s du laboratoire LINE en sciences de l’éducation, avec des perspectives visant à  lier recherche et médiation scientifique. Exemple concret au niveau des activités débranchées: pour découvrir la programmation robotique, on propose d’éteindre les écrans et d’aller jouer au robot dans la cour d’école. Cela permet de comprendre que les notions scientifiques vont au delà de telle ou telle technologie. Cela permet aussi de garder toute ses ressources cognitives pour l’apprentissage de ces notions, sans avoir la poids de l’apprentissage d’outils logiciels, comme expliqué ici.

    Regarder les travaux en science de l’éducation permet d’éclairer dans quelle mesure utiliser une approche « maker », c’est à dire faire précéder une activité d’initiation à un concept informatique par la construction de l’objet tangible (ex: les objets d’un jeu permettant une activité débranchée, utilisant du matériel recyclé) ou numérique (ex: programmer un jeu qui permettra ensuite d’apprendre une notion) ou imaginaire (ex: on imagine ensemble le dispositif que l’on dessine ou que l’on maquette pour l’étudier en pensée). Cet objet devient alors le support de l’apprentissage, et présente  un grand intérêt en matière d’engagement de la personne apprenante, et du développement de la métacognition*.

    (*) métacognition revient ici à apprendre à apprendre, ceci dès le primaire (à partir de 7 à 8 ans, dès la mise en place du comportement « petit-maître·sse » au sens de l’analyse transactionnelle, quand l’enfant commence à jouer à l’enseignant·e), en impliquant à la fois dans la co-construction pédagogique (ex: comment pourrions nous t’aider à apprendre cette notion) et son évaluation (ex: comment améliorer la façon de t’aider à apprendre).

    Le modèle passif-participatif formalise bien ce qui est mis en oeuvre dans le projet robotination,

    Au niveau de la problématique de l’égalité des genres, on fait cela de manière performative, et on regarde ce qui a été étudié au niveau des aspects de genre dans ce type d’activité, en lien avec l’ouverture à l’esprit critique. Il est important d’agir le plus tôt possible, dès l’âge de l’école primaire, lorsque  les stéréotypes ne sont pas ancrés. En intervenant aussi tot,  on façonne  l’avenir avec pour priorité de déconstruire les stéréotypes, cause des inégalités, comme l’explique Isabelle Collet dans cet article

    C’est donc de manière transversale que sont traitées, dans ce contexte d’ateliers de Robotination, les problématiques de genre : (i) réalisation de l’animation par des « roboticiennes » y compris sans formation scientifique initiale au niveau de l’image, (ii) positionnement « naturel » dans l’animation au niveau d’une vraie approche de mixité, (iii) petites pauses de prise de recul sur ce qui se vit ici et maintenant au niveau du genre.

    Et que veut dire le mot “robotination” ?

    Ah ! C’est la seule chose que nous ne nous expliquons pas … est ce mot “robotination” : on ne souvient plus de sa genèse, on ne saurait en faire l’étymologie, mais il sonne bien et on l’aime beaucoup 🙂



    Robotiner en famille en PACA Est
  • Les communs dans la justice


    Fondateur et Président du cabinet inno³ (prononcer inno « cube »), Benjamin Jean accompagne depuis plus de quinze années les acteurs publics et privés au sein de leurs démarches d’ouverture et de collaboration. Juriste de formation, chercheur et enseignant dans des grandes écoles, il a cofondé différentes initiatives communautaires telles que « Open Law, le droit ouvert », « European Opensource & free software Law Event » ou encore « Veni, Vidi, Libri ». 
    Benjamin Jean, @ openlaw.fr

     

    Binaire : Pourrais-tu nous parler de ton travail actuel ?

    Benjamin Jean : Je suis juriste de formation et spécialisé en propriété intellectuelle. Depuis 2007, je suis impliqué dans des réflexions autour de l’Open Source, l’Open Data, l’open science, l’open access, l’innovation ouverte et les communs numériques. Je m’intéresse en particulier aux mécanismes qui permettent à des écosystèmes de se constituer pour travailler collectivement à la production et au maintien de ressources ouvertes.

    Après une expérience en cabinet d’avocat en 2011, j’ai ouvert le cabinet de conseil inno³ en 2011. L’idée fondatrice était qu’il était nécessaire d’un accompagnement global, qui aille au-delà d’une seule expertise juridique afin de répondre vraiment aux problématiques de nos clients. De ce fait, notre équipe réunit aujourd’hui différentes compétences tirées des sciences humaines et sociales, du design, de l’informatique. Nous travaillons pour moitié pour le secteur public et pour moitié pour le secteur privé, avec des approches qui convergent de plus en plus autour de la notion de de communs numériques.

    La notion de commun renvoie à l’idée de communauté réunie autour de ressources, afin d’en faire usage et de les gérer c’est-à-dire les maintenir dans le temps. Dans ce cadre, nous travaillons notamment étroitement avec l’ANCT (l’Agence nationale de la cohésion des territoires) que nous accompagnons dans la mise en capacité des collectivités cherchant à concevoir des communs numériques.

    B : Il existe des tensions entre propriété intellectuelle et ouverture. Comment arrive-t-on à les gérer ?

    BJ : Le terme « propriété » cristallise effectivement souvent toutes les tensions, car on voit dans ce terme une capacité d’exclure. Néanmoins, rien n’empêche de penser autrement cette « propriété intellectuelle », de la penser plus collective, plus partagée. C’est en particulier pour cela qu’on se tourne vers des logiques de communs. C’est aussi pour cette raison que nous essayons souvent de partager nos expériences et réflexions, permettant notamment de témoigner d’une autre culture, plus inclusive, de la « propriété intellectuelle ».

    La propriété dans le monde numérique ne doit pas se voir comme dans le monde physique. Le rattachement entre les auteurs et leurs créations reste particulièrement fort, ce que les logiciels libres défendent aussi dans un cadre collectif collaboratif. Néanmoins, la capacité d’exclure doit être relativisée : d’une part à l’aune de ce que l’auteur a réellement apporté à la société et ce qu’il en tire, et d’autre part au regard de notre société numérique qui favorise la cocréation et le partage.

    Notre monde dominé par la propriété physique est celui de la propriété physique exclusive. La propriété, telle que définie par le Code civil, est dite absolue. Cela n’est pas, pour moi, la bonne approche dans le cadre du numérique, car cela limite le partage de connaissances, complique le collaboratif que permet le numérique. Dans le monde numérique, c’est le fait de ne pas partager qui devrait être justifié, la Loi intervenant pour encadrer un tel équilibre.

    La propriété immatérielle, pour ne pas dire intellectuelle, ne doit pas nécessairement suivre le même chemin.  On peut trouver un tel enjeu autour des brevets qui ont été déposés en période de crise sanitaire sur les tests et vaccins. Afin de protéger la propriété intellectuelle des entreprises, un cadre très strict a été maintenu au détriment des États eux-mêmes, plaçant le bien commun au second plan, derrière un droit de propriété exclusif. Dans de telles situations, on devrait plutôt aménager la propriété intellectuelle ou, a minima, ne pas craindre de rappeler aux entreprises les limites légales de leurs monopoles économiques. Cette période, à mes yeux, a donc été un échec pour la propriété intellectuelle, démontrant une incapacité du système, de notre société, à mettre en application les règles qu’elle avait pourtant définies.

    B : Où en est-on de l’ouverture de la jurisprudence ? Est-ce que cela progresse ?

    BJ : La loi pour une République numérique en 2016 a inscrit l’ouverture des décisions de justice dans la loi. Il s’agit d’un régime spécial qui résulte du statut particulier du Service public de la justice et qui permet de rapprocher ces données du régime général applicable de la Loi de 2016. En 2019, la Loi de programmation 2018-2022 et de réforme pour la justice est venue entériner cette ouverture, renvoyant à un décret d’application paru en 2020 pour organiser cette ouverture des décisions des décisions administratives et judiciaires. Ce chantier est porté par les différentes cours suprêmes, c’est-à-dire la Cour de cassation pour les décisions judiciaires et le Conseil d’État pour les décisions administratives, qui définisse les modalités et le calendrier d’ouverture. Compte-tenu des enjeux sous-jacents, l’ouverture est progressive et la Cour de cassation a ainsi prévu un calendrier qui court jusqu’à 2025. Lorsque j’étais encore impliqué au sein de l’association Open Law, nous avions constaté la difficulté et la nécessité à mener un tel chantier sur la durée. L’enjeu est à mon avis à la fois d’un point de vue technique, sachant qu’il y a une dimension « vie privée » particulièrement sensible dans les décisions de justice,  et d’un point de vue culturel pour que cette ouverture soit aussi le vecteur d’une plus grande collaboration avec les organisations privées réutilisatrices.

    L’association Open Law continue, me semble-t-il, son action avec le Ministère et les Cours Suprême. L’open data des décisions de justice est bien en train de se réaliser.

    B : Plus généralement, quelle est la place des communs numériques à l’intérieur du droit ?

    BJ : C’est pour répondre à cette question que j’ai lancé, avec tout un groupe de passionné, Open Law en 2013. Les juristes pouvaient avoir des compétences sur le numérique mais le milieu hésitait encore à faire entrer sérieusement le numérique dans son propre domaine. Je dirai que c’était par méconnaissance ou par peur des facteurs techniques et économiques sous-jacents.

    L’idée d’Open Law était, pour produire des ressources partagées, ouvertes et durables, de réunir une communauté dans le secteur du droit : les juristes spécialistes du sujet,  les acteurs économiques impliqués, les services de l’État concernés. On trouvait dans tout ce beau monde une vraie volonté d’ouvrir la discussion, et de permettre des échanges francs et constructifs. Cela n’était possible que parce que tout ce qui était produit l’était de manière totalement ouverte et que la méthodologie elle-même était discutée et partagée. Il y avait une charte avec des principes assez forts d’ouverture, de collaboration, de constitution de communs. Elle-même était portée par la constitution d’une association dès 2014, et un fonds de dotation un peu plus tard, par laquelle les acteurs concernés se donnaient les moyens de leurs ambitions de partage et de collaboration.

    Sans vraiment de surprise, l’essai a été transformé car les professionnels du droit ont tous intérêt à ce que les outils qu’ils utilisent soient le plus ouverts possible, que la justice soit la plus transparente possible. Il fallait seulement s’assurer qu’une telle action puisse se faire en intégrant des Legaltechs proposant des solutions technologiques innovantes, plus rapides, plus efficaces et moins chères. Elles concurrençaient à la fois les acteurs traditionnels et les professionnels du droit, tout en questionnant la dimension éthique particulièrement importantes dans le secteur de l’accès au droit et à la justice.  Tout le monde avait besoin de bouger. Et Open Law a permis cela.

    Ainsi, l’outil d’anonymisation des décisions de justice, qui permettait d’automatiser le chantier d’Open Data des décisions de justice évoqué précédemment, est le fruit d’une collaboration entre les acteurs privés et publics. Il s’appuie sur des logiciels open source développés dans d’autres secteurs (e-commerce notamment), modifiés et optimisés par des acteurs privés, et repris en main par les utilisateurs publics. Il faut une révolution culturelle pour que tout le monde en arrive à partager du code source dans un domaine où les gens ne se parlaient quasiment pas avant.

    B : Faisons une petite digression sur l’anonymisation de la jurisprudence. A notre connaissance, quand on va chercher une décision de justice dans le greffe d’un tribunal, les informations qu’on y trouve ne sont pas anonymes. L’ouverture conduit à occulter des données. N’est-ce pas paradoxal ?

    BJ : Ce n’est pas lié au droit. On a les mêmes enjeux dans le domaine médical par exemple. Les données ne peuvent pas toutes être ouvertes à cause des risques que la diffusion de certaines informations pourrait causer. On parle de données individuelles sensibles. Dans le cas particulier du droit, il a fallu des arbitrages. La Cour de cassation a décidé quelles informations seraient anonymisées avant d’être ouvertes. C’est une décision politique par exemple de décider de maintenir les noms des magistrats, mais de retirer les noms des justiciables. Bien sûr, retirer des informations qui risqueraient de permettre de réidentifier une personne conduit à une véritable perte de valeur d’un point de vue de la qualité de l’information. Il faut cependant relativiser une telle protection puisqu’il n’y a, in fine, pas de perte : les décisions complètes sont toujours dans les greffes des tribunaux, et accessibles à celles et ceux qui en auraient besoin.

    Cela reste un cadre français et tous les pays n’ont pas fait les mêmes choix, ces questions n’étant pas harmonisées au niveau européen.

    B : Nous avons rencontré des acteurs de la science ou de l’éducation ouvertes, de l’innovation ouverte. Ils ne nous donnent pas tous la même vision des communs. Quelle est la tienne ?

    BJ : Je pense qu’il faut différencier les enjeux et les réflexions en matière d’innovation ouverte, les alternatives en matière de communs, et les enjeux en matière de communs numériques. L’idée principale, en matière d’innovation voire de science ouverte, est de réfléchir et d’agir en tant qu’acteur d’un écosystème plus large. Ainsi, il s’agira pour une organisation de reconnaître qu’elle a intérêt à s’ouvrir aux ressources technologiques et humaines tierces dans les différentes phases de son processus d’innovation, de la recherche à la commercialisation. Une telle acceptation et systématisation de la collaboration s’est souvent faite en rupture de tradition élitiste, telle la société IBM qui considéra longtemps et fit le pari de pouvoir continuer à être leader en protégeant son patrimoine et en se fermant complètement à son environnement. Ce changement culturel a été progressif, mais est aujourd’hui relativement consensuel. Pour fonctionner, il repose sur la définition d’un encadrement, notamment juridique, très fin des contributions respectives.

    Le numérique est venu complètement changer la donne, rendre beaucoup plus automatique et systématisable les processus de partage, de cocréation et de maintien collectif. C’est cette opportunité qui explique notamment le récent succès des mouvements de communs. Plutôt que de faire tout seul, les multiples organisations qui ont besoin des mêmes ressources numériques vont plus facilement se trouver et s’organiser afin de s’appuyer sur leurs forces respectives afin de faire émerger et de maintenir lesdites ressources. Compte-tenu des forces du numérique, un tel partage permet de renforcer d’autres acteurs qui, plus tard, viendront possiblement eux-mêmes contribuer aux communs.

    B : Tu es fondateur et président du cabinet inno³. Vous travaillez beaucoup sur les communs. Quels sont les enjeux des communs que vous rencontrez ?

    BJ : La démarche communautaire est certainement la plus complexe à initier dans un premier temps. Lorsque l’on souhaite lancer une dynamique de commun, la première question que l’on pose est généralement celle de son objectif, son objet. Il s’agit notamment de comprendre ce qui est de l’ordre du besoin spécifique et ce qui peut être l’objet d’un besoin collectif. Cela permet ensuite de répondre en parallèles aux deux questions : quelles sont les communautés et quelles sont les ressources mobilisables ou à créer ? Les deux questions sont indissociables et vont déterminer tous les choix que la communauté sera amenée à réaliser.

    Il faut ensuite répondre à un certain nombre de questions plus techniques. Comment va-t-on ouvrir les ressources, sous quelles licences ? Quels sont les statuts juridiques dédiés ? Quelles seront les stratégies de mises en commun, de construction des communautés ? Comment va-t-on développer la technique, réaliser le marketing ? Et puis on arrive au modèle économique, aux questions de pérennité.

    Pour que le projet soit viable, il faut que chaque entreprise participante, chaque service de l’État impliqué, chacun des membres y trouve son intérêt particulier. Cela ne suffit pas, on ne dira jamais assez l’importance de la motivation des individus qui vont vivre au quotidien le commun, qu’ils soient bénévoles ou employés.

    Et puis, la communauté doit vivre dans le temps. Cela veut dire faire évoluer en permanence la ressource, peut-être parfois la reconcevoir complètement, transformer totalement la communauté. On peut être amenés à redévelopper le cœur du projet parce que les besoins, les gens, ont changé.

    B : Tu connais le phénomène du « coucou », des participants qui exploitent les ressources des communs mais ne contribuent pas vraiment. As-tu rencontré cela dans le domaine de la justice ?

    BJ : Un cas emblématique de coucou est le moteur de recherche Google utilisant massivement Wikipédia dans ses réponses mais ne contribuant pas quasiment pas à l’encyclopédie.

    On essaie de convaincre qu’il est possible de concilier les logiques de collaboration des communs et les logiques capitalistes et financières du privé. Néanmoins, la frontière entre les deux mondes est quand même complexe. Certains acteurs, des entreprises, notamment les plus gigantesques, vont essayer de s’approprier les résultats des communs. Le risque, c’est d’être naïf, de penser que le cadre des communs protège. Si ces entreprises trouvent une faiblesse dans le dispositif, un espace pour abuser des communs, elles s’y engageront. Ainsi, Amazon a été récemment critiqué par plusieurs éditeurs de logiciel Open Source, notamment MongoDB et Elastic Search, qui lui reprochaient de capter une grande partie de la valeur du projet. Amazon facturait des services « à la demande » sur la base de ces logiciels, sans y contribuer humainement ou financièrement. De tels débordements ont néanmoins pour bénéfice de faire apparaître les abus possibles du système et permettre aux communautés d’y répondre.

    Dans le secteur du droit, nous avons l’avantage de pouvoir reposer sur un acteur très fort, l’État qui peut imposer ses conditions pour garantir que l’intérêt général est préservé. Une telle régulation est d’autant plus naturelle que les données émanent pour grande partie de l’État et que la question de leur exploitation est relativement sensible.

    B : Des entreprises pillent les communs, certains proposent qu’elles soient légalement tenues d’y contribuer.

    BJ : Dans le projet de loi pour une République numérique qui a été soumis à consultation, il y avait cette idée d’un domaine public informationnel qui visait vraiment à protéger une appropriation abusive des communs. Cette idée a fait l’objet d’un fort lobbying de l’industrie culturelle et a été écarté avant que la loi ne soit votée, ce qui est vraiment dommage.

    Dans sa thèse, Mélanie Clément-Fontaine, une des premières chercheuses en droit à s’être intéressé aux logiciels libres, militait pour un domaine public consenti qui imposait aussi une évolution du droit positif. De mémoire, Bernard Lang avait tenu une position convergente dans l’annexe du rapport du CSPLA consacré aux œuvres orphelines.

    Quoi qu’il en soit, une telle solution ne pourrait effectivement passer que par une loi nouvelle.

    B : Tu nous as parlé de l’importance de la dimension humaine pour les communs. Pourrions-nous revenir sur ce sujet pour conclure ?

    BJ : Un rôle est particulièrement important pour un commun, celui de mainteneur. C’est une personne qui maintient l’infrastructure, qui fait vivre le commun, même si elle est parfois invisible. On s’aperçoit que cette personne est indispensable le jour où elle veut arrêter. Dans les communs, on compte souvent trop sur le bénévolat. Quand un mainteneur ne vit pas de son travail, qu’il s’épuise, on court vers les problèmes.

    Prenons l’exemple de Python. Il y avait un seul bénévole qui faisait les mises-à-jour pour toutes les métadonnées associées aux dépendances entre tous les logiciels. Cet individu effectuait un travail de fourmi pour pouvoir s’assurer que des millions d’utilisateurs aient accès aux bonnes informations pour intégrer des logiciels disponibles. Ce bénévole après de longues années de bons et loyaux services voulait passer la main et mais personne ne voulait faire son boulot, trop ingrat. Dans ce genre de situations, il faut remplacer ce poste de bénévole par un logiciel, ou au moins trouver un logiciel qui facilite la tâche. On peut aussi s’éloigner du bénévolat pur et installer un système de récompenses. Il y a beaucoup de situations plus critiques encore, qui commencent aujourd’hui à être mieux perçues. Nous avons ainsi récemment réalisé une étude pour la commission sur le sujet des Open Source critiques, par le type ou le nombre d’usages : Public services should sustain Critical open source software.

    La valeur d’un commun numérique tient en grande partie de ses ressources humaines. C’est particulièrement vrai du fait des difficultés aujourd’hui de recruter des compétences numériques. Je pense et j’espère que, quand ils ont le choix, et dans l’informatique ils ont le choix, les spécialistes préfèrent faire quelque chose qui a du sens, et choisissent des cadres de travail plus humains, plus collaboratifs. Les entreprises privées sont obligées d’en tenir compte, de choisir des approches basées sur les communs parce que cela leur facilite l’identification et le recrutement de talents. Les services publics commencent aussi à réaliser cet enjeu. Cet effet est accéléré par le fait qu’il sera plus facile dans un futur emploi d’utiliser ses connaissances dans un logiciel libre ou des données ouvertes que sur des produits analogues propriétaires.

    Serge Abiteboul, Inria et ENS Paris, & François Bancilhon, serial entrepreneur

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Un Palais de la Découverte des Sciences du numérique

    Un lieu pour comprendre l’informatique et pas juste consommer les produits numériques : c’est un rêve devenu projet, un projet devenu réalité. Voici Terra Numerica. Frédéric Havet et Dorian Mazauric vont nous expliquer en détails la démarche et partager quelques réalisations pour que nous aussi, parents, enseignant·e·s ou tout autre professionnel·le·s de l’éducation puissions profiter de ce lieu, de ces ressources en lignes, voir nous en inspirer, pour bâtir nous aussi sur sur notre territoire un tiers lieu d’accueil des sciences du numérique. Pierre Paradinas et Thierry Viéville.

    Bonjour Dorian, parle-nous de Terra Numerica

    Terra Numerica est un projet d’envergure et fédérateur pour la diffusion de la culture des sciences du numérique dans les Alpes-Maritimes et le Var, localisé à Sophia Antipolis. Il est porté par une centaine de membres de plus d’une dizaine de partenaires : structures de recherche (CNRS, Inria et Université Côte d’Azur), des composantes de l’Éducation Nationale, des partenaires associatifs ou socio-économiques, aux profils complémentaires afin de bénéficier des compétences scientifiques, pédagogiques, techniques et technologiques nécessaires au développement du projet.

    Faire travailler toutes ces initiatives ensemble, c’est super, mais concrètement où en êtes-vous ?

    Il comprend un lieu central (une sorte de Palais de la Découverte des Sciences du numérique). Ce bâtiment de plus de 500 mètres carrés est mis à disposition par la ville de Valbonne.

     Avoir un lieu central répond à deux nécessités : d’une part, avoir un lieu totem bien identifié par le grand public et les acteurs de médiation ; d’autre part, pouvoir déployer des dispositifs de médiation plus ambitieux que ceux développés habituellement, c’est-à-dire qui nécessitent beaucoup d’espace, de matériel, ou de temps d’installation et qu’il est donc impossible de mettre en place pour des événements ponctuels ou dans des endroits trop exigus.
    Le 11 juin 2022 à Valbonne Sophia Antipolis, a été inauguré cet espace TerraNumerica@Sophia, rampe de lancement vers une Cité du Numérique. Une vingtaine de parcours d’ateliers ludiques et récréatifs sont proposés afin de découvrir, explorer et expérimenter les fondements mathématiques et informatique de ces sciences, les applications et les enjeux. 

    Au delà de ce lieu central, différents Espaces Partenaires (médiathèques, musées, Fab’Ecoles, établissements scolaires, tiers-lieux associatifs, etc.) permettent de couvrir toute l’Académie de Nice (Alpes-Maritimes et Var). Une partie de nos activités sont aussi transportables pour aller vers le public dans ces lieux de vie, tout particulièrement les publics écartés. Ces lieux accueillent des ateliers de médiation originaux, en particulier sur la forme, pour permettre la manipulation par le public et pour expliquer de manière ludique les sciences du numérique en sortant des ordinateurs et de la feuille et du crayon où elles ont trop tendance à être cantonnées.

    Tu as des exemples de tels ateliers ?

    Parmi les dizaines d’ateliers Terra Numerica, je vous en détaille trois :

    Trains et jeux en ligne pour comprendre les algorithmes de recommandation : expliquer les algorithmes de recommandation avec un réseau de train. L’atelier consiste à laisser un petit train se déplacer au hasard dans un réseau (marche aléatoire) et de compter le nombre de fois qu’il passe à chacun des six quartiers du réseau (à chaque sommet). Ce réseau peut représenter des pages Web connectées entre elles, un réseau de vidéos, un réseau social, etc. Un algorithme universel de recommandation consiste alors à classer les quartiers selon le nombre de visites (plus un quartier est visité, plus il sera noté comme populaire et donc recommandé). Cet atelier a aussi une version logicielle en Scratch afin d’effectuer un plus grand nombre d’étapes de l’algorithme, et aussi pour un partage à grand échelle.

    Géométrie et polyèdres avec écran sphérique : un écran sphérique interactif permet d’expliquer que les ordinateurs se représentent le monde grâce à des modèles mathématiques, créés par les humains. Cette interface est intéressante car elle est par définition parfaitement adaptée pour des ateliers qui font appel à des objets « sphériques ». Dans cet atelier, les notions de polygones, polyèdres, triangulation… sont abordées avec des ballons de foot (en lien avec les coupes du monde 1970 ou 2014).

    Smart City : expérimenter les économies d’énergie dans les réseaux sur une maquette d’une ville avec projection interactive. L’utilisateur doit d’abord attribuer une route dans le réseau de télécommunication pour chaque pair d’utilisateurs souhaitant communiquer. Ensuite, il s’agit de réfléchir à comment modifier les routes afin d’éteindre des routeurs et donc d’économiser de l’énergie.  Cette maquette permet le développement d’activités de nature diverse autour de la ville (modélisation des inondations, régulation du trafic routier, reconstruction de bâtiments 3D, recherche d’un patient Alzheimer perdu dans une ville etc.).

    Ces ateliers ont principalement été conçus et réalisés par des partenaires locaux de Terra Numerica, mais certains l’ont été en collaboration avec des collègues ailleurs en France (Lyon, Montpellier, Nancy) et même l’étranger (Chili).

    Et ce lieu commence à vivre ?

    Oui, depuis son ouverture le 11 juin 2022, TerraNumerica@Sophia a déjà accueilli 4 classes de collèges, 10 classes de CM2 et des formations, pour des enseignants, des étudiants en science de l’éducation et des médiateurs stagiaires et 400 personnes sont également venues lors de l’inauguration, tandis que les activités “hors les murs” se multiplient dans les écoles et au delà (en augmentation constante depuis le lancement du projet fin 2018). Une vingtaine de demi-journées thématiques en famille, les ateliers DuoSciences, sont également proposées au grand public pendant les vacances (Robotination, Art et numérique, Informatique débranchée, Pavages et Algorithmes).

    A partir de la rentrée prochaine, toutes ces actions vont s’amplifier.

    Et au delà de ce lieu ?

    Le réseau d’Espaces Partenaires, une vingtaine à ce jour dans les Alpes-Maritimes et le Var,  permettent de déployer des dispositifs de médiation à travers tout le territoire et en particulier dans des endroits qui en sont éloignés, que ce soit géographiquement (Haut Var, vallée de la Vésubie) ou socialement (Quartier de l’Ariane à Nice, Quartier de la Beaucaire à Toulon).

    Au delà de faire circuler les dispositifs, et de mutualiser les ressources matérielles, ils sont également importants pour la création d’ateliers de médiation, car pour Terra Numerica les activités se co-construisent avec tous les partenaires, y compris le public (parents, professionnels de l’éducation, etc.). Chacun a son particularisme et enrichit les ressources, et contribue à leurs évaluation à travers de retours de terrain pour les améliorer et les adapter au fil du temps.

    Tu as des exemples de co-construction ?

    Par exemple, le collège Sidney Bechet d’Antibes souhaitait traiter de l’éthique des données. En collaboration avec Terra Numerica, il a donc imaginé des ateliers sur cette thématique qui ont été présentés aux élèves de ce collège. Certains d’entre eux, dont le réseau de trains pour les algorithmes de recommandation, sont maintenant en partage à TerraNumerica@Sophia et au sein du réseau.

    De même, les associations Esope 21 de Rians et Apprentis Pas Sages en vallée de la Vésubie sont généralistes et, de part leur implantation géographique, très intéressées par ce qui a trait à la nature. Terra Numerica élabore avec elles tout un parcours d’ateliers autour des insectes et du numérique qui sera déployé dans leurs lieux, mais également à TerraNumerica@Sophia. Il sera ensuite disponible pour les autres Espaces Partenaires qui le souhaiteront.

    Des robots pour comprendre les algorithmes des fourmis (du parcours insectes et numérique).

    Au moment de la  Fête de la Science, Terra Numerica est présent sur de nombreux Villages des Sciences de la région. Ses membres interviennent également dans les classes, en particulier dans le cadre de programmes nationaux comme Chiche!, Cordées de la Réussite ou Maths en Jeans. Ces interventions sont complétées par toute une série de ressources (manuels d’activités, matériel à fabriquer soi-même ou à emprunter, jeux en ligne, etc.) qui permettent aux visiteurs de poursuivre leur visite chez eux ou en classe.

    Terra Numerica propose également des formations aux enseignants et enseignantes (plus d’une centaine de personnels formés par an) pour les aider à utiliser en classe ces ressources, ainsi que du matériel pédagogique innovant que Terra Numerica met à disposition.

    Illustrations d’ateliers lors de la Fête de la Science (Villeneuve-Loubet, Antibes Juan-les-Pins).

    Et au delà, si Terra Numerica est un projet ancré un territoire, il est aussi en relation avec divers partenaires de médiation scientifique aussi bien au national (avec la Maison des Mathématiques et de l’Informatique de Lyon notamment), qu’à l’international (Chili, Brésil, Canada, Japon).

    Et cela donne-t-il aussi envie d’étudier ces démarches de popularisation ?

    Oui Terra Numerica, principalement projet de médiation scientifique, dispose aussi d’un volet recherche.

    En premier lieu, il s’agit d’un outil formidable pour mettre en avant et expliquer au plus grand nombre les recherches qui sont menées au sein des laboratoires scientifiques. 

    Ensuite, des recherches en Science de l’Éducation sont présentes pour évaluer et améliorer les dispositifs de médiation, mais également pour proposer des innovations en ce domaine. Elles sont notamment menées par les membres du laboratoire LINE d’Université Côte d’Azur, avec le projet de recherche ANR #Creamaker ou l’action exploratoire AIDE.

    On voit, par exemple, ci-coontre une maquette de dispositif de mesure des gestes d’apprentissage pendant une activité ludique d’initiation à la pensée informatique (algorithme, codage de l’information, éléments de robotique) de façon à étudier l’apprentissage humain dans ce cas spécifique.

    Le projet dit tabletop a fait l’objet d’une étude dans le cadre d’une action exploratoire, dite « AIDE ».

     

     En particulier, Terra Numerica participe à un projet de recherche ANR ASMODEE Analyse et conception de situations de médiation en informatique débranchée. 

    On se rapproche aussi de démarche de sciences participatives avec de permettre au public (scolaires, enseignants, grand public…) de prendre part à la Recherche et à l’Innovation dans le domaine des sciences du numérique.

    Ainsi, des dispositifs développés pour la médiation sont et seront utiles également pour la recherche. Par exemple, l’atelier « pendule inversé » a servi à valider certaines méthodes de contrôle sur un cas simple avant de s’attaquer à plus compliqué ; la maquette qui a été développée servira également pour la première phase de tests d’algorithmes de reconstruction 3D de bâtiments avant de passer à des tests sur des villes réelles.

    Le mot de la fin ?

    TerraNumerica@Sophia vient d’être inauguré le 11 juin 2022, rampe de lancement vers une Cité du Numérique en 2025-2026. Rejoignez-nous dans cette aventure collective.

    Frédéric Havet et Dorian Mazauric.

  • Agriculture : biens privés d’aujourd’hui et communs de demain

     Un nouvel « Entretien autour de l’informatique ». Christian Huyghe, chercheur en agronomie, est Directeur scientifique « Agriculture » de l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae). Il nous explique la place des communs dans son domaine. Une particularité est, qu’en agriculture, la tension autour des communs cristallise dans le temps entre les biens privés d’aujourd’hui et les communs de demain.
    Christian Huyghe, www.academie-agriculture.fr

    Binaire : Pourriez-vous retracer votre carrière qui vous a amené à devenir Directeur scientifique de l’Inrae ?

    CH : Je suis rentré très jeune à l’Inrae et j’y ai fait toute ma carrière. J’ai commencé par une thèse sur « La polyembryonie haploïde diploïde chez le lin », un processus physiologique permettant de créer des méthodes de sélection pour avoir de nouvelles lignées en une seule génération. J’ai fait un post-doc sur les croisements interspécifiques du pois chiche, en Grande Bretagne comme volontaire scientifique du service national. J’ai participé ensuite à des programmes de recherche sur le lupin blanc, la luzerne, et les espèces fourragères. Puis, j’ai gravi les échelons jusqu’à devenir en 2016 Directeur scientifique « Agriculture », à l’Inrae. C’est un des trois piliers de l’institut, le pilier historique.

    A côté de ça, j’ai d’autres activités, je préside un certain nombre de structures partenariales de l’Inrae, en particulier le Comité scientifique et technique de l’ACTA[1]. Dans le cadre des politiques publiques, je m’occupe de variétés et de semences dans un Groupement d’Intérêt Public, le GEVS, et de la protection des cultures et sur les pesticides. Il faut rajouter à cela des activités européennes. Je préside, entre autres, une alliance européenne de recherche sur les pesticides. Mon travail tourne très souvent autour des pesticides, un sujet évidemment très important. L’intensification des cultures a conduit à utiliser de plus en plus de pesticides, les systèmes agricoles se sont progressivement « verrouillés » autour de l’utilisation de ces intrants. Cela cause des problèmes de résistance à ces pesticides et de dégradation de l’environnement.

    B : Les personnes que nous avons déjà interrogées sur les communs nous en donnent souvent des visions assez différentes. Que représentent les communs pour vous et en agriculture en particulier ?

    CH : Je suis arrivé à me préoccuper des communs en agriculture par une voie détournée, en réalisant que la difficulté de la transition en agriculture aujourd’hui est de concilier d’une part les fonctions productives des biens alimentaires, et d’autre part, la préservation de l’environnement. L’intensification de l’agriculture avec plus d’intrants s’est réalisée au détriment de la question environnementale, qui est juste corrigée par des contraintes réglementaires. Il s’agit bien là d’une tension entre biens privés et biens publics ou biens communs. Passer du terme public au terme commun a évidemment un sens, les biens communs étant des biens rivaux, i.e. s’ils sont consommés par quelqu’un, ils ne sont pas disponibles pour d’autres. Quand on en discute avec l’ensemble des acteurs concernés, le terme de bien commun a beaucoup de sens.

    Une particularité de l’agriculture est que la tension se passe souvent entre aujourd’hui et demain, un bien privé d’aujourd’hui en tension avec un bien commun de demain.

    Le monde agricole tient assez peu compte de la dimension patrimoniale, c’est-à-dire du monde que nous lèguerons à nos descendants. On a souvent tendance en agriculture à s’appuyer sur le « Quoi qu’il en coûte pour demain ». Si un agriculteur a besoin pour résoudre un problème immédiat d’utiliser une solution qui a des effets négatifs à long terme, il va sans doute le faire. Mais est-ce particulier à l’agriculture ?

    B : Pouvez-vous nous en donner un exemple ?

    CH : Dans les pesticides très problématiques, il y a le Phosmet[2] qui est un insecticide très efficace. C’est le dernier organo-phosphoré de la pharmacopée et il est classé CMR (Cancérigène, Mutagène, Reprotoxique). Il produit notamment un effondrement de la fertilité masculine. Personne ne devrait raisonnablement utiliser un produit pareil. D’ailleurs, en 2017, il n’a même pas été évalué par anticipation parce qu’il n’était plus utilisé. Mais comme d’autres insecticides ont perdu en efficacité (pyréthrénoïdes) ou ont été interdits (néonicotinoïdes) et que celui-ci ne l’était pas, les agriculteurs se sont remis à l’utiliser. Sur plus de 50% des surfaces de colza en 2021 ! Les agriculteurs ont un problème d’insectes (grosse altise, charançon des tiges) sur leurs champs de colza et la seule solution simple est le Phosmet. Alors, tant pis pour les communs de demain !

    B : Quelle est votre expérience personnelle sur les communs ?

    CH : Je les ai beaucoup côtoyés avec la science ouverte, les livings labs et les territoires d’innovation. Il s’agit d’innover ensemble, de co-concevoir, de co-construire dans ces dispositifs. Les « territoires d’innovation » ont été lancés en 2019 sur différents domaines. Il y a dix territoires d’innovation en agriculture. Ce sont de gros dispositifs soutenus financièrement par la puissance publique avec un fort investissement des collectifs locaux, des acteurs économiques et des ONG. Il y a par exemple le LIT Ouesterel sur le bien-être animal, dans les régions d’élevage de l’Ouest. Ces Territoires d’Innovation en agriculture mettent tous en scène la recherche d’options pour résoudre la tension entre bien privés et bien communs.

    On s’est notamment rendu compte que, dans ce cadre, un levier essentiel était le partage d’informations, ce qui conduit à donner une place particulière à la question des données et du numérique, comme levier du partage d’information. La combinaison de performance productive et performance environnementale conduit naturellement à la nécessité d’ouvrir les données, à considérer les données comme des communs numériques. Cela conduit également à regarder les données comme un bien commun. On a cherché à comprendre pourquoi les personnes avaient autant de réticence à ouvrir leurs données.

    B : L’Inrae est souvent à la pointe de l’ouverture des données. Comment l’expliquez-vous ?

    CH : Cela tient beaucoup à la personne et l’action de François Houlier, un ancien PDG de l’Inrae. Il a réalisé en 2016 un rapport commandé par Najat Vallaud-Belkacem (ministère de l’Éducation nationale) et Thierry Mandon (ministère de l’Enseignement supérieur et de la Recherche) sur « Les Sciences participatives en France ». Il présentait une autre façon de faire de la recherche. Cela a eu au début assez peu d’incidence sur la maison. Et puis, la science ouverte est devenue un vrai levier de la recherche à l’Inrae.

    En particulier, on a compris l’importance d’impliquer le plus de monde possible à la création de connaissances, en particulier des non-scientifiques. A l’Inrae, nous avons énormément de contacts avec des partenaires, comme des acteurs économiques (coopératives, instituts techniques agricoles) et avec des ONG (des secteurs de l’environnement ou de l’alimentation). Ceux-ci apportent toute leur énergie à la science ouverte. Cela n’est pas toujours confortable pour les chercheurs qui aiment bien expliquer ou décider a priori là où il faut aller. C’est beaucoup moins confortable de le faire avec les autres. Mais, très souvent, cela conduit à beaucoup de créativité au-delà de la simple définition des défis, des enjeux. Le recherche et l’innovation ouverte impliquent des façons de faire nouvelles, conduisent à des connaissances originales. Ce qui est particulièrement intéressant c’est que tous ceux qui ont participé aux travaux sont concernés, impliqués dans l’appropriation des résultats.

    B : C’est vrai pour la recherche en général. Mais pour l’agriculture ?

    CH : Une particularité en agriculture est que la tension entre fonction productive et protection environnementale, que je mentionnais plus haut, est très dépendante des conditions locales. Les milieux locaux physiques, climatiques, économiques, culturels, tiennent des places essentielles. La science et l’innovation ouvertes sont donc bien adaptées au sujet de l’agriculture parce qu’on peut avoir accès à des savoir-faire locaux et à des données locales.

    B : Au milieu de tout ça, quelle est la position de l’agriculteur moyen ?

    CH : Le monde des agriculteurs est très hétérogène, par exemple, dans leur rapport à l’innovation. Donc parler d’agriculteur moyen n’est pas vraiment approprié. Comme dans la plupart des secteurs économiques, vous avez des créatifs, des adoptants précoces, des adoptants tardifs, et au bout les trainards. On dirait laggards en anglais pour reprendre les termes de E. Rogers qui a le premier analysé cette situation. On a une courbe de distribution assez classique. Pour booster l’innovation en agriculture, on s’appuie sur les leaders qui sont typiquement des adoptants précoces. Ce n’est pas forcément le rôle du syndicat agricole, qui est là pour protéger la majorité, qui est plutôt du côté des adoptants tardifs. Ce n’est pas une critique des agriculteurs et de leurs syndicats : ils ont des risques à gérer, une activité économique à protéger. Il faut garder tout le monde à bord. C’est essentiel.

    Prenez les chambres d’agriculture qui sont des lieux de tension forte. Elles jouent un double rôle : le développement de l’agriculture et la protection des agriculteurs, mais les deux rôles proposent des réponses souvent contradictoires, en particulier quand les temps courts (biens privés et productifs) et temps longs (biens environnementaux communs) ne sont pas en syzygie. Cette situation est assez récente. L’inconfort des chambres d’agriculture et plus largement des acteurs du développement agricoles résulte de leur mise en place à la fin de la seconde guerre mondiale. Le cœur des biens communs alors, au moment où tout se met en place, c’est la sécurité alimentaire, puisque le France et l’Europe sont très loin de l’autosuffisance alimentaire. Les intérêts des biens communs et des biens privés étaient alors bien alignés sur ce même sujet de sécurité alimentaire. Aujourd’hui, ils ne sont plus alignés. D’où la difficulté aujourd’hui pour ces opérateurs.

    De nombreux agriculteurs ont une énorme appétence pour l’innovation. Mais collectivement, il ne faut pas que cela aille trop vite, d’où la résistance au changement pour protéger la masse des agriculteurs.

    B : Est-ce que les pouvoirs publics peuvent réduire la tension ? Peuvent-ils faire bouger les lignes ?

    CH : Ils peuvent le faire sans aucun doute. La question, c’est comment ? Il faut que cela se passe à l’échelle européenne. Les biens environnementaux sont communs à l’humanité et on ne peut pas les protéger chacun dans son petit coin. Notre chance, c’est l’Union européenne, qui a proposé avec le Green Deal[3] des objectifs ambitieux en donnant des horizons et des objectifs partagés par tous les pays. Jusqu’à présent, on a cherché à produire au plus faible coût économique. On se met à considérer le coût environnemental. Cela donne du sens aux politiques qu’on suit.

    Il faut réaliser ce Green Deal qui est une chance pour l’humanité. Mais on voit que toutes les excuses sont bonnes pour tergiverser : le Covid, la crise en Ukraine… On voit bien qu’on cherche à traiter les questions d’aujourd’hui avant celles du demain. Il faut un courage politique considérable pour porter les visions politiques à très long terme. Le Green Deal comme des plans américains discutés aujourd’hui font partie de ces grands choix politiques majeurs qu’on doit être capable de porter. Dans ce cadre, la Politique Agricole Commune est en deçà de ce qu’il faudrait faire, comme le souligne son analyse par le Parlement Européen.

    B : Est-ce que le secteur privé a aussi une place ?

    CH : Le secteur privé a bien sûr son rôle à jouer. On voit de très grands groupes qui prennent conscience de la nécessité de changer de route. Cela tient du choix de dirigeants ou de prises de considérations collectives à long terme. Pour prendre un exemple encore avec les pesticides, le groupe Kronenbourg, qui fait partie du groupe Carlsberg, a annoncé au début du mois de juin, une initiative importante. L’orge de brasserie contient des résidus de pesticides, le houblon est utilisé en moins grande quantité mais en contient beaucoup, et l’eau en contient également. Le groupe a choisi une voie très intéressante. Il s’est associé avec de gros producteurs de malt et de houblon pour accompagner, c’est-à-dire financer, une transition vers la réduction massive des pesticides chez les agriculteurs producteurs d’orge et de houblon. Un des plus grands groupes de brasserie au monde s’empare ainsi du sujet, décide d’être responsable, anticipe la réglementation. Logique publique et logique privée, il n’y a pas nécessairement d’opposition. Il faut aller dans le même sens.

    B : Un mot pour conclure ?

    CH : Le vrai sujet des communs est celui de la responsabilité de nos actions. Nous sommes responsables du monde que nous laisserons à nos enfants. Pour moi, les acteurs de la recherche publique ont une responsabilité particulière, celle d’imaginer des horizons lointains, d’accompagner la transition, d’encourager le développement des communs, mais aussi de montrer le chemin.

    Serge Abiteboul, Inria et ENS Paris, François Bancilhon, serial entrepreneur

    [1] Le Réseau des instituts techniques agricoles est un lieu d’échange et de partage, à la confluence de l’intérêt général et de missions d’intérêts spécifiques aux filières agricole, forestière et agro-industrielle. C’est une association unique en Europe pilotée par les agriculteurs depuis plus de 60 ans.

    [2] Le phosmet est un insecticide organophosphoré non-systémique, dérivé du phtalimide, utilisé sur les plantes et les animaux.

    [3] Le Green Deal Européen, ou Pacte vert européen, constitue un ensemble de mesures visant à faire de l’Europe un continent « climatiquement neutre » d’ici 2050.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

    https://binaire.socinfo.fr/2021/09/28/les-communs-numeriques/

  • Recherche en cybersécurité et souveraineté numérique française

    Les cyberattaques sont de plus en plus nombreuses, de plus en plus inquiétantes et touchent tant les entreprises, les états que les individus (1). Malgré ce constat, la cybersécurité est-elle suffisamment prise au sérieux par tous les acteurs ? Et dans ce domaine comme dans d‘autres, ne dépendons-nous pas trop de technologies venues d’ailleurs ouvrant ainsi la voie à des vulnérabilités supplémentaires ? Nous avons demandé à deux collègues, Hubert Duault et Ludovic Mé, spécialistes de cybersécurité de nous éclairer. Il semble que la France, qui avait déjà des atouts dans ce domaine, ait choisi de forcer l’allure. Cocorico !  Serge Abiteboul et Pascal Guitton.

    L’actualité nous rappelle quasi-quotidiennement combien la transformation numérique des entreprises, des administrations et de l’ensemble de la société a fait de la cyber sécurité un enjeu majeur. Il est même parfois souhaitable de choisir des fournisseurs de produits ou de services de sécurité en fonction du contexte géopolitique. La guerre en Ukraine a ainsi conduit récemment nombre d’acteurs à un changement de solution antivirale. La maîtrise d’une offre nationale et européenne de technologies et services de cyber sécurité apparait donc indispensable à l’exercice de notre souveraineté numérique.

    Dans ce contexte, le constat dressé en 2015 dans le cadre du plan cyber sécurité pour la nouvelle France industrielle[1] reste d’actualité : la filière industrielle française en cyber sécurité se caractérise par l’existence de quelques grands groupes, très orientés vers le marché de la défense, et de nombreuses petites ou très petites entreprises, à l’expertise parfois très grande, mais qui ne peuvent pas viser un marché très large. On peut ajouter que les solutions nationales peuvent en outre, même sur leur marché local, être ignorées au profit de celles de grands acteurs internationaux. Face à ce constat, la revue préconise en particulier d’inciter les grands industriels à davantage investir les marchés civils, de favoriser la création d’ETI à partir des PME les plus prometteuses, de multiplier le nombre de startup innovantes. Cette dernière préconisation s’appuie bien entendu sur la stimulation de l’innovation publique et privée.

    Si recherche et innovation technologique sont des concepts distincts, ils sont évidemment très liés. La recherche consiste à produire des connaissances nouvelles ; le transfert de ces connaissances vers le monde économique participe à l’innovation. Dans certains domaines, les connaissances produites sont plus directement exploitables. C’est le cas de la cyber sécurité, domaine pour lequel la composante technologique est essentielle puisqu’il faut tenir compte pour la sécuriser efficacement de la réalité des machines existantes : leurs bases matérielles (hardware), leurs systèmes d’exploitation, leurs logiciels, les technologies réseau qui permettent de les faire communiquer.

    On sait cependant que le transfert technologique, qui implique de passer d’un prototype de recherche prouvant la validité d’un concept à un produit minimal, demande un travail important. Pour soutenir ce transfert, les interactions entre les entreprises et les équipes de recherche doivent être facilitées et renforcées, afin de rendre plus aisée l’identification de problèmes industriels intéressant les chercheurs, dont les travaux seront alors susceptibles d’apporter des réponses à des besoins concrets dans le cadre de cas d’usage réels.

    Le Campus Cyber

    Dans le cadre de France 2030[2], une « stratégie d’accélération[3] Cybersécurité[4] » a été définie, dont une des priorités est précisément de renforcer les liens entre les acteurs de la filière, comprise ici au sens large d’un écosystème d’innovation intégrant chercheurs, start-up, PME, grands industriels, utilisateurs, services de l’État, acteurs de la formation, capital-risqueurs. Cette stratégie d’accélération repose sur la conviction que la réponse aux enjeux de la cyber sécurité passe par une implication équilibrée et sans exclusive de l’ensemble des acteurs cet écosystème. Une opération majeure concrétisant cette vision a été la création, début 2022, du « Campus Cyber » localisé à la Défense près de Paris. Ce campus regroupe d’ores et déjà près d’un millier de personnes dans un espace commun d’environ vingt mille mètres-carrés. Cette logique est en outre déclinée dans certaines régions, où des « campus cyber territoriaux » sont en cours de création.

    Cette image montre le bâtiment du campus Cyber : il s'agit d'une tour éclairée la nuit.
    Campus Cyber

    Le Campus Cyber ambitionne de fédérer les acteurs industriels et de la recherche en multipliant les échanges et en développant une dynamique collective dépassant les clivages habituels. Il vise à apporter à chacun de ses membres des avantages en termes de performances et de compétitivité. A cette fin, il propose un accès à des moyens communs, comme le partage d’information sur les menaces cyber. Il permet de colocaliser des équipes et de jouer sur l’effet de proximité pour développer des partenariats entre elles. Il offre à ses membres une visibilité et une capacité de communication visant à les rendre plus visibles sur la carte de la cyber sécurité européenne et mondiale. Enfin, il entend aussi favoriser la formation initiale et continue en cyber sécurité, action essentielle quand le recrutement de talents est une difficulté majeure pour tous les acteurs de la filière, quel que soit leur type. Le Campus Cyber se positionne ainsi très clairement sur le triptyque Formation-Recherche-Innovation et Entrepreneuriat.

    Programme de Transfert du Campus Cyber

    La communauté académique française en cyber sécurité est constituée de chercheurs d’organismes de recherche (principalement le CEA, le CNRS et Inria) et d’enseignants-chercheurs d’universités et d’écoles d’ingénieurs. La majorité de ces personnels sont en fait souvent regroupées dans des équipes communes à plusieurs institutions, par exemple dans le cadre d’Unités Mixte de Recherche (UMR) du CNRS ou d’équipe-projet Inria. En outre, cette communauté est animée globalement sur le plan scientifique dans le cadre du groupement de recherche (GDR) en sécurité informatique, auquel participent tous les acteurs. L’implication de ces mêmes acteurs dans le Campus Cyber passe par un programme spécifique piloté par Inria, baptisé Programme de Transfert du Campus Cyber (PTCC). Doté de quarante millions d’euros, ce programme permet en particulier, en cohérence avec les objectifs du Campus Cyber, de susciter et d’assurer la mise en œuvre de projets de recherche cherchant à lever des verrous technologiques actuels et considérés comme importants par des industriels et des organismes étatiques telle que l’Agence Nationale pour la Sécurité des Système d’Information (ANSSI). Plusieurs projets de ce type sont d’ores et déjà en cours de montage pour un lancement avant la fin 2022. Ces projets disposeront d’espaces et de facilités (plateformes numériques, Fab Lab) installées sur le Campus Cyber. Le PTCC va aussi permettre de soutenir la création et le développement d’entreprises innovantes, tout particulièrement en continuité des projets qui auront été réalisés. Enfin, le PTCC va également inclure un volet formation, répondant au besoin des entreprises en exploitant l’expertise de la communauté académique.

    Programmes et Équipements Prioritaires de Recherche

    La stratégie nationale d’accélération en cyber sécurité intègre aussi un programme spécifique destinée au monde académique, via une action baptisée « Programmes et Équipements Prioritaires de Recherche » (PEPR). Il s’agit de susciter et mettre en œuvre des projets de recherche sur des sujets estimés prioritaires, projets qui devront chercher à produire de nouvelles connaissances (on pourrait parler de recherche amont), même si l’objectif de transfert à terme est souhaité.

    La communauté académique française est internationalement reconnue pour son excellence dans certains sous-domaines de la cyber sécurité, tels que la cryptographie et les méthodes formelles. En revanche, d’autres sous-domaines sont moins clairement perçus au niveau international et demandent à être renforcés. Doté de soixante-cinq million d’euros et piloté conjointement par le CEA, le CNRS et Inria, le PEPR Cybersécurité vise donc à maintenir et développer l’excellence de la recherche française en cyber sécurité dans ses sous-domaines forts, tout en en renforçant son impact là où elle est actuellement moins présente. Au final, le souhait est clairement de créer les conditions permettant à terme de produire des produits et services de sécurité souverains dans les différents sous-domaines.

    Cette photo montre l'amphi où s'est déroulée la réunion de lancement du PEPER Cybersécurité - Crédit photo : Inria - E. Marcadé
    Réunion de lancement du PEPR Cybersécurité – Crédit photo : Inria – E. Marcadé

    Pour identifier les thématiques des projets des PEPR, l’état a mis en œuvre une démarche à mi-chemin entre financement pérenne et appels à projets ouverts. Ainsi, en consultant des instances jugées représentatives de la communauté de recherche en cyber sécurité, ont été identifiés des sujets d’importance, pour lesquels il pouvait exister une recherche nationale forte ou bien pour lesquels cette recherche demandait à être renforcée. Chacun de ces sujets a ensuite été confié à un ou une scientifique reconnue pour ses travaux antérieurs sur ce sujet et, sur la base de sa connaissance du milieu scientifique national, cette personne a rassemblé un groupe de chercheurs qui a proposé des travaux précis à réaliser dans les 6 ans à venir.

    Cette démarche, jugée insuffisamment ouverte par une partie de la communauté, a bousculé les habitudes du monde académique. Son objectif était de répondre à certaines imperfections des modes de financement usuels. Les financements pérennes ne facilitent pas toujours l’émergence spontanée et rapide de compétences dans des thématiques jusque-là peu explorées. Les financements par appels à projets, qui impliquent la constitution de consortium soumettant une réponse qui sera jugée à priori par un comité de sélection constitué de pairs, et qui entrainent le rejet de nombreuses propositions et par là-même le gâchis d’une part importante du travail réalisé par les soumissionnaires.

    Au final, sept projets ont ainsi été construits ces derniers mois. Ils impliquent environ 200 chercheurs et enseignants-chercheurs permanents spécialistes de plusieurs disciplines (mathématiques, informatique, électronique, traitement du signal). Ils permettront en outre à près de cent cinquante doctorants de réaliser une thèse dans le domaine de la cyber sécurité. Enfin, des postdoctorants et des ingénieurs de recherche seront aussi financés. Le rôle de ces derniers est particulièrement important dans l’optique du transfert technologique à moyen terme qui est recherché.

    Ces sept projets du PEPR visent à étudier la sécurisation du matériel, du logiciel et des données. Lancés en juin 2022, ils portent sur la protection des données personnelles (solutions théoriques et techniques compatibles avec la réglementation française et européenne et tenant compte des contraintes d’acceptabilité), la sécurité des calculs (mécanismes cryptographiques permettant d’assurer la sécurité des données y compris lors du traitement de ces données en environnement non maîtrisé comme dans le Cloud), la vérification des protocoles de sécurité permettant de prouver une identité ou de voter à distance, par exemple (vérification tant au niveau des spécifications de ces protocoles que de leurs implémentations), la défense contre les programmes malveillants (virus comme les rançongiciels, botnet, etc.), la supervision de la sécurité (détection et réponse aux attaques informatiques), la sécurisation des processeurs (RISC-V 32 bits utilisés pour le objets de « l’internet des objets » et à sécuriser contre des attaques physiques ; RISC-V 64 bits utilisés pour des applications plus riches et à sécuriser contre les attaques logicielles exploitant des failles matérielles), la recherche de vulnérabilités (ou la preuve d’absence de telles vulnérabilités). En outre, trois autres projets seront financés prochainement, mais cette fois sur la base d’un appel à projets ouvert opéré par l’Agence Nationale de la Recherche (ANR). Les thématiques retenues pour cet appel à projets sont la protection des données multimédias (marquage vidéo, biométrie, sécurité des systèmes à base d’intelligence artificielle), les techniques d’exploitation des vulnérabilités, la cryptanalyse (recherche de problème dans les primitives cryptographiques et donc l’évaluation de leur sécurité).

    On le voit, l’ensemble des projets couvrent largement le domaine de la cyber sécurité, sans toutefois prétendre à l’exhaustivité. Il faut noter également que tout ce qui touche au « risque quantique » est traité dans un autre PEPR, précisément dédié aux techniques quantiques.

    Nous avons présenté dans cet article deux actions lancées récemment qui visent à renforcer la production de connaissances et de mécanismes technologiques innovants dans divers sous-domaines relevant de la cyber sécurité : le Programme de Transfert du Campus Cyber et le PEPR Cyber Sécurité. Ces actions cherchent à favoriser le transfert des connaissances et innovations issue du monde académique vers le milieu industriel, contribuant ainsi à créer ou enrichir des produits et services de sécurité souverains, sans lesquels notre souveraineté numérique resterait illusoire. La recherche académique en cyber sécurité souhaite ainsi se montrer en mesure d’apporter sa contribution à la construction de la souveraineté numérique française.

    Hubert Duault et Ludovic Mé (Inria)

    (1) pour vous en convaincre ;), vous pouvez par exemple saisir le mot Cybersécurité dans notre moteur de recherche (à droite de l’écran) et constater le nombre d’articles de binaire consacré à ce sujet.

    Pour aller plus loin

    Livre blanc Inria sur la cybersécurité

    [1] https://www.ssi.gouv.fr/uploads/2015/01/Plan_cybersecurite_FR.pdf

    [2] Nom donné au quatrième Plan d’Investissement d’Avenir (PIA 4), qui vise à rattraper le retard de la France dans certains secteurs et la création de nouvelles filières industrielles et technologiques.

    [3] D’autre stratégies d’accélérations ont aussi été définies : cloud, 5G, quantique, IA, mais aussi santé numérique, systèmes agricoles durables, ou développement de l’hydrogène décarboné. Pour plus de détail, voir https://www.gouvernement.fr/strategies-d-acceleration-pour-l-innovation

    [4] https://minefi.hosting.augure.com/Augure_Minefi/r/ContenuEnLigne/Download?id=2A6148DF-BF21-4A64-BDF8-79BACE2AE255&filename=686%20-DP%20cyber.pdf

     

  • Elle simule des supercondensateurs avec un simple ordi

    Un nouvel entretien autour de l’informatique. Céline Merlet est une chimiste, chercheuse CNRS au Centre Inter-universitaire de Recherche et d’Ingénierie des Matériaux (CIRIMAT) de Toulouse. C’est une spécialiste des modèles multi-échelles pour décrire les matériaux de stockage d’énergie. Nous n’avons pas le choix, il va nous falloir faire sans les énergies fossiles qui s’épuisent. Le stockage d’énergie (solaire ou éolienne par exemple) devient un défi scientifique majeur.  Céline Merlet nous parle des supercondensateurs, une technologie pleine de promesses.
    Céline Merlet ©Françoise Viala (IPBS-Toulouse/CNRS-UT3)

    Binaire : Pourrais-tu nous raconter brièvement la carrière qui t’a conduite à être chercheuse en chimie et médaille de bronze du CNRS 2021

    Céline Merlet : Au départ je n’étais pas partie pour faire de la chimie mais de la biologie. J’ai fait une prépa et je voulais devenir vétérinaire, mais pendant la prépa, je me suis rendue compte que je m’intéressais de plus en plus à la chimie. J’ai aussi fait un projet de programmation et j’y ai trouvé beaucoup de plaisir. Je suis rentrée, dans une école d’ingénieur, Chimie ParisTech. En 2e année, j’ai fait un stage de trois semaines sur la modélisation de sels fondus, des sels qui deviennent liquides à très hautes températures. J’y ai découvert la simulation numérique de phénomènes du monde réel, j’ai compris que j’avais trouvé ma voie. Après l’école de chimie, je suis retournée faire un doctorat dans ce même labo où j’avais réalisé le stage. Un postdoctorat en Angleterre, et j’ai été recrutée au CNRS en 2017.

    B : Pourquoi n’es-tu pas restée en Angleterre ?

    CM : Avec la difficulté d’obtenir un poste en France et le fait que j’étais bien installée en Angleterre, j’ai aussi candidaté là-bas. Mais, il y a eu le Brexit et cela a confirmé ma volonté de rentrer en France.

    B : Tu es chimiste, spécialiste des systèmes de stockage électrochimique de l’énergie qui impliquent des matériaux complexes. Pourrais-tu expliquer aux lecteurs de binaire ce que cela veut dire ?

    CM : Le stockage électrochimique de l’énergie concerne l’utilisation de réactions électrochimiques pour stocker de l’énergie. Les systèmes qu’on connaît qui font ça sont les batteries dans les téléphones et les ordinateurs portables, et les voitures. Les batteries utilisent des matériaux complexes avec certains éléments comme le lithium, le cobalt, et le nickel. On charge et décharge le dispositif en le connectant à un circuit électrique. Les matériaux sont modifiés au cours des charges et décharges. C’est ça qui leur permet de stocker de l’énergie.

    Schéma d’un supercondensateur déchargé. Crédit Céline Merlet
    Schéma d’un supercondensateur chargé. Crédit Schéma Céline Merlet

    Ma recherche porte sur les supercondensateurs. Dans ces systèmes-là, on a deux matériaux poreux qui sont des électrodes qu’on connecte entre elles via un circuit extérieur. Quand on charge (ou décharge), des molécules chargées vont se placer dans des trous ou au contraire en sortent. Un stockage de charge au sein du matériau en résulte. Mais d’une manière très différente de celle des batteries. Il n’y a pas de réaction chimique. C’est une simple adsorption des molécules chargées.

    B : Tu travailles sur la modélisation moléculaire, en quoi est-ce que cela consiste ?

    CM : J’ai parlé des deux électrodes qui sont en contact avec cette solution d’ions chargés. Souvent pour les supercondensateurs, ce sont des carbones nanoporeux. Les pores font à peu près la taille du nanomètre (1 millionième de millimètre) : c’est quelque chose qu’on ne peut pas observer à l’œil nu. Pour comprendre comment les ions entrent et sortent de ces pores de carbone, au lieu de faire des expériences physiques, des mélanges dans un laboratoire, je fais des expériences numériques, des mélanges dans l’ordinateur. J’essaie de comprendre comment les ions bougent et ce qui se passe, à une échelle qu’on ne peut pas atteindre expérimentalement.

    B : Ça exige de bien comprendre les propriétés physiques ?

    CM : Oui pour modéliser la trajectoire des ions, la façon dont ils se déplacent, il faut bien comprendre ce qui se passe. Quand on lance une balle, si on donne les forces qu’on applique au départ, on peut en déduire la trajectoire. Pour les ions c’est pareil. On choisit le point de départ. On sait quelles forces s’appliquent, les forces d’attraction et de répulsion. On a des contraintes comme le fait qu’une molécule ne peut pas pénétrer à l’intérieur d’une autre. Cela nous permet de calculer l’évolution du système de molécules au cours du temps. Parfois, on n’a même pas besoin de représenter ça de manière très précise. Si une modélisation même grossière est validée par des expériences, on a le résultat qu’on recherchait. Dans mon labo, le CIRIMAT, il y a principalement des expérimentateurs. Nous sommes juste 4 ou 5 théoriciens sur postes permanents. Dans mon équipe, des chercheurs travaillent directement sur des systèmes chimiques réels et on apprend beaucoup des échanges théorie/expérience.

    B : Typiquement, combien d’atomes sont-ils impliqués par ces simulations ?

    CM : Dans ces simulations numériques, on considère de quelques centaines à quelques milliers d’atomes. Dans une expérience réelle, c’est au moins 1024 atomes. (Un millilitre d’eau contient déjà 1022 molécules.)

    B : Et malgré cela, vous arrivez à comprendre ce qui se passe pour de vrai…

    CM : On utilise des astuces de simulation pour retrouver ce qui se passe dans la réalité. Une partie de mon travail consiste à développer des modèles pour faire le lien entre l’échelle moléculaire et l’échelle expérimentale. Quand on change d’échelle, ça permet d’intégrer certains éléments mais on perd d’autres informations de l’échelle moléculaire.

    B : Dans ces simulations des électrodes de carbone au sein de supercondensateurs modèles en fonctionnement, quels sont les verrous que tu as dû affronter ?

    CM : Au niveau moléculaire, il y a encore des progrès à faire, et des ordinateurs plus puissants pourraient aider. Les matériaux conduisent l’électricité, les modèles considèrent que les carbones sont parfaitement conducteurs, mais en réalité ils ne le sont pas. Pour une meilleure représentation, il faudrait tenir compte du caractère semi-conducteur de ces matériaux et certains chercheurs travaillent sur cet aspect en ce moment.

    Pour obtenir des matériaux qui permettraient de stocker plus d’énergie il nous faudrait mieux comprendre les propriétés microscopiques qui ont de l’influence sur ce qui nous intéresse, analyser des résultats moléculaires pour essayer d’en extraire des tendances générales. Par exemple, si on a deux liquides qui ont des ions différents, on fait des mélanges ; on peut essayer brutalement plein de mélanges et réaliser des simulations pour chacun, ou on peut en faire quelques-unes seulement et essayer de comprendre d’un mélange à un autre pourquoi le coefficient de diffusion par exemple est différent et prédire ainsi ce qui se passera pour n’importe quel mélange. Mieux on comprend ce qui se passe, moins il est nécessaire de faire des modélisations moléculaires sur un nombre massif d’exemples.

    Configuration extraite de la simulation d’un supercondensateur modèle par dynamique moléculaire. Les électrodes de carbone sont en bleu, les anions en vert et les cations en violet. Crédit Céline Merlet

    B : Tu as reçu le prix « 2021 Prace Ada Lovelace » de calcul haute performance (HPC). Est-ce que tu te présentes plutôt comme chimiste, ou comme une spécialiste du HPC ?

    CM : Je ne me présente pas comme une spécialiste du calcul HPC mais mes activités nécessitent un accès à des ordinateurs puissants et des compétences importantes dans ce domaine. Une partie de mon travail a consisté en des améliorations de certains programmes pour pouvoir les utiliser sur les supercalculateurs. Rendre des calculs possibles sur les supercalculateurs, cela ouvre des perspectives de recherche, et c’est une contribution en calcul HPC.

    B : Quelles sont les grandes applications de ton domaine ?

    CM : Concernant les supercondensateurs, c’est déjà utilisé dans les systèmes start-and-stop des voitures. C’est aussi utilisé dans les bus hybrides : on met des supercondensateurs sur le toit du bus, et à chaque fois qu’il s’arrête, on charge ces supercondensateurs et on s’en sert pour faire redémarrer le bus. On peut ainsi économiser jusqu’à 30 % de carburant. Des questions qui se posent : Est-ce qu’on pourrait stocker plus d’énergie ? Est-ce qu’on pourrait utiliser d’autres matériaux ?

    Bus hybride utilisant des supercondensateurs, Muséum de Toulouse

    B : On sait que les batteries de nos téléphones faiblissent assez vite. Pourrait-on les remplacer par des supercondensateurs ?

    CM : Si les batteries stockent plus d’énergie que les supercondensateurs, elles se dégradent davantage avec le temps. Au bout d’un moment le téléphone portable n’a plus la même autonomie que quand on a acheté le téléphone. Un supercondensateur peut être chargé et déchargé très vite un très grand nombre de fois sans qu’il soit détérioré. Pourtant, comme les quantités d’énergie qu’ils peuvent stocker sont bien plus faibles, on n’imagine pas que les supercondensateurs standards puissent remplacer les batteries. On voit plutôt les deux technologies comme complémentaires. Et puis, la limite entre supercondensateur et batterie peut être un peu floue.

    B : Tu es active dans « Femmes et Sciences ». Est-ce que tu peux nous dire ce que tu y fais et pourquoi tu le fais ?

    CM : J’observe qu’on est encore loin de l’égalité femme-homme. En chimie, nous avons une assez bonne représentativité des femmes. Dans mon laboratoire, qui correspond bien aux observations nationales, il y a 40% de femmes. Mais en sciences en général, elles sont peu nombreuses.

    Un but de « Femmes et Sciences » est d’inciter les jeunes, et particulièrement les filles, à s’engager dans des carrières scientifiques. Je suis au conseil d’administration, en charge du site web, et je coordonne avec d’autres personnes les activités en région toulousaine. Je suis pas mal impliquée dans les interventions avec les scolaires, dans des classes de lycée ou de collège : on parle de nos parcours ou on fait des ateliers sur les stéréotypes, de petits ateliers pour sensibiliser les jeunes aux stéréotypes, pour comprendre ce que c’est et ce que ça peut impliquer dans les choix d’orientation.

    Nous avons développé en 2019 un jeu, Mendeleieva, pour la célébration des 150 ans de la classification périodique des éléments par Mendeleiev. Nous l’utilisons pour mettre en avant des femmes scientifiques historiques ou contemporaines : on a un tableau et on découvre à la fois l’utilité des éléments et les femmes scientifiques qui ont travaillé sur ces éléments. Nous sommes en train de numériser ce jeu.

    L’association mène encore beaucoup d’autres actions comme des expos, des livrets, etc…

    B : La programmation est un élément clé de ton travail ; est-ce que tu programmes toi-même ?

    CM : J’adore programmer. Mais comme je passe pas mal de temps à faire de l’encadrement, à voyage et à participer à des réunions, j’ai moins de temps pour le faire moi-même. Je suis les doctorants qui font ça. Suivant leur compétence et leur appétence, je programme plus où moins.

    B : D’où viennent les doctorants qui passent dans ton équipe ? Sont-ils des chimistes au départ ?

    CM : Ils viennent beaucoup du monde entier : Maroc, Grèce, Inde. Ils sont physiciens ou chimistes. J’ai même une étudiante en licence d’informatique en L3 qui fait un stage avec moi.

    B : Est-ce que certains thèmes de recherche en informatique sont particulièrement importants pour vous ?

    CM : En ce moment, on s’interroge sur ce que pourrait apporter l’apprentissage automatique à notre domaine de recherche.  Par exemple, pour modéliser, on a besoin de connaitre les interactions entre les particules. Des collègues essaient de voir si on pourrait faire de l’apprentissage automatique des champs de force. Nous ne sommes pas armés pour attaquer ces problèmes, alors nous collaborons avec des informaticiens.

    Serge Abiteboul, Inria et ENS, et Claire Mathieu, CNRS et Université Paris-Cité

     Pour aller plus loin

    Les supercondensateurs à la loupe ou comment l’écorce de noix de coco est utilisée pour stocker l’énergie, Céline Merlet, Muséum de Toulouse, 2019

    https://cirimat.cnrs.fr/?lang=fr

    https://www.femmesetsciences.fr/

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • L’expo Réseaux-Monde au Centre Pompidou

    Du 23 février au 25 avril s’est tenue au Centre Pompidou à Paris l’exposition « Réseaux-Monde ». Réunissant une soixantaine d’artistes, cette exposition interrogeait la place des réseaux dans notre société. L’occasion pour Olivier Zeitoun et Marie-Ange Brayer, respectivement attaché de conservation et conservatrice au Musée National d’Art Moderne du Centre Pompidou, de revenir avec Binaire sur la place des réseaux dans l’art contemporain. Serge Abiteboul

    Fabien Tarissan et Gilles Dowek : Dans la seconde moitié du XXe siècle, et plus ou moins indépendamment du développement des réseaux informatiques, nous voyons un certain nombre d’artistes prendre les réseaux comme thème de certaines de leurs œuvres. Comment cette démarche apparaît-elle dans l’exposition « Réseaux-Monde » ?

    Olivier Zeitoun et Marie-Ange Brayer : Effectivement, si l’utilisation des réseaux dans les démarches artistiques remontent bien avant les années 60 (comme le Network of Stoppages  de Marcel Duchamp en 1914 par exemple), nous avons fait le choix de démarrer l’exposition « Réseaux-Mondes » à l’après-guerre, lorsqu’émerge de nouveaux réseaux de communication (radio, télévision, satellites), parallèlement aux réseaux informatiques qui tissent de nouvelles infrastructures de savoir.

    Les années 1960 voient en effet les artistes s’emparer du monde connecté de la cybernétique, du traitement automatique de l’information, du réseau comme système d’organisation générale. En 1969 par exemple, l’artiste Allan Kaprow réalise Hello, un des premiers happenings fonctionnant en réseau, aux connexions à la fois virtuelles et physiques, pour « The Medium is the Medium », une émission de télévision expérimentale. Des groupes de personnes se trouvent à différents lieux de Boston, aux États-Unis (un hôpital, dans une vidéothèque, à l’aéroport…), et sont connectés par un réseau de télévision en circuit fermé. Kaprow coordonne l’évènement tel un chef d’orchestre en proposant à ses participants de se signaler à la caméra d’un « Hello I see you [Bonjour je vous vois] » lorsqu’ils reconnaissent leur propre image ou celle d’un ami. L’artiste connecte et relie en temps réel les individus éloignés, en court-circuitant métaphoriquement le réseau de télévision pour attirer l’attention sur les connexions établies entre les personnes réelles. Hello est une œuvre majeure tant elle offre un point de vue critique sur la technologie comme interface et sa dimension communicationnelle comme matériau.

    Le réseau est donc en premier lieu un outil au service de la création artistique ?

    Affiche de l’exposition « Réseaux-mondes »

    Oui mais cela évolue. Avec la mise en place progressive des réseaux informatiques dans les années 1970, le réseau devient effectivement un médium artistique et, dès les années 1980, les pratiques artistiques elles-mêmes se développent en réseau. L’artefact numérique et les données de l’information constituent alors le sujet même des l’œuvre d’art de l’époque « postmoderne » dont se saisissent deux expositions à Paris qui feront date : l’exposition Electra, au Musée d’Art Moderne de la Ville de Paris, en 1984, et Les Immatériaux, organisée un an plus tard par Jean-François Lyotard et Thierry Chaput au Centre Pompidou, qui interrogea l’imaginaire artistique face aux technologies connectés et « immatérielles ».

    L’art télématique y était alors à l’honneur. Dans « Réseaux-Mondes », nous avons ainsi présenté Profound Telematic Time (PTT) (2020) du PAMAL_Group. Cette installation a été réalisée à partir d’archives d’œuvres d’art télématiques créées sur Minitel au cours des années 1980. Disparues lors de la fermeture des réseaux Minitel en 2012, elles furent recréées sur leurs terminaux d’origines, aujourd’hui éteints, en étant reconnectées au Wipitel, nouveau réseau mondial Minitel élaboré par le collectif en 2019. Furent ainsi réactivés deux romans télématiques de Jacques-Élie Chabert et Camille Philibert : ACSOO, présenté à l’exposition « Electra » et L’Objet Perdu, créé en 1982 et exposé dans Les Immatériaux.

    Cette réappropriation du réseau Minitel et de l’art télématique qui avait vu le jour dans les années 1980, est crucial puisqu’il s’agit des premiers exemples artistiques à poser le réseau comme support d’une création artistique collective, collaborative, dématérialisée. Cette démarche qui consiste à faire du réseau la matière même de l’œuvre trouvera de nombreux prolongements par la suite.

    Le réseau semble perçu par les artistes uniquement comme une infrastructure de communication.

    Pas seulement. A la suite de l’art télématique des années 1980, un virage important se produit au milieu des années 1990 lorsque émerge le web. Ce sont alors les artistes du Net.art qui furent les premiers à interroger de manière critique et « pirate » la dimension politique de ces nouveaux réseaux. Ils se revendiquent hors de tout contrôle institutionnel et marchand. Leurs œuvres interactives conçues par, pour et avec le réseau Internet et le web, font écho aux mouvances hackers et sont nourris des pratiques de programmation collaborative à code ouvert. Certains d’entre eux vont appréhender Internet comme une matière artistique à part entière dans ses erreurs et dysfonctionnements, comme dans wwwwwwwww.jodi.org en 1995 du duo d’artistes JODI (Joan Heemskerk et Dirk Paesmans). D’autres furent prêts à pirater d’importantes expositions ou concours institutionnels. C’est le cas de l’artiste féministe Cornelia Sollfrank qui s’insurge contre la prédominance masculine du premier concours en ligne de Net.art organisé par la Kunsthalle de Hambourg, qu’elle sabote en générant trois cents faux profils d’artistes femmes (Female extension, 1997).

    Cette activité militante des artistes fait-elle écho à une critique plus générale ?

    La critique du technocapitalisme, fondée sur une expérience contemporaine des réseaux numériques et des réseaux sociaux, s’élabore dans cet héritage artistique tout en s’en distinguant. Les réseaux laissent aujourd’hui transparaître une dimension ubiquitaire, politique et marchande qui se retrouve dans les œuvres artistiques. A partir de 1994, jusqu’à sa mort prématurée en 2000, l’artiste américain Mark Lombardi produira de manière quasi-obsessionnelle des sociogrammes en réseaux qui mettent à jour les structures labyrinthiques du pouvoir politico-économique américain. Son œuvre est fascinante tant elle fait le lien entre l’art conceptuel et les paradigmes de médiatisation et de l’information inaperçue et cachée, à l’heure de la globalisation. Aujourd’hui, ces critères de recherches se retrouvent dans la pratique de la plateforme RYBN.ORG qui se penche sur la « finance de l’ombre » et de ses algorithmes, dont les paradis fiscaux échappent au contrôle des états.

    Cette démarche amène les artistes à mettre en lumière les réseaux complexes du pouvoir qui déterminent l’expérience de la liberté et des identités contemporaines, physiques et virtuelles. Ils se saisissent alors de technologies devenues de véritables infrastructures de contrôle des corps et de leur intimité, à l’image de Jill Magid dont les œuvres pionnières du début des années 2000 faisaient usage des caméras de surveillance dans une stratégie de représentation. L’artiste contemporaine américaine Mika Tajima explore quant à elle les liens du corps et des psychismes sous la régulation du capitalisme tardif. Ses sculptures, peintures, vidéos et installations se concentrent sur l’expérience incarnée du contrôle de la vie computationnelle, à l’instar de œuvre Human Synth (Paris), créée en 2021 et présentée dans « Réseaux-Mondes ». L’installation, entre sculpture et projection, donnait à voir en temps réel, sur toute la durée de l’exposition, les tendances collectives émotionnelles de la ville de Paris exprimées sur Twitter, sous la forme d’une fumée évolutive dont la teinte et la vitesse exprimaient les changements collectifs d’états affectifs. L’œuvre abritait un système pouvant extraire et analyser en temps réel les messages échangés grâce à un outil de traitement de langage et un programme d’analyse de sentiment prédictif. Si la fumée invoque d’anciennes pratiques divinatoires, elle donne ici forme à un contrôle immatériel des émotions fondé sur l’usage d’algorithmes prédictifs et la collecte massive de données des utilisateurs.

    On comprend que les réseaux ont leur côté lumineux – la communication interpersonnelle, l’accès à la connaissance… – et leurs côtés sombre – le harcèlement en ligne, la surveillance de masse…

    En effet, ces deux polarités sont une caractéristique constitutive du réseau à bien des égards. Le réseau va toujours porter une ambivalence entre matérialité et invisibilité, entre contrôle et communication, surveillance et circulation. Le réseau réunit et sépare à la fois. Les démarches artistiques que nous avons évoquées donnent à voir et sentir les potentialités plastiques de telles polarités. Ces conceptions tiennent donc à une histoire politique et sociale des technologies dans leur rapport à l’art : à l’enthousiasme de la mise en réseau du monde dont témoignait une œuvre comme Hello d’Allan Kaprow succède une réflexion profonde sur l’emprise invisible du réseau, chez les artistes contemporains.

    Mais à la croisée de ces enjeux sociaux et politiques se trouvent aussi ceux écologiques que l’on retrouve dans le champ de la création artistique et qui repoussent les limites de cette dichotomie. La viralité numérique s’est doublée de la prise de conscience de notre interaction avec le non-humain, de notre coexistence « en réseau » avec les autres espèces au sein d’une diversité infinie d’écosystèmes. Une nouvelle écologie artistique intègre ce principe d’interdépendance et de continuité de toutes les formes du vivant, reliées entre elles, à l’image des recherches de l’artiste et designeuse Marie-Sarah Adenis, du studio d’architecture EcoLogiStudio, ou du Studio Drift. Les technologies sont explorées comme outils de communication inter-espèces, aspirant à connecter des mondes aux limites de la perception humaine. L’artiste finlandaise Jenna Sutela met ainsi en connexion humain et non-humain, en intégrant le « bruit » du vivant comme des machines faisant appel à l’Intelligence Artificielle. L’œuvre peut aussi prendre la forme d’une enquête pluridisciplinaire comme dans Cambio des designers Formafantasma, où l’analyse transversale historique, politique, économique et sociale des activités humaines dévoile l’interconnexion entre toutes les formes de productions et de connaissances. Au cœur de cette « pensée écologique », le réseau est devenu « maillage », vecteur de nouvelles formes de connexions. Que ce soit par le biais d’une enquête archéologique perpétuelle d’un matériau, comme chez Formafantasma, ou par la médiation quasi-médiumnique des technologies chez Sutela, les réseaux irriguent notre rapport au vivant, au technologique, et à ce qui serait « plus qu’humain ».

    Fabien Tarissan et Gilles Dowek

  • Lettre aux nouveaux député.e.s : La souveraineté numérique citoyenne passera par les communs numériques, ou ne sera pas

    Lors de l’ Assemblée numérique des 21 et 22 juin, les membres du groupe de travail sur les communs numériques de l’Union européenne, créé en février 2022, se sont réunis pour discuter de la création d’un incubateur européen , ainsi que des moyens ou d’ une structure permettant de fournir des orientations et une assistance aux États membres. En amont, seize acteurs du secteur ont signé une tribune dans Mediapart sur ce même sujet. Binaire a demandé à un des signataires, le Collectif pour une société des communs, de nous expliquer ces enjeux essentiels. Cet article est publié dans le cadre de la rubrique de binaire sur les Communs numériques. Thierry Viéville.

    Enfin ! Le risque semble être perçu à sa juste mesure par une partie de nos élites dirigeantes. Les plus lucides d’entre eux commencent à comprendre que, si les GAFAM et autres licornes du capitalisme numérique offrent des services très puissants, très efficaces et très ergonomiques, ils le font au prix d’une menace réelle sur nos libertés individuelles et notre souveraineté collective. Exploitation des données personnelles, contrôle de l’espace public numérique, captation de la valeur générée par une économie qui s’auto-proclame « du partage », maîtrise croissante des infrastructures physiques d’internet, lobbying agressif. Pour y faire face, les acteurs publics oscillent entre complaisance (ex. Irlande), préférence nationale (ex. Doctolib) et mesures autoritaires (ex. Chine). Nous leur proposons une quatrième voie qui renoue avec les valeurs émancipatrices européennes : structurer une réelle démocratie Internet et impulser une économie numérique d’intérêt général en développant des politiques publiques pour défendre et stimuler les communs numériques.

    Rappelons-le pour les lecteurs de Binaire : les communs numériques sont des ressources numériques partagées, produites et gérés collectivement par une communauté. Celle-ci établit des règles égalitaires de contribution, d’accès et d’usage de ces ressources dans le but de les pérenniser et les enrichir dans le temps. Les communs numériques peuvent être des logiciels libres (open source), des contenus ouverts (open content) et des plans partagés (open design) comme le logiciel Linux, le lecteur VLC, l’encyclopédie Wikipédia, la base de données OpenStreetMap, ou encore les plans en libre accès d’Arduino et de l’Atelier Paysan. Malgré leur apparente diversité, ces communs numériques et les communautés qui en prennent soin ne sont pas des îlots de partage, sympathiques mais marginaux, dans un océan marchant de relations d’exploitation. Ils représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique.

    « Les communs numériques représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique »

    Ainsi, face au capitalisme numérique marchant et prédateur, les communs numériques sont le socle d’une économie numérique, sociale et coopérative. D’un côté, la plateforme de covoiturage Blablacar, une entreprise côté en bourse qui occupe une position dominante sur le secteur, prend des commissions pouvant aller jusqu’à 30% des transactions entre ses « clients ». De l’autre, la plateforme Mobicoop, structurée en SCIC (société coopérative d’intérêt collectif), offre un service libre d’usage à ses utilisateurs, en faisant reposer son coût de fonctionnement sur les entreprises et les collectivités territoriales souhaitant offrir un service de covoiturage à leurs salariés et leurs habitants.

    Face à des services web contrôlés par des acteurs privés, les communs numériques offrent des modèles de gouvernance partagée et démocratique de l’espace public. D’un côté, Twitter et Facebook exploitent les données privées de leurs usagers tout en gardant le pouvoir de décider unilatéralement de fermer des comptes ou des groupes. De l’autre, les réseaux sociaux comme Mastodon et Mobilizon, libres de publicités, offrent la possibilité aux utilisateurs de créer leurs propres instances et d’en garder le contrôle.

    Face à un Internet où les interactions se font toujours plus superficielles, les communs numériques permettent de retisser du lien social en étant à la fois produits, gouvernés et utilisés pour être au service de besoins citoyens. Pendant la pandémie de Covid19, face à la pénurie de matériel médical, des collectifs d’ingénieurs ont spontanément collaboré en ligne pour concevoir des modèles numériques de fabrication de visières qu’ils ont mis à disposition de tous. Près de deux millions de pièces ont ainsi pu être produites en France par des fablab à travers le territoire. Ce qui dessine, par ailleurs, une nouvelle forme de production post-capitaliste et écologique qualifiée de « cosmolocalisme » : coopérer globalement en ligne pour construire des plans d’objets, et les fabriquer localement de manière décentralisée.

    Et il ne faut pas croire que les collectifs qui prennent soin des communs numériques troquent leur efficacité économique et technique pour leurs valeurs. D’après la récente étude de la Commission relative à l’incidence des solutions logicielles et matérielles libres sur l’indépendance technologique, la compétitivité et l’innovation dans l’économie de l’UE, les investissements dans les solutions à code source ouvert affichent des rendements en moyenne quatre fois plus élevés. Si l’Open source doit intégrer une gouvernance partagée pour s’inscrire réellement dans une logique de commun, il fournit la preuve que l’innovation ouverte et la coopération recèlent d’un potentiel productif supérieur aux organisations fermées et privatives [1].

    Voilà pourquoi nous pensons que les acteurs publics territoriaux, nationaux et européens doivent protéger et soutenir le développement de communs numériques. Ils doivent faire de la France un pays d’accueil des communs numériques, soutenant leur mode de production contributive et leur modèle d’innovation ouverte qui ont fait leurs preuves d’efficacité face au modèle privatif. Ils doivent favoriser les infrastructures de coopération et la levée des brevets qui ont permis au mouvement des makers de produire avec une forte rapidité et résilience des objets sanitaires dont les hôpitaux français manquaient. Ils doivent s’inspirer de leur gouvernance partagée entre producteurs et usagers pour rendre le fonctionnement des administrations elles-mêmes plus démocratique. Ils doivent s’appuyer sur eux pour penser la transition écologique du secteur numérique.

    Avec le Collectif pour une société des communs, nous sommes convaincus que les communs en général, et les communs numériques en particulier, sont les ferments d’un projet de société coopérative, désirable et soutenable. Nous nous adressons aux acteurs publics en leur proposant des mesures applicables. Voici un aperçu des mesures pro-communs numériques que les nouveaux député.e.s de l’Assemblée nationale pourraient mettre en place.

    « Voici un aperçu des mesures pro-communs numériques que les député.e.s du Parlement renouvelé pourraient mettre en place »

    Pour commencer, la France et l’Europe doivent lancer une politique industrielle ambitieuse pour développer massivement l’économie de la production numérique ouverte, contributive et coopérative. Les organismes publics commencent à montrer des signes dans cette direction. Mais il faut aller plus vite et taper plus fort pour être en mesure de transformer en profondeur les régimes de production capitalistes et les habitudes d’usages associés de l’économie numérique. Nous proposons la création d’une « Fondation européenne des communs numériques » dotée de 10 milliards par an. Elle aurait un double objectif d’amorçage et de pérennisation dans le temps des communs numériques considérés comme centraux pour la souveraineté des internautes, des entreprises et des États européens qui auraient la charge de la financer. Il s’agirait à la fois de logiciels (open source), de contenus (open content) et de plans (open design). Cette fondation aurait une gouvernance partagée, entre administrations publiques, entreprises numériques, associations d’internautes et collectifs porteurs de projets de communs numériques, avec un pouvoir majoritaire accordé à ces deux derniers collèges.

    Ensuite, la France et l’Europe doivent devenir des partenaires importants de communs numériques pour transformer le mode de fonctionnement de leurs administrations. Depuis quelques années, l’Union européenne avance une stratégie en matière d’ouverture de ses logiciels et la France s’est doté d’un « Plan d’action logiciels libres et communs numériques  » allant dans le même sens. Mais ces avancées, à saluer, doivent être poursuivies et renforcées pour aboutir à un réel État-partenaire des communs numériques. Les administrations doivent se doter de politiques de contribution aux communs numériques. Dans certains cas, elles pourraient créer des outils administratifs pour normaliser les partenariats « public-communs ». Ainsi, les agents de l’IGN pourraient contribuer et collaborer avec OpenStreetMap dans certains projets cartographiques d’intérêt général, à l’occasion de catastrophes naturelles par exemple. Enfin, les administrations devraient être des heavy-users et des clients importants des services associés aux communs numériques. La mairie de Barcelone est le client principal de la plateforme de démocratie participative Decidim et finance le développement de fonctionnalités dont profitent toutes les autres administrations moins dotées. Les institutions publiques devraient également modifier leur politique de marché public en privilégiant aux « appels à projets » chronophages, les « appels à communs » incitant les potentiels répondants à coopérer entre eux.

    Pour finir, la France devrait « communaliser » l’infrastructure physique du monde numérique. Elle pourrait notamment créer des mécanismes incitatifs et un fonds de soutien aux fournisseurs d’accès à Internet indépendants ayant des objectifs écologiques afin de les aider à se créer ou se structurer. Nous pensons par exemple au collectif des Chatons qui participe à la décentralisation d’Internet, le rendant plus résilient, tout en permettant à des associations locales de bénéficier de leur infrastructure numérique et ainsi de préserver leur autonomie. La France pourrait enfin aider l’inclusion des associations citoyennes, notamment environnementales, dans la gouvernance des datacenters et autres infrastructures numériques territorialisées, dont le coût écologique s’avère de plus en plus élevé.

    Collectif pour une société des commun, https://societedescommuns.com/

    PS : Ces propositions se trouvent dans le livret « Regagner notre souveraineté numérique par les communs numériques ». Elles vont être affinés dans le temps. Le Collectif pour une société des communs organise le samedi 24 septembre une journée de travail qui leur est dédiée avec des acteurs publics, des praticiens et des chercheurs. Si vous souhaitez y participer, écrivez-nous à societedescommuns@protonmail.com.

    [1] Benkler Y., 2011, The Penguin and the Leviathan: How Cooperation Triumphs over Self-Interest, 1 edition, New York, Crown Business, 272 p.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Corriger les failles informatiques, une impossible exhaustivité à gérer comme un risque !

    Dans le domaine de la cybersécurité, il existe de nombreuses phases du développement et du déploiement des systèmes logiciels qui sont sensibles. A l’occasion de la publication d’un rapport du NIST, c’est aux failles logicielles et à leurs correctifs que nous nous intéressons. Trois experts, Charles Cuvelliez, Jean-Jacques Quisquater & Bram Somers nous expliquent les principaux problèmes évoqués dans ce rapport. Pascal Guitton.

    Tous les jours, des failles sur les logiciels sont annoncées par leurs éditeurs, dès lors qu’un correctif est disponible. Plus rarement, la faille n’est pas découverte en interne chez l’éditeur ou ni même de façon externe, par un chercheur ; elle l’est alors d’une part par des hackers malveillants qui se gardent bien d’en faire la publicité mais les dégâts causés par leur exploitation la font vite connaître. D’autre part, par les services secrets de certains pays qui les apprécient beaucoup pour réaliser des attaques plus furtives.

    Le volume des failles à traiter quotidiennement devient de plus en plus souvent ingérable pour les entreprises. Parfois l’éditeur du logiciel ne supporte même plus la version pour laquelle une vulnérabilité a été découverte : il n’y aura pas de correctif. Appliquer un correctif peut demander du temps, nécessiter la mise à l’arrêt des équipements, leur redémarrage, le temps de l’installer. Cette indisponibilité est parfois incompatible avec l’utilisation d’un logiciel qui doit fonctionner en permanence : un correctif ne s’applique pas n’importe quand. Dans des cas plus rares, le correctif ne peut être appliqué que par le fabricant, pour des raisons de conformité ou de certification.

    Le risque zéro n’existe pas pour la sécurité des logiciels, ; dès qu’on installe un logiciel, il y a un risque de faille.  C’est l’approche suivie par le NIST dans son standard (Guide to Enterprise Patch Management Planning : Preventive Maintenance for Technology) qui vient d’être publié il y a peu.

    Couverture du rapport du NIST

    Si on ne peut ou ne veut pas appliquer de correctif, on peut désactiver le logiciel ou le module dans laquelle la faille a été identifiée. On peut installer une version plus récente du logiciel mais avec un autre risque : que ce dernier fonctionne différemment et perturbe toute la chaîne opérationnelle au sein de laquelle il est un maillon. On peut isoler le logiciel pour qu’aucune personne extérieure ne puisse l’atteindre en vue d’exploiter la faille (en segmentant le réseau et en le plaçant dans un segment sûr). On peut même décider que l’impact – si la faille est exploitée – est minime : on accepte alors le risque (ce n’est tout de même pas conseillé). On peut aussi confier le logiciel à un fournisseur à qui incombera la responsabilité de gérer les correctifs.

    Un véritable cycle

    Si on décide d’installer le correctif, c’est tout un cycle qui démarre et qui ne se réduit pas à le télécharger et à l’installer d’un clic comme on le pense souvent. Il faut chercher où, dans l’organisation, le logiciel est installé. Cela commence par détenir l’inventaire des logiciels dans son entreprise, qui n’est correct que si on connait parfaitement toutes les machines installées. D’ailleurs ce ne sont pas toujours les logiciels d’une machine qu’on doit mettre à jour, c’est parfois la machine elle-même et son système d’exploitation. Dans le cas de l’Internet des objets, la situation se complique : on peut quasiment toujours mettre à jour le firmware de ces derniers mais la tâche est immense : où sont-ils sur le terrain ? Comment les mettre à jour tous sans en oublier un ? Faut-il envoyer des techniciens sur place ? Combien de temps faudra-t-il pour tous les mettre à jour ?  Il peut même arriver qu’on doive passer à une nouvelle mise à jour alors l’ancienne n’est pas terminée pour tous les objets, au risque donc de désynchronisation de l’ensemble.

    Si on a pu installer le correctif, après avoir planifié son déploiement, l’avoir testé pour voir si le programme qu’on utilisait fonctionne toujours correctement comme avant, il faut observer le programme mis à jour : le correctif peut lui-même receler une faille (car il est souvent développé dans l’urgence) ou avoir été compromis par un hacker (ce sont les fameuses attaques dites supply chain). Par erreur, un utilisateur peut désinstaller la mise à jour, réinstaller la version précédente, lors par exemple d’une restauration d’une sauvegarde. Si on a opté pour éteindre la machine ou le logiciel car on ne peut appliquer de correctif, il faut aussi surveiller que personne ne la/le redémarre. Un correctif peut par erreur remettre à zéro la configuration du programme qui l’intègrera, y compris les réglages de sécurité.

    Toutes ces opérations ne s’organisent pas à la dernière minute, lorsqu’une faille critique est annoncée.

    Sécuriser les environnements

    On peut mettre en place un environnement plus sûr de sorte qu’une faille y ait moins d’impact ou n’y trouve pas de terrain favorable. Cela commence par ne mettre à disposition les logiciels qu’aux personnes qui en ont vraiment besoin. De deux logiciels équivalents, on peut privilégier celui qui a un historique plus favorable en nombre (réduit) de failles. On peut vérifier la rigueur du développement, la fréquence des correctifs, leur nombre, les problèmes relayés par les communautés d’utilisateurs à propos des failles. On peut aussi installer ses logiciels dans des environnements plus favorables et plus faciles à l’application de correctifs comme les containers cloud.

    Dans son rapport, le NIST distingue quatre réponses aux failles : l’application de correctifs au fil de l’eau, en respectant un planning et des contraintes comme le week-end pour les logiciels dont on ne peut tolérer l’interruption. Il y a les correctifs à appliquer d’urgence. Si un correctif n’existe pas (encore), ce sont des mesures d’atténuation qu’on appliquera en fonction des instructions du fournisseur. Si le fournisseur n’apporte plus de support, il faudra isoler la machine qui héberge le logiciel pour le rendre inatteignable sauf par ses utilisateurs, si on ne peut s’en passer.

    Que faire face à cette complexité ? Le NIST propose de classer les actifs informatiques dans des groupes de maintenance. Appliquer un correctif ou gérer une faille, c’est de la maintenance de sécurité. Chaque groupe de maintenance aura sa politique de gestion des failles.

    Et de citer comme groupe de maintenance les ordinateurs portables des employés où les failles et les correctifs ont trait au système d’exploitation même de la machine, les firmwares et autres programmes installés. Les portables des utilisateurs ont une plus grande tolérance à une interruption et l’impact est limité si un ordinateur subit une faille puisqu’il y a des logiciels de contrôle et d’alerte à la moindre infection qui tourne sur ces machines puissantes. Ces éléments permettent une politique de mise à jour des failles adaptée.

    A l’autre extrême, on trouve le groupe de maintenance « serveur de données (data center) » qui ne peut tolérer quasiment aucune interruption, qui ne peut être mis à l’arrêt qu’à des moments planifiés longuement à l’avance. Les mesures d’atténuation du risque sont tout autre, la défense en profondeur, les protections mises en place dans le réseau, la segmentation.

    Autre exemple : le groupe de maintenance liés aux tablettes et autres smartphones utilisés par les employés, avec, aussi, sa tolérance aux interruptions, ses mesures propres de protection… Avoir une politique de mise à jour et de correction des failles par groupe de maintenance évite le goulot d’étranglement de tout vouloir faire en même temps et au final de laisser des failles béantes, peut-être critiques.

    Le déploiement des correctifs.

    Le NIST propose de déployer le correctif par groupes d’utilisateurs pour voir si tout se déroule correctement, puis de l’étendre graduellement pour limiter l’impact d’un correctif qui ne serait pas au point. Le déploiement progressif peut se faire en fonction de la qualification des utilisateurs, de leur compétence. Même pour les correctifs à appliquer d’urgence, le NIST propose ce déploiement graduel (mais plus rapide, en heures, sinon en minutes plutôt qu’en jours).

    S’il n’y pas de correctifs disponibles, on est dans les mesures d’atténuation, comme isoler le logiciel quand on ne peut pas s’en passer, migrer dans un segment la machine qui le contient, adapter les droits d’accès des utilisateurs : on parle de micro-segmentation ou de « software-defined perimeters ». Tout ceci ne se fait pas le jour où l’entreprise fait face pour la première fois à un logiciel qui n’aura (plus) jamais de correctif. Les architectes doivent avoir réfléchi et proposé à l’avance les bonnes politiques et manière de faire. Il faut d’ailleurs les réévaluer en permanence car le réseau évolue : le risque est-il bien limité et le reste-t-il avec cette architecture ?

    Oublier qu’il y a là une partie du réseau qui héberge les cas à problèmes serait la pire chose à faire. Il faut aussi interpeller les utilisateurs à intervalles réguliers pour voir s’ils utilisent vraiment ce logiciel vulnérable ? Peut-on se permettre de garder un trou de sécurité ? N’y a-t-il pas une alternative sur le marché ?

    Métrique

    L’organisation et sa direction doivent pouvoir vérifier que la politique d’application des correctifs est efficace. Mesurer et affirmer que 10 % des machines ou des logiciels n’ont pas pu recevoir des correctifs n’apporte aucune information si ce n’est faire peur car on imagine ces 10 % des machines ouvertes à tout vent.

    Le NIST propose de donner trois indicateurs : la proportion de correctifs appliqués à temps par rapport à un objectif fixé, le temps moyen et le temps médian d’application du correctif (qui doivent bien sûr être inférieur à l‘objectif). Cet objectif peut être fixé par groupe de maintenance ou selon la criticité de la vulnérabilité et l’importance du logiciel dans le fonctionnement de l’entreprise.

    En fin de compte, le mieux est d’acquérir un logiciel qui connaitra le moins de failles possibles : il faut mener, dit le NIST, une véritable due diligence avec le fournisseur : combien de failles, combien par année ? Combien de temps pour produire un correctif quand une faille est trouvée ? Les correctifs sont-ils groupés ? Publiez-vous les correctifs sur la base de données des vulnérabilités CVE ? Publiez-vous les correctifs ad hoc ou à intervalles réguliers ? Cela vous arrive-t-il de ne pas publier des correctifs mais d’alors proposer des mesures d’évitement ? Vos correctifs ont-ils déjà créé des problèmes ? Testez-vous les correctifs avant de les publier ? Quel est le retour de vos clients ?

    Les réponses à ces questions en diront long sur le sérieux du fournisseur.

    Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain) & Bram Somers (Group Chief Technology Officer, Belfius Banque)

  • Etalab : de l’ouverture des données à leur partage collaboratif

    Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Laure Lucchesi, directrice d’Etalab au sein de la Direction interministérielle du numérique (DINUM). Après une vingtaine d’années dans le numérique dans les secteurs public et privé dans plusieurs pays, elle devient directrice d’Etalab en 2016. Elle a une longue expérience du logiciel libre et de l’open data. A Etalab, elle encourage le développement des communs numériques.
    Laure Lucchesi (Etalab)

    Pourriez-vous raconter un peu ce que fait Etalab aux lecteurs de binaire ?

    Etalab est un département de la direction interministérielle du numérique (DINUM) sous l’autorité de la ministre de la Transformation et de la Fonction publiques. Notre mission c’est de faire en sorte que l’État et le service public rendu aux usagers s’améliorent en exploitant tout le potentiel des données. L’un des leviers, c’est l’ouverture des données publiques, que l’on appelle parfois « open data », qui consiste à mettre en ligne sur une plateforme, data.gouv.fr, les données produites par les systèmes d’information de l’État et non couvertes par des secrets, afin qu’elles puissent être réutilisées par d’autres. En 2020, la crise sanitaire a par exemple bien mis en évidence l’utilité de la mise à disposition de tous des données publiques, sans lesquelles des services comme covidtracker ou vitemadose n’auraient pas pu exister.

    Cette donnée publique, c’est la matière première d’une action publique transparente, véritablement au service de la démocratie. Elle ouvre aussi la voie à davantage de participation des citoyens, à de nouvelles façons de produire et d’améliorer le service public : des services innovants, crées par des tiers à partir des données en open data, viennent ainsi compléter et « augmenter » le service public, en démultiplier la portée en quelque sorte.

    Plus largement, notre mission consiste à ouvrir – au sens de rendre accessibles et réutilisables par tous – un maximum de ressources numériques de l’État : les données, mais aussi les APIs (sur api.gouv.fr), les codes sources logiciels (code.gouv.fr), et même les communs numériques que l’administration utilise, produit et/ou auxquels elle contribue (https://communs.numerique.gouv.fr/communs/).

    Nous avons d’ailleurs lancé fin 2021 un nouveau programme : l’Accélérateur d’initiatives citoyennes (citoyens.transformation.gouv.fr), pour faciliter la réutilisation de ces ressources numériques et les coopérations entre l’administration et la société civile qui porte des projets d’intérêt général.

    Nous avons également mis en place le programme “Entrepreneurs d’intérêt général” qui s’apprête à lancer sa 6e promotion : nous sélectionnons des spécialistes de la technologie, du design et du droit du numérique pour tester et expérimenter de nouveaux possibles avec des agents de l’État. L’idée est de s’attaquer à des défis publics et d’ouvrir l’administration à des talents venus de l’extérieur. On s’appuie sur l’agilité du numérique, sur des modes d’action différents de ceux qui prévalent dans l’administration, pour résoudre des problèmes concrets.

    Etalab a démarré il y a un peu plus de dix ans comme un lab innovant, pionnier, faiseur et un peu bidouilleur. L’enjeu est désormais de passer de l’innovation à la transformation, et d‘accompagner toute l’administration dans la « mise à jour » de son logiciel d’action publique ! D’institutionnaliser notre action, sans perdre pour autant nos valeurs d’ouverture et d’innovation radicale.

    Le rapport Bothorel[1] et la circulaire du Premier ministre du 27 avril 2021 ont permis de renforcer cette politique et sa gouvernance : On a désormais une véritable politique publique de la donnée, déclinée également dans chaque ministère. Chaque administration doit avoir son administrateur ou administratrice des données, algorithmes et codes sources (l’équivalent d’un « chief data officer ») et définir sa feuille de route en la matière.

    https://communs.numerique.gouv.fr/communs/

    Y a t-il des freins à ces actions ?

    Comme dans tout changement, il y a naturellement des interrogations légitimes, et des résistances dues à une perte de contrôle : mes données ne sont pas assez bonnes ; eur qualité va-t-elle être critiquée ? Quels sont les risques que je prends ? Qu’est-ce qui va etre fait avec mes données ?…

    Ensuite, l’ouverture des données exige du temps et des moyens. Il faut bien comprendre que l’ouverture de ses données n’est pas le cœur de la mission d’une administration ; elle doit être accompagnée pour cela et on a peut-être trop longtemps sous-estimé ces besoins.

    Enfin, ouvrir la donnée ne suffit pas. Pour que cela soit un succès, il faut aussi stimuler la réutilisation de ces données, faire vivre au quotidien l’engagement d’un écosystème d’innovation.

    Le mouvement de l’ouverture des données publiques est-il bien engagé en France ? Dans tous les ministères ?

    Oui, tous les ministères, ainsi que bon nombre de leurs établissements sont engagés dans cette ouverture. Les feuilles de route des ministères en témoignent, et la France est pour la première fois cette année au tout premier rang des pays européens en matière d’open data !

    La crise sanitaire a permis de démontrer très concrètement, jusqu’au grand public, l’intérêt de l’ouverture des données pour l’information des citoyens. On a vu comment des tierces parties pouvaient s’emparer de ces données pour en proposer des usages, on a bien réalisé comment des données publiques ouvertes pouvaient devenir le socle de services publics ou privés avec de grandes utilités économiques et sociales. Mais il ne s’agit pas seulement d’ouvrir. A partir du moment où ces données sont utilisées, il faut aussi qu’elles restent à jour et de qualité, et il faut garantir leur pérennité.

    Nous considérons ainsi certaines donnée –  dites « de référence » parce qu’elles sont centrales et servent à identifier ou nommer des entités, par exemple la base nationale des adresses géolocalisées (BAN) – comme une véritable infrastructure, dans laquelle il faut investir et dont il faut assurer l’entretien collectif. C’est en cela que les mécanismes contributifs et la notion de « communs contributifs », auquel une communauté d’usage participe, prend tout son sens.

    Usage et enrichissement de la Base Adresse par les services de secours : Ici le SDIS 64

    Est-ce que cela va assez vite ? Partout ?

    Cela avance partout, même si pour certains ministères, cela va peut-être moins vite. Cela tient souvent à des niveaux de maturité numérique différents, de culture de la donnée plus ou moins forte. Dans certains domaines, il y a déjà une grande habitude de la donnée métier.

    Pour nous, l’objectif est que chacun s’autonomise. Certains services étaient pionniers, certaines collectivités parfois aussi, dès 2009, avant même les services de l’État.

    Au fur et à mesure que les administrations gagnent en maturité, notre rôle change, il est moins centralisateur, plus fédérateur : la mise en œuvre s’est naturellement distribuée et nous sommes plus dans l’accompagnement, tout en continuant à fixer le cadre d’action, à donner de grandes orientations, et à faciliter aussi les expérimentations.

    Où trouve-t-on les données ouvertes publiques ?

    En France, le point d’entrée est data.gouv.fr. Il ne se substitue pas aux différents sites et portails, mais il a vocation à recenser un maximum de données pour fournir un point d’entrée unique.

    Qu’est-ce que les communs numériques représentent pour vous ?

    L’open data n’est pas toujours le point de départ d’un commun, au sens d’une ressource numérique produite et gérée par une communauté. Dans de nombreux cas, l’administration – qui est la seule productrice – met à disposition des données telles qu’elle les a collectées et créées pour sa mission initiale, avec peu ou pas de « voie de retour » de la part des réutilisateurs.

    Par exemple, l’INSEE affecte à chaque entreprise un identifiant unique, le numéro SIREN, et les données des entreprises sont stockées dans une base de 13 millions d’établissements – le fichier Sirène – parmi les plus riches du monde. Ce répertoire est depuis 2017 en open data, mais il n’est pas pour autant un commun, l’INSEE en assure seul la production et la gestion. Cette mise à disposition est déjà très précieuse pour l’économie et la société, mais la notion de commun numérique emporte avec elle la notion de production et d’entretien collectifs.

    La base adresse nationale (BAN) commence à s’en rapprocher, avec des contributions des collectivités territoriales, de l’IGN, de la DGFIP, de l’Insee et d’une communauté d’acteurs qu’il faut parvenir à faire collaborer, autour de règles de gestion et d’usage partagées. La Base « Accès Libre », qui collecte et rend disponibles les données d’accessibilité des établissements recevant du public pour les personnes en situation de handicap (https://acceslibre.beta.gouv.fr/) en est un autre exemple.

    Les communs sont pleins de promesses et participent à la souveraineté. Mais il y a encore besoin de mieux tester et comprendre comment s’y prendre pour orchestrer au mieux leur fonctionnement quand il implique l’acteur public.

    Quelle gouvernance ? Par l’État ? Par qui ?

    Que l’État assure seul la gouvernance, ce n’est pas l’objectif. Il faut trouver d’autres formes de gouvernance, plus ouvertes, mêlant acteurs publics et la société civile, pour garantir l’intérêt collectif. Les modalités de ces associations sont encore souvent au stade de l’expérimentation.

    Est-ce qu’il y a un risque que le soufflé des communs publics retombe ?

    Ouvrir, c’est une première étape qui demande déjà beaucoup de travail. Ensuite pour passer à de l’enrichissement collaboratif et de la validation, c’en est une autre. Pour la première étape, la dynamique est lancée, l’utilité est démontrée. Pour la seconde étape, la complexité organisationnelle est claire. Mais je reste optimiste. C’est le bon moment parce que la question de la souveraineté pousse dans ce sens, et vient redynamiser le mécanisme d’ouverture.

    Et parmi les services autour de la donnée, vous considérez aussi des approches à partir de l’IA ?

    On aide les administrations à expérimenter dans le cadre de projets autour de l’IA. Cela ouvre le sujet de la transparence des algorithmes publics et de l’explicabilité des résultats. Cela vise à éviter des comportements de type boîte noire.

    On travaille aussi à ouvrir des bases de données d’apprentissage annotées, et à les partager avec des acteurs publics et privés, ainsi que des modèles d’apprentissage.

    Alors que de plus en plus d’algorithmes sont susceptibles d’être utilisés comme aide à la décision, pour attribuer des aides par exemple ou des places dans l’enseignement supérieur, il y a désormais des obligations légales de savoir expliquer comment ces modèles fonctionnent. Nous travaillons à accompagner les agents publics dans la mise en œuvre de ces obligations, dès la conception des systèmes jusqu’à leur documentation et aux réponses fournies aux usagers qui souhaiteraient comprendre.

    Serge Abiteboul, François Bancilhon

    [1] Rapport de la Mission Bothorel « Pour une politique publique de la donnée », 2020.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Modélisation des épidémies

    Un nouvel entretien autour de l’informatique. Samuel Alizon est directeur de recherche au CNRS. C’est un biologiste, spécialiste d’épidémiologie et d’évolution des maladies infectieuses. Il répond pour binaire aux questions de Serge Abiteboul et Claire Mathieu. Il nous parle des améliorations de nos connaissances en épidémiologie apportées par les travaux sur le Covid et du  difficile dialogue entre politiques et scientifiques.
    Samuel Alizon, biologiste, CNRS

    B : Pourrais-tu nous parler de ton parcours ?

    SA : J’ai toujours refusé de me spécialiser. Lors de mes études, j’ai travaillé en parallèle la biologie, que j’aimais bien, mais aussi les mathématiques et la physique, et je me suis retrouvé au CNRS. En France, les mathématiques sont une discipline très cloisonnée, et la biologie aussi. Mais, en fait, les maths sont utilisées en biologie depuis plus d’un siècle, avec par exemple la dynamique des populations. Mon activité de recherche se situe à cette interface entre biologie et mathématiques, sur les maladies infectieuses et la biologie de l’évolution.

    B : Tu n’as pas encore mentionné l’informatique ?

    SA : Par ma formation, je viens de la biologie mathématique avec papier et crayon. Ma thèse portait sur la caractérisation de ce qui se passe entre système immunitaire et parasites. Il n’y avait pas de données : c’était de la belle modélisation. Au début, j’utilisais surtout l’informatique pour des résolutions numériques, avec Mathematica par exemple.

    Puis j’ai été confronté à des données en écologie de l’évolution. Les implémentations informatiques sont essentielles dans ce domaine, qui s’intéresse aux populations et aux interactions entre individus plus qu’aux individus isolément. Pendant un deuxième postdoc, j’ai découvert les inférences d’arbres phylogénétiques à partir de séquences. Il s’agit de retracer l’histoire des populations à partir de données génomiques. C’est la révolution de l’ADN qui a permis cela. L’idée est que plus deux individus ou deux espèces ont divergé depuis longtemps, moins leur ADN se ressemble. Au final, on a aboutit à des objets qui ressemblent à des arbres généalogiques. Au début des années 80, ça se faisait à la main, mais aujourd’hui on fait des généalogies avec des dizaines de milliers de séquences ou plus.

    C’est un exemple parmi d’autres car aujourd’hui, l’informatique est devenue essentielle en biologie, en particulier, pour des simulations.

    B : Comment s’est passée ta vie de chercheur de biologiste au temps du Covid ?

    Quand l’épidémie est arrivée, on était en pleine recherche sur les papillomavirus. On s’est vite rendu compte des besoins en épidémiologie humaine en France. Début mars on reprenait les outils britanniques pour calculer, par exemple, le nombre de reproductions de base en France. Puis, comme les outils que nous utilisions au quotidien étaient assez bien adaptés pour décrire l’épidémie, nous avons conçu des modèles assez classiques à compartiments. Nous avons alors eu la surprise de voir qu’ils étaient repris, entre autres, par des groupes privés, qui conseillaient le gouvernement et les autorités régionales de santé. Du coup nous avons développé des approches plus ambitieuses, surtout au niveau statistique, pour analyser l’épidémie en France avec un certain impact .

    L’équipe a aussi passé un temps très conséquent à répondre aux journalistes, aux associations, ou au grand public, avant tout pour des raisons de santé publique. En effet, la diffusion des savoir est une des interventions dites “non pharmaceutiques” les plus efficaces pour limiter la croissance de l’épidémie. Donc, quand des collègues me demandaient ce qu’ils pouvaient faire, je leur répondais : expliquez ce qu’est une croissance exponentielle, un virus, une épidémie, et d’autres choses essentielles pour que chacun puisse comprendre ce qui nous arrive.

    Ce manque de culture scientifique et mathématique s’est malheureusement reflété à tous les niveaux en France. A priori, le pays avait toutes les cartes en main au moins dès le  3 mars 2020, quand le professeur Arnaud Fontanet explique la croissance exponentielle devant le président de la républiques, des ministres et des sommités médicales. La réaction attendra deux semaines plus tard et le rapport de l’équipe de Neil Ferguson à Imperial College. Au final, les approches aboutissaient à des résultats similaires mais celles des britanniques s’appuyaient aussi sur des simulations  à base d’ agents individuels, ce qui leur a probablement conféré plus d’impact. De plus, les britanniques avaient aussi mis en place depuis plusieurs années un processus de dialogue entre les épidémiologistes et le gouvernement.

    B : Pouvez-vous nous donner un exemple plus spécifique de tes travaux ?

    AS : Dans cette lignée des modèles agents, le plus impressionnant est sans doute EPIDEMAP. Cet outil qui repose massivement sur du calcul haute performance a été mis en place par Olivier Thomine, qui à l’époque était au CEA. Il utilise les données du projet OpenStreetMap.org qui propose des données géographiques en accès libre de manière très structurés. Pour la France, la base est très complète puisqu’elle contient le cadastre. Dans ce modèle, on répartit 66 millions d’agents dans des bâtiments. Chaque individu va chaque jour visiter deux bâtiments en plus du sien. On fait tourner cette simulation sur toute la durée d’une d’épidémie, soit environ un an. Grâce au talent d’Olivier, cela ne prend que 2 heures sur un bon ordinateur de bureau classique ! Pour donner une idée, les simulateurs existants ont une résolution moindre et ne peuvent gérer que quelques centaines de milliers d’agents. Ceci est entre autres permis par l’extrême parcimonie du modèle, qui parvient à décrire tout cela avec seulement 3 paramètres. Nous avons aidé Olivier à rajouter un modèle de transmission dans EPIDEMAP. Ceci a permis d’explorer des phénomènes épidémiques nationaux avec une résolution inégalée. Les extensions possibles sont très nombreuses comme par exemple identifier les villes les plus à risque ou élaborer des politiques de santé adaptées aux différences entre les territoires.

    B : Ces modèles sont-ils proches de ce qui se passe dans la réalité ?

    SA : Un modèle n’est jamais la réalité. Mais il est vrai que certains processus sont plus facilesfacile à capturer que d’autres. Par exemple, les modèles qui anticipent la dynamique hospitalière à court terme marchent assez bien : nos scénarios sont robustes pour des prédictions de l’ordre de cinq semaines sachant que dès que vous dépassez les deux semaines, la suite du scénario dépend de la politique du gouvernement. C’est pour cela que l’on préfère parler de “scénarios”. Évidemment, le domaine des possibles est immense et c’est pour cela qu’il y a une valeur ajoutée à avoir plusieurs équipes travaillant de concert et confrontant leurs modèles. En France, ce nombre est très réduit, ce qui renforce cette fausse idée que les modèles sont des prévisions. Au Royaume-Uni ou aux USA, bien plus d’équipes sont soutenues et les analyses rétrospectives sont aussi plus détaillées.. Par exemple, le Centers for Diseases Control aux USA permet de visualiser les vraies données avec les modèles passés pour les évaluer.

    B : Est-ce que tu te vois comme un modélisateur, un concepteur de modèles mathématiques ?

    SA : C’est une question. Je suis plutôt dans l’utilisation d’outils informatiques ou mathématiques existants que dans leur conception. Je fais des modèles, c’est vrai, mais l’originalité et la finalité est plus du côté de la biologie que des outils que je vais utiliser. Je me présente davantage comme biologiste.

    B : Qu’est-ce qu’un “bon” modèle d’un point de vue biologique ?

    SA : Ça dépend de l’objectif recherché. Certains modèles sont faits pour décrire. Car les données “brutes” ça n’existe pas : il y a toujours un modèle. D’autres modèles aident à comprendre les processus et notamment leurs interactions. Enfin, les plus médiatiques sont les modèles prévisionnels, qui tentent  d’anticiper ce qui peut se passer. Les modèles de compréhension et de prévision ont longtemps été associés mais de plus en plus avec le deep learning on peut prévoir sans comprendre.

    Notre équipe se concentre sur la partie compréhension en développant des modèles analytiques et souvent à compartiments. Pour cela, on peut s’appuyer sur des phénomènes reproductibles. Par exemple, on peut anticiper la croissance d’une colonie bactérienne dans une boîte de Pétri. Grâce aux lois de la physique, on sait aussi assez bien anticiper une propagation sur un réseau de contacts. Ce qui est plus délicat, c’est comment on articule tout cela avec la biologie. Le nombre d’hypothèses possibles est quasi infini. Ce qui guide l’approche explicative, c’est la parcimonie. Autrement dit, déterminer quels paramètres sont absolument nécessaires dans le modèle pour expliquer le phénomène en fonction des données qu’on possède ? Le but de la modélisation n’est pas de mimer la réalité mais de simplifier la réalité pour arriver à la comprendre.

    L’autre école en modélisation – pas la nôtre – consiste à mettre dans le modèle tous les détails connus, et avoir confiance en notre connaissance du système, pour ensuite utiliser la simulation pour extrapoler. Mais en biologie, il y a un tel niveau de bruit, de stochasticité, sur chacune des composantes que cela rend les approches super-détaillées délicates à utiliser. Les hypothèses possibles sont innombrables, et il n’y a pas vraiment de recette pour faire un “bon” modèle.

    Si on met quatre équipes de modélisation sur un même problème et avec les mêmes données, elles vont créer quatre modèles différents. Si les résultats sont cohérents, c’est positif, mais s’ils sont en désaccord, c’est encore plus intéressant. On ne peut pas tricher en modélisation. Il y a des hypothèses claires, et quand les résultats sont différents, ça nous apprend quelque-chose, quelles hypothèses étaient douteuses par exemple. Un modèle est faux parce qu’il simplifie la réalité et c’est ce qui nous fait progresser.

    B : Qu’est-ce que les modèles nous ont appris depuis le début de l’épidémie ?

    SA : En février 2020, l’équipe d’Imperial College, avec des modèles très descriptifs, faisait l’hypothèse d’une proportion de décès supérieure à 1% et ces décès survenaient en moyenne 18 jours après l’infection. Ça, c’est exact. Déjà à ce moment-là, on en savait énormément sur ce qui se passait avec des modèles très simples.

    L’équipe de Ferguson a aussi fait dans son rapport quelque chose qu’on fait rarement : en mars 2020 ils ont prolongé leur courbe jusqu’à fin 2021 pour illustrer la notion de “stop-and-go”. Dans leur simulation, entre mars 2020 et fin 2021, il y avait 6 à 7 pic épidémiques, et dans la réalité on n’en est pas très loin. On avait encore des modèles très frustes. Il est vrai qu’ils n’incluaient pas les variants. Pourtant, qualitativement leur scénario s’est révélé très juste. Autrement dit, si on avait un peu plus regardé ces modèles on aurait pu mieux se préparer au lieu de réagir au coup par coup.

    B : Cela pose la question de l’appropriation des résultats des scientifiques par les politiques.

    SA : Les rapports sont difficiles. Fin octobre 2020, à la veille du deuxième confinement, le président Macron a dit : “Quoi que nous fassions, il y aura 9 000 personnes en réanimation.” Quand on a entendu ça, on a été surpris. D’autant qu’il se basait a priori sur des scénarios de l’institut Pasteur. En réalité, comme toujours, il y avait plusieurs scénarios explorant des tendances si on ne faisait rien, si on diminuait les contacts de 10 %, de 20 %, etc. Mais c’était trop compliqué pour les politiques qui ont (seuls) choisi un des scénarios, celui où “on ne changeait rien”. Heureusement, dès qu’on prend des mesures, cela change les choses, et au final on a “seulement” atteint la limite des capacités nationales en réanimation (soit 5000 lits).

    Là où cette bévue est rageante, c’est qu’elle était évitable. En 2017 déjà, lors d’un séminaire à Santé Publique France, nous discutions de l’expérience des britanniques qui avaient conclu que la ou le porte-parole des scientifiques du projet devait absolument pouvoir parler directement à la personne qui décide ou, en tout cas, avec un minimum d’intermédiaires. Faute de quoi, à chaque étape les personnes qui ne connaissent rien au sujet omettent des informations critiques ou simplifient le tout à leur façon.

    Ce couac national met aussi en évidence un paradoxe. Lorsque dans le scénario le plus probable les choses se passent mal, une action est prise pour que ces anticipations ne se réalisent pas. Contrairement à  la météo, on peut agir pour influencer le résultat. C’est d’ailleurs un dilemme bien connu, en Santé Publique : si les mesures prises sont insuffisantes, de nombreuses morts risquent de se produire et on critiquera alors, à raison, le manque d’anticipation. Mais, à l’inverse, si on met en place tellement de mesures que toute catastrophe sanitaire est évitée, c’est l’excès de zèle et l’alarmisme qui seront pointées du doigt.

    Le début 2021 est un exemple tragique de ces liens difficiles entre modélisation et pouvoirs publics. Notre équipe, comme deux autres en France, détecte la croissance du variant alpha, dont on savait qu’il avait explosé en Angleterre. Le Conseil Scientifique alerte là-dessus début janvier. Le gouvernement refuse de confiner et reste sur les mesures de couvre-feu à 18h, plus télétravail, ce qui au passage concentre quasiment tous les défauts du confinement sans en avoir le bénéfice en termes de santé publique. Début janvier, cette position se défendait car impossible de savoir l’effet qu’aura une nouvelle mesure Mais fin janvier on avait du recul sur ce confinement à 18h et on voyait que ce ne serait pas suffisant pour empêcher l’explosion d’alpha. Le conseil a de nouveau alerté là-dessus fin janvier mais l’exécutif a persisté. Et en avril, à peu près à la date anticipée par les modèles, on a heurté le mur avec des services de réanimation au bord de la rupture.

    Impossible de savoir avec certitude ce qui se serait passé si le Conseil Scientifique avait été écouté. Les modèles mathématiques sont les plus adaptés pour répondre à cette question. Les nôtres suggèrent qu’avec un confinement de la même durée que celui d’avril mais mis en place dès février on aurait au minimum pu éviter de l’ordre de 14.000 décès. Après, il ne faudrait pas croire que la situation est plus rose ailleurs. Le Royaume-Uni a    à la fois les meilleurs modélisateurs et le meilleur système de surveillance de  l’épidémie au monde, et pourtant leur gouvernement a parfois pris des décisions aberrantes. À la décharge des gouvernants, comme nos scénarios explorent à la fois des hypothèses optimistes et pessimistes, il y a de quoi être perdu. Un des points à améliorer pour les modélisateurs est la pondération des scénarios. L’idéal serait même de mettre à jour leurs probabilités respectives au fur et à mesure que les informations se précisent.

    B : De quoi avez-vous besoin pour votre recherche ?

    SA : Les besoins en calcul sont de plus en plus importants. Mais on les trouve. Le temps disponible est une denrée bien plus rare. Enfin, il y a le souci de l’accès aux données. Avant la pandémie, notre équipe travaillait plutôt sur des virus animaux ou végétaux car les données sont plus facilement partagées. Dès qu’on touche à la santé humaine, les enjeux augmentent.

    B : Mais est-ce cela ne devrait pas encourager le partage des données ?

    SA : Aujourd’hui ce que les institutions de recherche mettent en avant c’est la concurrence qui encourage fortement le non-partage des données Nous avons initié des démarches auprès d’autorités publiques dès mars 2020 mais la plupart n’ont pas abouti. Évidemment il ne s’agit pas là de sous-estimer l’énorme travail de terrain qui a été fait et qui est fait pour générer et compiler ces données. Mais il est frustrant de voir que la majorité de ce travail n’est justement pas exploité au dixième de ce qu’il pourrait l’être. En tout cas, heureusement que des laboratoires privés et des Centre Hospitaliers Universitaires nous ont fait confiance. Coté recherche, cela a conduit à un certain nombre de publications scientifiques et coté santé publique nous avons fourni aux autorités les premières estimations de croissance des variants Delta ou Omicron en France. Mais on aurait pu faire tellement plus qu’on reste insatisfaits.

    Samuel Alizon, directeur de recherche CNRS

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • De la littérature à la culture numérique

    Un nouvel Entretien autour de l’informatique avec Xavier de La Porte, journaliste et producteur de radio. Il s’est spécialisé (entre autres) dans les questions de société numérique avec des chroniques quotidiennes comme “Ce qui nous arrive sur la toile” ou des émissions comme “Place de la Toile” sur France Culture et aujourd’hui “Le code a changé”, podcast sur France Inter. Il a été rédacteur en chef de Rue89. Il présente pour binaire sa vision de l’informatique et du numérique, celle d’un littéraire humaniste.

    Peux-tu nous dire d’où tu viens et comment tu t’es retrouvé spécialiste du numérique ? 

    C’est accidentel et contraint. J’ai suivi une formation littéraire, Normale Sup et agrégation, parce que j’aime la littérature. Mais l’enseignement et la recherche, ce n’était pas trop pour moi. Je me suis retrouvé à France Culture à m’occuper de société, de littérature, d’art. Quand Bruno Patino est devenu directeur de la chaîne, il m’a demandé de prendre en charge “Place de la Toile”, une émission un peu pionnière sur les cultures numériques. Je lui ai dit que le numérique ne m’intéressait pas. Il m’a répondu : “tu n’as pas le choix”. Il voulait que l’émission soit moins technique, ne soit plus réservée aux spécialistes et du coup, je lui paraissais bien adapté.

    Cet été-là, j’ai beaucoup lu, en grande partie sur les conseils de Dominique Cardon. J’ai découvert que c’était hyper passionnant. Pas les aspects purement techniques que je ne maîtrisais pas, mais le prisme que le numérique procurait pour regarder tous les aspects de la société. J’ai été scotché et depuis cette passion ne m’a jamais quitté.

    La contrainte journalistique que j’avais sur France Culture, c’était de parler à des gens qui aiment réfléchir (ils écoutent France Culture) mais qui sont souvent d’un certain âge et réticents à l’innovation technologique. Et ça tombait bien. Je n’y comprends rien, et l’innovation ne m’intéresse pas pour elle-même. Ma paresse intellectuelle et les limites de mes curiosités m’ont sauvé. Je ne me suis jamais “geekisé”. Bien sûr, avec le temps, j’ai appris. Je n’ai pas de culture informatique et mathématique et je reste très naïf devant la technique. Il m’arrive souvent de ne pas comprendre, ce n’est pas juste une posture. C’est sans doute pour cela que cela marche auprès du public qui, du coup, ne se sent pas méprisé ou auprès des personnalités que j’interviewe à qui je pose des questions simples que, parfois, elles ne se posent plus.

    Quels sont tes rapports personnels avec l’informatique ?

    Mon père était informaticien. Il avait fait à Grenoble une des premières écoles d’ingénieurs informatiques, au début des années 1970. Je ne voulais pas faire comme lui. Pourtant, j’ai passé pas mal de temps sur l’ordinateur de la maison, et pas que pour des jeux, bien que ma sœur ait été beaucoup plus douée que moi. Et je fais partie de cette génération qui a eu la chance d’avoir des cours d’informatique au lycée.

    En fait, je me suis rendu compte de tout ça quand j’ai commencé à animer “Place de la toile”, je me suis rendu compte que sans le savoir j’avais accumulé une culture informatique acquise sur le tas, mais acquise tout de même. Je pense que cette culture est indispensable aujourd’hui. Il faudrait inclure du numérique dans toutes les disciplines. Et il faut également enseigner l’informatique comme enseignement spécifique. Il faudrait que tout cela imprègne plus toute notre culture, et de manière réfléchie, historicisée, problématisée.

    Es-tu un gros consommateur de numérique ?

    Non. Je reste raisonnable même si je regarde beaucoup les nouveautés, par curiosité. Mais, comme beaucoup de gens, je subis. Je mets du temps à régler des problèmes tout bêtes comme une imprimante qui ne marche pas. J’essaie de comprendre et je perds beaucoup de temps. J’ai mis longtemps à passer au smartphone. Je ne voulais pas être collé à mon écran comme les autres. Ensuite, c’est devenu une forme de dandysme de ne pas en avoir. Il faut quand même dire que je ne suis pas très à l’aise avec tous ces outils. Je constate que ma copine, qui est d’une autre génération, les manipule avec beaucoup plus d’aisance.  Je le vis comme quelque chose d’exogène. Mais je pense que si ça ne mène pas à une technophobie un peu débile, cette distance n’est pas une mauvaise chose pour essayer de comprendre ce qui se passe.

    Et les réseaux sociaux ?

    Je pense que chaque réseau social a des particularités qui font qu’on s’y sent plus ou moins bien, que ce qui s’y passe nous intéresse plus ou moins. Je n’ai jamais été trop intéressé par Facebook. C’est un gros mélange un peu archaïque. On a des gens qui se causent, et des gens qui causent au monde. Je déteste Instagram qui me met mal à l’aise. C’est bourré de gens qui ne parlent que d’eux-mêmes, qui se mettent en scène en racontant la vie qu’ils voudraient avoir. Je n’aime pas dire ça, mais j’ai l’impression qu’il y a quelque chose de néfaste dans Instagram. On a beau savoir que c’est une mise en scène, cela pousse à une constante comparaison entre notre vie et celle des autres. TikTok, c’est tout autre chose ; je trouve cela assez génial. Les gens ne racontent pas leur vie, ils performent. Mais de tous les réseaux, celui que je préfère, c’est Twitter. C’est celui qui me convient et qui continue de me fasciner malgré tous les défauts qu’on peut lui trouver par ailleurs. C’est informationnel, c’est de la pensée. On ne s’étale pas.

    Est-ce que l’informatique transforme nos vies, notre société ?

    Qu’est-ce qui change ou qui ne change pas ? C’est la question qui m’obsède, la question centrale à laquelle j’essaie depuis toujours de répondre.

    En quoi la littérature est-elle transformée ? Ce n’est pas facile de faire rentrer un objet comme un téléphone ou un ordinateur dans un roman. Pourtant certains ont ouvert le chemin. Et puis la littérature change aussi parce qu’il y a Amazon, les écrans, les livres numériques, et plein de nouveaux trucs. Mais la littérature reste la littérature.

    Est-ce que des domaines changent ? Est-ce que nous-même nous changeons ?

    J’en suis arrivé à une conclusion pas très radicale : ça change mais en même temps ça ne change pas vraiment. J’ai une fille de quinze ans. Sa sociabilité est radicalement nouvelle par beaucoup d’aspects. Mais elle fait un peu la même chose que ce que les adolescentes font depuis longtemps. Elle passe par les mêmes phases. Nous sommes très différents des Grecs de l’époque classique. Pourtant, quand tu lis le début de la république de Platon, ça parle du bonheur ou d’être vieux, bref, ça parle de nous. Et les  questionnements de Platon nous touchent toujours.

    Bien sûr, tout cela ne peut pas être un argument pour dire que les choses ne changent pas. Ce serait juste débile. On doit chercher à comprendre ce qui est comme toujours et ce qui a changé. Les questionnements fondamentaux restent les mêmes finalement, quelles que soient les mutations.

    Tu n’as pas dit si tu considérais ces changements comme positifs ou pas.

    Les technologies, comme disait Bernard Stiegler, sont à la fois des poisons et des remèdes. En même temps, et c’est souvent comme cela avec les techniques. C’est une platitude de dire que certains aspects d’une technique peuvent être bons et d’autres néfastes. Bien sûr, certains réseaux sociaux sont plus toxiques que d’autres. Mais les réseaux sociaux en général n’ont pas que des aspects toxiques. Dire qu’en général les réseaux sociaux sont asociaux parce qu’ils ont été créés par des geeks. Non ! On ne peut pas dire cela. C’est juste simpliste. Les réseaux sociaux influencent notre sociabilité en bien et en mal, ils la transforment. Il faut apprendre à vivre avec eux pour bénéficier de leurs effets positifs sans accepter les négatifs.

    Est-ce que ces technologies transforment l’espace public ? Est-ce que le numérique est devenu un sujet politique ?

    On observe une vraie reconfiguration de l’espace public. La possibilité donnée à chacun d’intervenir dans l’espace public transforme cet espace, interroge. Le fait qu’internet permette à des gens qui ont des opinions minoritaires, radicales, de s’exprimer a des conséquences sur le fonctionnement même de la démocratie. Cela repose la question de la place des interventions des citoyens dans l’espace public, la question de savoir quelle démocratie est possible. Ce sont des vieilles questions mais pour bien comprendre ce qui se joue, il faut observer ce qui a changé.

    En cela, le numérique est devenu un sujet politique au sens le plus noble de la politique, et à plein de niveaux. Il pose aussi des questions de politique publique, de diffusion du savoir, de prise de parole. Par exemple, un détail, un aspect qui change la donne de manière extraordinaire : le numérique inscrit les opinions. Avant on avait des discussions et s’il y avait bien des prises de notes c’était un peu à la marge. Le temps passait et on n’avait que le souvenir des discussions. Aujourd’hui, on discute par écrit et on laisse plein de traces. Même quand c’est à l’oral, la discussion peut être enregistrée. On a toutes les traces. On peut retrouver ce que tu as dit des années après.

    Et puis le numérique soulève de nouvelles questions politiques comme la prise de décision par des algorithmes ou la cohabitation un jour avec des machines intelligentes. Est-ce qu’on peut donner un coup de pied à un robot ? C’est une question politique et philosophique, pas uniquement juridique.

    Que penses-tu des communs numériques ?

    Je me suis intéressé aux communs via le numérique. Des gens comme Philippe Aigrain, Valérie Peugeot ou Hervé Le Crosnier, m’ont sensibilisé au sujet. J’ai lu un peu l’histoire des communs, des enclosures. La notion est hyper belle, intéressante. On voit bien théoriquement comme cela pourrait résoudre de nombreux problèmes, et permettre de penser des questions très contemporaines. Pourtant, ça n’a pas énormément pris. Je ne peux pas expliquer pourquoi. La théorie est peut-être trop compliquée. Peut-être des concepts alternatifs voisins ont-ils occupé l’espace en se développant, comme la tiers économie, l’économie du partage. Mais je crois quand même qu’on pourrait développer cette notion de commun, en tirer beaucoup plus.

    Est-ce qu’il y a une particularité française dans le numérique ?

    Je n’ai pas vraiment réfléchi au sujet. Je vois un côté très français dans le rapport entre le monde intellectuel et le monde numérique. Cela tient peut-être à une forte dissociation en France entre sciences et technique d’un côté et le littéraire et les humanités de l’autre. Nos intellectuels aiment se vanter de ne pas être scientifiques. A l’Assemblée nationale, on adore citer des philosophes mais on affiche rarement une culture scientifique. La conséquence est une vision décalée du sujet numérique. On va demander à Alain Finkielkraut ce qu’il pense d’une question autour du numérique alors qu’il n’y connaît rien. On a mis du temps à vraiment prendre en compte une culture informatique. Dans les milieux académiques des humanités, s’il y a eu assez tôt des chercheurs qui se sont emparés du numérique dans de nombreuses disciplines, j’ai l’impression que l’enthousiasme est moindre aujourd’hui.

    Quelles sont les technos informatiques que tu trouves prometteuses, qui t’intéressent ?

    Évidemment, l’intelligence artificielle est fascinante. C’est une mine de questions passionnantes. Comment ça marche ? Qu’est-ce qu’on en attend ? Qu’est-ce qu’on est en droit d’en attendre ?

    En revanche, j’ai du mal à m’intéresser au métavers. C’est un truc qui est totalement créé par les grandes marques. Je n’ai jamais rien vu, dans le numérique, d’investi aussi vite par les marques. Internet est né comme un commun. Le métavers est dès l’origine dans un délire capitaliste.

    Est-ce que, dans ta carrière, certaines interviews t’ont particulièrement marqué ?

    Je pourrais en citer plein mais je vais me contenter de trois.

    Pour Bruno Latour, je m’étais bien préparé mais pas lui. Il a débarqué au dernier moment, cinq minutes avant le direct, et il ne s’attendait pas à parler de numérique. Il m’a dit qu’il n’avait rien à raconter là-dessus. J’ai commencé par raconter un article du Guardian, et Latour n’a cessé pendant toute l’émission de relier les questions que je lui posais à cet article. C’était passionnant, une vision intelligente de quelqu’un de brillant, qui commentait les questions numériques sans être un expert, d’un peu loin.

    Stéphane Bortzmeyer était à l’autre bout du spectre, quelqu’un de très proche du sujet, de la technique. Je craignais un peu qu’on n’y comprenne rien. Je m’attendais au pire après le premier contact au téléphone où il était très très laconique. Et l’émission démarre, et le mec sait être hyper clair, je dirais même lumineux. Un passeur de science extraordinaire avec toute son histoire, notamment politique.

    Et enfin, je voudrais citer Clarisse Herrenschmidt, une spécialiste des premières écritures qui venait d’écrire un livre “les trois âges de l’écriture” : l’écriture monétaire arithmétique, l’écriture des langues, et enfin l’écriture informatique. J’ai trouvé sa démarche intellectuelle hyper intéressante. J’ai pris énormément de plaisir à l’interviewer. Elle me faisait découvrir un domaine extraordinaire. Elle m’a mis en relation avec de nombreux chercheurs qui ont conduit à plusieurs de mes émissions. Depuis quinze ans, je me suis beaucoup “servi” de mes invités : souvent ils m’ont eux-mêmes indiqué d’autres personnes passionnantes qui sont en dessous des radars journalistiques. Comme le milieu informatique n’est pas mon milieu naturel, ça m’est très utile. Clarisse a été une des ces “sources”.

    Serge Abiteboul, Marie-Agnès Enard

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Le plus gros bug de l’histoire !

    Un bug ne se manifeste pas nécessairement dès l’instant où il est dans un système. Les bugs les plus discrets sont d’ailleurs souvent les plus dangereux. Quand ils surgissent, la catastrophe peut être terrible comme celle d’Ariane 5 en 1996, qu’on a qualifiée de bug le plus cher de l’histoire. Plus rares, il y a des bugs dont l’effet nuisible n’apparaît que lentement et progressivement, sans qu’on ose ou puisse les corriger et dont les conséquences désastreuses s’empirent jusqu’à devenir gravissimes. Celui dont nous parle ici Jean-Paul Delahaye est de ce type. Serge Abiteboul, Thierry Viéville.

    Il s’agit du bug dans le protocole de distribution de l’incitation du réseau Bitcoin, la fameuse cryptomonnaie. On va voir qu’il est bien pire que celui d’Ariane 5.

    Pour que le réseau Bitcoin fonctionne et fasse circuler en toute sécurité l’argent auquel il donne vie, il faut que des volontaires acceptent de participer à sa surveillance et à la gestion des informations importantes qu’il gère et qui s’inscrivent sur une « chaîne de pages », ou « blo

    Explosion du vol 501 d’Ariane V du à un bug informatique ©ESA.int

    ckchain ». Une rémunération a donc été prévue pour récompenser ces volontaires, appelés validateurs. Elle provient de nouveaux Bitcoins créés ex-nihilo et est distribuée toutes les 10 minutes environ à un et un seul des validateurs. Qu’il n’y en ait qu’un à chaque fois n’est pas grave car dix minutes est un intervalle court et donc la récompense est distribuée un grand nombre de fois — plus de 50000 fois par an. Reste que distribuer cette incitation pose un problème quand les ordinateurs ne sont pas obligés d’indiquer qui les contrôle, ce qui est le cas du réseau Bitcoin où tout le monde peut agir anonymement en utilisant des pseudonymes ou ce qui revient au même un simple numéro de compte.

    Distribuer l’incitation par un choix au hasard qui donne la même chance à chaque validateur d’être retenu serait une solution parfaite si tout le monde était honnête. Ce n’est pas le cas bien sûr, et un validateur pourrait apparaître sous plusieurs pseudonymes différents pour augmenter la part de l’incitation qu’il recevrait avec un tel système. Avec k pseudonymes un validateur tricheur toucherait l’incitation k fois plus souvent que les validateurs honnêtes. S’il apparaît sous mille pseudonymes différents, il toucherait donc mille fois plus qu’un validateur honnête… qui ne le resterait peut-être pas. Le réseau serait en danger. En langage informatique, on appelle cela une « attaque Sybil » du nom d’une patiente en psychiatrie qui était atteinte du trouble des personnalités multiples ou trouble dissociatif de l’identité. Plusieurs solutions sont possibles pour empêcher ces attaques, et le créateur du protocole Bitcoin dont on ne connait d’ailleurs que le pseudonyme, Satoshi Nakamoto, en a introduite une dans son système qu’au départ on a jugée merveilleuse, mais dont on a compris trop tard les conséquences désastreuses. Ces conséquences sont si graves qu’on peut affirmer que le choix de la méthode retenue et programmée par Nakamoto pour contrer les attaques Sybil est un bug.

    Sa solution est « la preuve de travail » (« Proof of work » en anglais). L’idée est simple : on demande aux validateurs du réseau de résoudre un problème arithmétique nouveau toutes les dix minutes. La résolution du problème exige un certain temps de calcul avec une machine de puissance moyenne, et elle ne s’obtient qu’en cherchant au hasard comme quand on tente d’obtenir un double 6 en jetant de manière répétée deux dés. Le premier des validateurs qui résout le problème gagne l’incitation pour la période concernée. Toutes les dix minutes un nouveau problème est posé permettant à un validateur de gagner l’incitation.

    Si tous les validateurs ont une machine de même puissance les gains sont répartis équitablement entre eux, du moins sur le long terme. Si un validateur utilise deux machines au lieu d’une seule pour résoudre les problèmes posés, il gagnera deux fois plus souvent car avec ses deux machines c’est comme s’il lançait deux fois plus souvent les dés que les autres. Cependant c’est acceptable car il aura dû investir deux fois plus que les autres pour participer ; son gain sera proportionné à son investissement. Il pourrait gagner plus souvent encore en achetant plus de machines, mais ce coût pour multiplier ses chances de gagner l’incitation impose une limite. On considère que ce contrôle des attaques Sybil est satisfaisant du fait que les gains d’un validateur sont fixés par son investissement. Il faut noter que celui qui apparaît avec k pseudonymes différents ne gagne rien de plus que s’il apparait sous un seul, car les chances de gagner sont proportionnelles à la puissance cumulée des machines qu’il engage. Qu’il engage sa puissance de calcul sous un seul nom ou sous plusieurs ne change rien pour lui. Avec la preuve de travail, il semble que la répartition des gains ne peut pas être trop injuste car si on peut améliorer ses chances de gagner à chaque période de dix minutes, cela à un coût et se fait proportionnellement à l’investissement consenti.

    Une usine de minage de bitcoin avec ces immense salles remplies d’unités de calcul ©AndreyRudakov/Bloomberg

    Le réseau bitcoin fonctionne selon le principe de la preuve de travail. Au départ tout allait bien, les validateurs se partageaient les bitcoins créés et mis en circulation à l’occasion de chaque période, sans que cela pose le moindre problème puisque leurs machines avaient des puissances comparables et que personne n’en utilisait plusieurs pour augmenter ses chance de gagner. La raison principale à cette situation est qu’en 2009 quand le réseau a été mis en marche, un bitcoin ne valait rien, pas même un centime de dollar. Investir pour gagner un peu plus de bitcoins n’avait pas d’intérêt. Cependant, petit à petit, les choses ont mal tourné car le bitcoin a pris de la valeur. Il est alors devenu intéressant pour un validateur de se procurer du matériel pour gagner plus souvent les concours de calcul que les autres. Plus la valeur du bitcoin montait plus il était intéressant de mettre en marche de nombreuses machines pour augmenter ses gains en gagnant une plus grande proportion des concours de calcul. Une augmentation de la capacité globale de calcul du réseau s’est alors produite. Elle n’a pas fait diminuer le temps nécessaire pour résoudre le problème posé chaque dix minutes, car Nakamoto, très malin, avait prévu un mécanisme qui fait que la difficulté des problèmes soumis s’ajuste automatiquement à la puissance totale du réseau. Depuis 2009, il faut dix minutes environ pour qu’un des ordinateurs du réseau résolve le problème posé et gagne l’incitation, et cette durée n’a jamais changée car le réseau est conçu pour cela.

    Du bitcoin à la blockchain : dans ce double podcast Jean-Paul prend le temps d’expliquer comment ça marche aux élève de l’enseignement SNT en seconde et au delà.

    Les validateurs associés parfois avec d’autres acteurs spécialisés dans la résolution des problèmes posés par le réseau — et pas du tout dans la validation — ont accru leurs capacités de calcul. La puissance cumulée de calcul du réseau a en gros été multipliée par dix tous les ans entre 2010 et maintenant. C’est énorme !

    Les spécialistes de la résolution des problèmes posés par le réseau sont ce qu’on nomme aujourd’hui les « mineurs » : ils travaillent pour gagner des bitcoins comme des mineurs avec leurs pioches tirent du minerai du sous sol. Il faut soigneusement distinguer leur travail de celui des validateurs : les validateurs gèrent vraiment le réseau et lui permettent de fonctionner, les mineurs calculent pour aider les validateurs à gagner l’incitation. Si parfois des validateurs sont aussi mineurs, il faut bien comprendre que deux type différents de calculs sont faits : il y a le travail de validation et le travail de minage.

    Entre 2010 et maintenant, la puissance du réseau des mineurs a été multipliée par 1011, soit 100 milliards. L’unité de calcul pour mesurer ce que font les mineurs est le « hash ». En janvier 2022, on est arrivé à 200×1018 hashs pas seconde, soit 200 milliards de milliards de hashs par seconde, un nombre colossal.

    Bien sûr les machines utilisées ont été améliorées et on a même fabriqué des circuits électroniques pour calculer rapidement des hashs, et on les perfectionne d’année en année. Cependant, et c’est là que le bug est devenu grave, même en dépensant de moins en moins d’électricité pour chaque hash calculé, on en a dépensée de plus en plus, vraiment de plus en plus ! La logique économique est simple : plus le cours du bitcoin est élevé —il s’échange aujourd’hui à plus de 30 000 euros— plus il vaut la peine d’investir dans des machines et d’acheter de l’électricité dans le but de miner car cela permet de gagner plus fréquemment le concours renouvelé toutes les dix minutes, et cela rentabilise les investissements et dépenses courantes du minage.

    Une concurrence féroce entre les mineurs s’est créée, pour arriver en 2022 à une consommation électrique des mineurs qu’on évalue à plus de 100 TWh/an. La valeur 50 TWh est un minimum absolument certain, mais 100 TWh/an ou plus est très probable. Sachant qu’un réacteur nucléaire de puissance moyenne produit 8 TWh/an, il y a donc l’équivalent de plus de 12 réacteurs nucléaires dans le monde qui travaillent pour produire de l’électricité servant à organiser un concours de calcul qui fixe toutes les dix minutes quel est le validateur qui gagne l’incitation. Je me permets d’insister : l’électricité n’est pas dépensée pour le fonctionnement en propre du réseau, mais uniquement pour désigner le validateur gagnant. Quand on étudie le fonctionnement du réseau bitcoin, on découvre qu’il y a au moins mille fois plus d’électricité dépensée par le réseau pour choisir le gagnant toutes les dix minutes, que pour son fonctionnement propre. S’il dépense beaucoup, c’est donc à cause de la preuve de travail, pas à cause de sa conception comme réseau distribué et bien sécurisé permettant la circulation des bitcoins.

    Est-ce que cette situation justifie vraiment de parler de bug ? Oui, car il existe d’autres solutions que la preuve de travail et ces autres solutions n’engendrent pas cette dépense folle d’électricité. La solution alternative la plus populaire dont de multiples variantes ont été proposées et mises en fonctionnement sur des réseaux concurrents du bitcoin se nomme « la preuve d’enjeu ». Son principe ressemble un peu à celui de la preuve de travail. Les validateurs qui veulent avoir une chance de se voir attribuer l’incitation distribuée périodiquement, engage une somme d’argent en la mettant sous séquestre sur le réseau où elle se trouve donc bloquée temporairement. Plus la somme mise sous séquestre est grande plus la probabilité de gagner à chaque période est grande. Comme pour la preuve de travail, avec la preuve d’enjeu il ne sert à rien de multiplier les pseudonymes car votre probabilité de gagner l’incitation sera proportionnelle à la somme que vous engagerez. Que vous le fassiez en vous cachant derrière un seul pseudonyme, ou derrière plusieurs ne change pas cette probabilité. Quand un validateur souhaite se retirer, il récupère les sommes qu’il a engagées ; ce qu’il a gagné n’est donc pas amputé par des achats de machines et d’électricité.

    Cette méthode ne provoque pas de dépenses folles en électricité et achats de matériels, car il n’y en a pas ! Avec des configurations équivalentes de décentralisation et de sécurisation un réseau de cryptomonnaie utilisant la preuve d’enjeu dépensera mille fois moins d’électricité qu’un réseau utilisant la preuve de travail. Il y a une façon simple d’interpréter les choses. La preuve d’enjeu et la preuve de travail limitent toutes les deux les effets des attaques Sybil en distribuant l’incitation proportionnellement aux engagements de chaque validateur —soit du matériel de calcul et de l’électricité, soit un dépôt d’argent —. Cependant la preuve d’enjeu rend son engagement au validateur quand il cesse de participer, et donc rien n’est dépensé pour participer, alors que la preuve de travail consomme définitivement l’électricité utilisée et une partie de la valeur des matériels impliqués. En un mot, la preuve de travail est une preuve d’enjeu qui confisque une partie des sommes engagées et les brûle.

    Avoir utilisé la preuve de travail, avec les conséquences qu’on observe aujourd’hui est de toute évidence une erreur de programmation dans le protocole du réseau du bitcoin. Le bug n’est apparu que progressivement mais il est maintenant là, gravissime. Le plus terrible, c’est qu’une fois engagé avec la preuve de travail le réseau bitcoin est devenu incapable de revenir en arrière. Corriger le bug alors que le réseau est en fonctionnement est quasiment impossible.

    En effet, le pouvoir pour faire évoluer la façon dont fonctionne du réseau, ce qu’on appelle sa gouvernance, est aux mains de ceux qui disposent de la puissance de calcul pour le minage. Ils ont acheté du matériel, installé leurs usines, appris à se procurer de l’électricité bon marché, ils ne souhaitent pas du tout que la valeur de leurs investissements tombe à zéro. Ils ne souhaitent donc pas passer à la preuve d’enjeu. La correction du bug est donc devenue très improbable. Aujourd’hui le réseau Ethereum qui est le second en importance dans cette catégorie essaie malgré tout de passer de la preuve de travail à la preuve d’enjeu. Il a beaucoup de mal à le faire et il n’est pas certain qu’il y arrive. Du côté du bitcoin rien n’est tenté. Sans interventions extérieures, le bug du bitcoin va donc continuer à provoquer ses effets absurdes.

    Est-ce le plus gros bug de l’histoire ? Celui d’Ariane 5 a été évalué à environ 5 millions de dollars. Si on considère, ce qui semble logique, que tout l’argent dépensé en minage représente le coût du bug du bitcoin alors c’est beaucoup plus, puisqu’en ordre de grandeur le minage depuis 2009 a coûté entre 5 et 10 milliards de dollars et peut-être plus. Le piège économique qui est résulté du bug est d’une perversité peut-être jamais rencontrée.

    Jean-Paul Delahaye,  Professeur d’informatique à l’université Lille-I

    Au delà :

    + La preuve de travail a d’autres inconvénients que celui mentionné ici de dépenser inutilement en électricité la production d’une dizaine de réacteurs nucléaires. Ces autres inconvénients sont présentés dans un document qui peut être vu comme un complément à ce texte :
    Jean-Paul Delahaye, Les arguments en faveur de la preuve d’enjeu contre la preuve de travail pour les chaines de bloc, Institut Rousseau, février 2022.

    Une tribune intitulée «Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie » portant sur le problème de la régulation des cryptoactifs a été publiée par Le Monde le jeudi 10 février 2022. Vous pouvez en voir le texte avec la liste des signataires et éventuellement ajouter votre signature en allant en : https://institut-rousseau.fr/liste-des-signataires-tribune-regulation-cryptoactifs/

     

     

  • Les géocommuns au service de la société

    Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Sébastien Soriano,  directeur général de l’Institut national de l’information géographique et forestière (IGN) depuis janvier 2021. Les cartes géographiques sont un élément essentiel des communs. C’est aussi l’occasion pour Sébastien Soriano de revenir sur certains thèmes de son livre récent [1], « Un avenir pour le service public »
    Sébastien Soriano en 2015. Wikipédia.

    Binaire : peux-tu raconter aux lecteurs de binaire ton parcours ?

    Sébastien Soriano : Je suis ingénieur des télécoms. J’ai travaillé dans des cabinets ministériels notamment sur la mise en place de la French Tech et du plan France Très Haut Débit. Et puis j’ai passé une partie de ma vie à travailler sur la concurrence, en particulier dans le domaine des télécoms comme Président de l’Arcep. Je me suis aussi investi sur l’Europe, comme président de l’agence européenne des télécoms, le BEREC. Enfin, j’ai écrit récemment un livre sur le service public[1], dont l’idée principale est assez simple : Il faut penser un « État augmenté ». Il faut sortir du débat dominant : faire comme avant mais avec plus de moyen pour l’État, ou de réduire le rôle de l’État en abandonnant certaines de ses responsabilités au privé. Je prône plutôt ce que j’ai appelé l’« État en réseau », un État qui construit des alliances avec des acteurs, collectivités locales, associations, collectifs citoyens, entreprises…, pour augmenter son impact et relever les nouveaux défis, en particulier écologiques.

    Cette réflexion m’a conduit à approfondir la notion de commun. A l’Arcep, j’avais poussé l’idée de voir les réseaux comme « biens communs », au service de tous. Cela m’a pris un peu de temps de comprendre qu’ils devaient être plus que cela, véritablement devenir des « communs » au sens où ils devaient être codéployés par une galaxie d’acteurs plus large que quelques grandes entreprises privées. C’est apparu clairement avec la 5G. Il est devenu évident qu’une large partie de la société devait être impliquée dans son déploiement, qu’elle devait être associée à l’action au-delà d’un simple rôle de spectateur.

    Interface d’édition d’OpenStreetMap

    b : Quelle est la place de l’Open data à l’IGN ?

    SSo : L’IGN, qui a une forte culture d’innovation, s’est bien informatisé avec l’arrivée des systèmes d’information géographiques. Si cette transformation avec l’informatique a été réussie, l’IGN a moins bien abordé sa transformation numérique. Quand vous avez vos données gratuites, vous augmentez vos capacités d’alliance. Le précédent modèle économique de l’IGN a fait de l’institut un « spectateur » de l’arrivée des modèles gratuits, de Google Maps, Google Earth, OpenStreetMap, etc.

    Pour la cartographie, un autre mouvement s’est combiné à cela en France. La Loi NOTRe, portant sur la nouvelle organisation territoriale de la République, reconnait depuis 2015 la place des régions pour coordonner l’information géographique au niveau local. Certaines collectivités ont maintenant de véritables « petits IGN » qui collectent des données, les analysent, les utilisent au service des politiques locales, souvent de manière très innovante.

    Pour ce qui est de l’IGN, l’institut a été pris dans un mouvement général du public dans les années 80-90 qui conduisait à monétiser ses données. La puissance publique demandait aux établissements de diversifier leurs sources de revenus, comme les musées l’ont fait, par exemple. Cela a freiné la capacité d’ouverture de l’IGN. Du coup, l’ouverture s’est faite très progressivement.

    A partir de 2010, les données sont devenues gratuites pour l’éducation et la recherche puis progressivement pour toutes les missions de services publics. En 2015, la loi Lemaire a généralisé cette gratuité à tous les organismes publics. Depuis le 1er janvier 2021, toutes les données de l’IGN sont ouvertes, en anticipant d’un an sur le calendrier prévu.  Seule la carte au 1 : 25 000, bien que gratuitement accessible en ligne, reste encadrée quant à sa réutilisation pour les usages grand public.

    Il faut voir que tout cela a conduit l’IGN à un profond changement de modèle économique, et aussi un changement de culture. L’institut n’est plus porté aujourd’hui que pour 10% de son budget par la vente de cartes ou de prestations commerciales. Ensuite, 45% correspondent à la SCSP – la subvention pour charge de service public. Il nous faut aller chercher les autres 45% sur des financements de projets publics de différents ministères. Nous sommes au service de la puissance publique. Mais on ne nous fait pas un chèque en blanc. Nous devons en permanence convaincre de l’utilité de ce que nous faisons.

    Carte de l’IGN, site web IGN, 2021.

    b : Peux-tu maintenant nous parler du futur ?

    SSo : Nous avons défini une nouvelle stratégie, « les géocommuns ». Et en fait, c’est  une démarche plus qu’une stratégie.

    L’IGN est un miroir tendu au territoire national pour se regarder et pour se comprendre. On doit bien-sûr poser la question : quelle est l’intention de ce miroir ?

    À une époque, les cartes étaient d’abord conçues dans des buts guerriers. Puis l’IGN, lancé dans les années 40, a accompagné l’aménagement du pays et sa reconstruction. Il nous faut aujourd’hui nous replacer dans deux grands bouleversements de nos sociétés : l’anthropocène, une transformation rapide, et la révolution numérique. Notre but est d’apporter à la nation des informations qui lui permettent de maitriser son destin dans ce double mouvement. Notre méthode, c’est de faire cela avec les autres services publics et en travaillant avec tous ceux qui veulent contribuer, par exemple avec des communautés comme OpenStreetMap.

    Réaliser une cartographie de l’anthropocène est un objectif ambitieux. Pour cela, il faut savoir mettre en évidence les transformations rapides voire brutales, et l’évolution de la planète. La carte au 1 : 25 000 décrit le territoire de manière statique. Nous devons décrire désormais des phénomènes comme la propagation hyper rapide de maladies forestières.  Si cela prend 25 ans, on risque de ne plus avoir de forêt à l’arrivée. Alors, on croise des sources, on s’appuie sur le monde académique, on utilise l’intelligence artificielle.

    L’expérimentation de contribution collective
    sur la « BD TOPO », Site Web IGN, 2021

    b : Pourrais-tu nous expliquer ce qu’est pour toi un commun ?

    SSo : La notion fondamentale est à mon sens la coproduction. Un commun, c’est une ressource, par exemple un ensemble de données, qui est coproduit. L’idée est de construire des communautés ad hoc suivant le sujet pour produire cette ressource ensemble. La gouvernance de la communauté est un aspect essentiel de la notion de commun.

    Pour certains, les communs doivent nécessairement être ouverts et gratuits, mais cela n’est pas forcément intrinsèque selon moi. De manière générale, il faut avoir une approche pragmatique. Si on est trop puriste sur l’idée de communs, il ne reste que les ZAD et Wikipédia. Bien sûr, dans l’autre direction, on voit le risque de commons washing. Selon moi, par exemple, une règle importante pour pouvoir parler de commun, c’est que la porte reste ouverte, que cela ne puisse pas être un club fermé. Tout le monde a droit d’entrer ou de sortir de la production. La gouvernance doit permettre d’éviter que le commun soit accaparé par quelques-uns.

    Je peux prendre un bel exemple qui illustre ces principes. Dans le cadre de la « Fabrique des géocommuns » que nous mettons en place, nous ouvrons un chapitre sur un service du style street view, une vue immersive, le petit bonhomme jaune de Google. Pour faire cela, Google fait circuler des véhicules dans toutes la France avec des capteurs. Nous n’avons pas les moyens de faire cela. Alors, nous allons chercher des partenaires, lancer un appel à tous ceux qui ont envie de faire cela avec nous et qui ont parfois déjà des données à mettre en commun. On va se mettre d’accord sur une gouvernance pour définir le régime d’accès aux données. En particulier, il faut choisir la licence : la licence Etalab 2.0 que l’IGN utilise pour le moment (une licence inconditionnelle) ou la licence ODbL utilisée par OpenStreetMap par exemple, qui spécifie que celui qui utilise les données doit accepter de partager ce qu’il en fait de la même façon.

    Qui va répondre ? On espère pouvoir compter sur OpenStreetMap. La communauté existe déjà, on n’a pas de raison d’en créer une nouvelle. Ils sont capables de se réunir à une dizaine de personnes pendant un weekend pour « faire » un arrondissement de Paris. Pas nous ! Mais nous espérons aussi attirer des entreprises qui travaillent pour des collectivités et ont déjà des mines de photos. Certains ont donné un accord de principe pour les mettre en commun.

    Il ne faut pas voir de concurrence entre ces mondes. Les données cartographiques en accès ouvert viennent massivement de données publiques. Les fonds de carte sur OpenStreetMap proviennent pour beaucoup de sources publiques. La foule est utile pour apporter des données complémentaires, qui ne sont pas dans ces données publiques.

    Après l’ouverture des données IGN au 1er janvier 2021, l’ambition est aujourd’hui de co-construire les référentiels de données, les services et les outils d’une information géographique au service de l’intérêt général. Avec les citoyens et pour les citoyens, avec les territoires et pour les territoires, c’est ça les géo-communs ! (Site web de l’IGN, 2021)

    b : Qu’est-ce qui se passe au niveau international pour les données cartographiques ?

    SSo : Cela bouge lentement. Les Suisses ont mis leurs données cartographiques en données ouvertes. Le cas des États-Unis est intéressant. La loi états-unienne ne permet pas de vendre des données publiques à des citoyens, parce que ceux-ci ont déjà payé en quelque sorte pour les construire, en payant leur impôt.

    b : Pourrais-tu nous parler maintenant du gouvernement ouvert ?

    SSo : Je milite dans mon livre pour une trilogie État-Marché-Commun parce que le duo État-Marché n’arrive plus à résoudre des problèmes qui sont devenus trop complexes. Il faut raisonner dans un jeu à trois. L’État participe avec sa légitimité, sa capacité de rassembler, sa violence légitime. Le marché apporte sa capacité à mobiliser des moyens financiers, sa capacité d’innovation. La société permet de faire participer les citoyens qui sont aujourd’hui plus éduqués, ont plus de temps libre, cherchent du sens à leurs actions.  Cette force sociale, on peut l’appeler les communs, même si l’utilisation de ce terme n’est qu’un raccourci.

    Le numérique apporte une puissance considérable pour accélérer les coopérations, les échanges. Mais c’est à mon avis restrictif que de se limiter au seul numérique. C’est pour cela que je n’aime pas trop le terme « open gov » parce qu’il est souvent compris comme se limitant au numérique.

    Prenez une initiative comme « Territoires zéro chômeurs longue durée ». Le constat de départ, c’est qu’il existe une frange de la population que, une fois écartée du marché du travail, on ne sait plus remettre sur ce marché. Il faut arriver à casser la spirale qui éloigne ces personnes du monde du travail. L’approche est de créer un tissu local qui leur trouve des emplois ; ce sont de vrais emplois pour ces personnes mais ces emplois ne sont le plus souvent pas rentables économiquement. Le rôle de l’État est de créer une tuyauterie financière, en s’appuyant sur une loi, pour réunir de l’argent qui est prévu pour cela et s’en servir pour financer en partie ces emplois. Après deux ans, ces ex-chômeurs retournent sur le marché du travail.

    Le rôle de l’État est de mettre tout le monde en réseau et de faire appel à des initiatives locales. Vous voyez, on n’est pas dans le numérique, même si le numérique est un outil qui peut être utile pour aider à mettre cela en place. Je crois qu’il faut plutôt le voir comme une coproduction permise par l’État en réseau.

    b : Deux questions. D’abord, on accorde selon toi trop d’importance au numérique dans la transformation de l’État.

    SSo : Oui. La transformation de l’État n’est pas juste une question numérique même si, bien sûr, le numérique a une place très importante à jouer.

    b : Ensuite, pour ce qui est de « Territoires zéro chômeurs longue durée », dans l’Économie Sociale et Solidaire, des initiatives semblables n’existaient-elles pas déjà avec des acteurs comme le Groupe SOS ou ATD Quart Monde ?

    SSo : Bien sûr. D’ailleurs, ATD Quart Monde est au cœur de ce dispositif. Mais l’associatif n’arrivait pas seul à régler ce problème. Il fallait l’idée de transformer les allocations chômages en revenus. Seul l’État pouvait faire cela. C’est selon moi le rôle de l’État. Mettre en place le mécanisme et, peut-être, coconstruire un réseau pour arriver ensemble à résoudre le problème.

    b : Un mot pour conclure ?

    SSo : Un sujet qui m’interpelle est la perte de légitimité des structures d’autorités, la puissance publique mais aussi les scientifiques. Les autorités naturelles ne sont plus reconnues. Je pense qu’il est important d’aller discuter avec les communautés sur les sujets qui fâchent. En particulier, l’administration doit accepter le dialogue. On change de paradigme. L’administration descend de son piédestal pour coconstruire avec d’autres même si ce n’est pas facile. C’est une nécessité pour l’administration qui peut ainsi retrouver une certaine légitimité.

    Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, serial entrepreneur

    Pour aller plus loin

    [1] Sébastien Soriano, Un avenir pour le service public, Odile Jacob, 2020.
    [2] IGN, Changer d’échelle, site web de l’IGN, 2021

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • La Chine et les communs numériques


    Stéphane Grumbach est directeur de recherche à Inria et enseignant à Sciences Po. Il a été directeur de l’IXXI, l’institut des systèmes complexes de la Région Auvergne Rhône Alpes. Il a été directeur du Liama, le laboratoire sino-européen en informatique, automatique et mathématiques appliquées de Beijing.  L’essentiel de sa recherche concerne les questions globales, et notamment comment le numérique modifie les rapports entre les nations et oriente les sociétés dans l’adaptation aux changements écosystémiques. Nous l’avons interviewé notamment pour mieux comprendre ce qui se passe en Chine autour du numérique et des communs numériques.

    Peux-tu nous parler de ton activité professionnelle actuelle ?

    Depuis quelques temps, je fais moins de technique et plus de géopolitique. Je m’intéresse au numérique et pour moi le numérique est un système de pouvoir qui implique de nouveaux rapports de force entre les personnes et les pays. Je reste fasciné par le regard que les Européens portent sur la Chine. Ils ne voient dans la stratégie chinoise que l’aspect surveillance de sa population alors que cette stratégie est fondée sur la souveraineté numérique. Les États-Unis ont aussi un système de surveillance du même type et les Américains ont bien saisi la question de souveraineté numérique.

    A l’École Normale Supérieure de Lyon, je travaille avec des gens qui étudient les systèmes complexes, sur la prise de conscience de changements de société causés par la transition numérique, ses imbrications avec la transition écologique. Il y a des anthropologues et des juristes ce qui me permet d’élargir mon horizon.

    Où est-ce qu’on publie dans ce domaine ?

    Ce n’est pas facile. Sur cet aspect, je regrette le temps où ma recherche était plus technique ; je savais alors précisément où publier. Par exemple, sur les aspects plus politiques du développement durable, il n’est pas facile de trouver le bon support.

    Emblème national de la République populaire de Chine

    Parle nous d’un de tes sujets de prédilections, la Chine.

    Je voudrais en préambule proposer une analyse globale de la situation. Contrairement à la vision qui mettrait la Chine d’un côté et le monde occidental de l’autre, le monde numérique se sépare entre Chine et États-Unis d’un côté et de l’autre l’Europe.

    Entre la Chine et les États-Unis, une différence est la liberté d’expression. Aux États-Unis, cette liberté fait l’objet du premier amendement de la constitution, c’est dire son importance. En Chine, le sujet n’existe pas. Il y a une forme de possibilité de critiquer, mais la critique doit se faire de biais, jamais directement. L’expression critique reste typiquement métaphorique, mais les Chinois la comprennent bien. Depuis l’ère Trump, les Américains ont essayé de bloquer le développement numérique chinois. Deux idées sont importantes : la souveraineté et l’extension extraterritoriale. Ce sont les bases du conflit États-Unis et Chine.

    Actuellement la tension monte de manière inquiétante. Des deux côtés, un processus de désimbrication intellectuelle et technologique est enclenché. C’est une mauvaise nouvelle globalement car c’est le chemin vers des conflits.

    La pensée numérique s’est beaucoup développée en Chine, qui est devenue depuis un certain temps précurseur au niveau mondial. Aux États-Unis, les liens entre l’industrie numérique et l’État sont importants, mais se cantonnent principalement à la sécurité. En Chine en revanche, cela va plus loin : le rôle stratégique des plateformes numériques est mieux reconnu et plus large, dans l’économie, le social, au-delà de la simple surveillance. C’est ce qui donne au pays une avance sur le reste du monde.

    La Chine est aujourd’hui dans une phase de définition des rapports de force entre les plateformes et l’État. Les États-Unis feront la même chose, mais probablement plus tard. Le dogme dominant aujourd’hui est que la régulation nuirait à l’innovation et à la sécurité nationale. En Chine, la définition de ces rapports est dictée par l’État : c’est une décision politique de l’État.

    Par ailleurs, on assiste actuellement à un durcissement politique en Chine, une baisse de la liberté de critique et une moins grande ouverture. L’instabilité sociale potentielle pousse à une politique de redistribution des richesses. Une forte régulation des plateformes a été lancée depuis l’arrêt brutal de l’IPO d’Ant Financial l’année dernière. Ces régulations touchent aussi les plateformes de la EdTech, avec des arguments de justice sociale également.

    Comment arrives-tu à t’informer sur la Chine ?

    C’est devenu plus difficile parce que malheureusement on ne peut plus y aller à cause de la politique de protection face au Covid. Mais il se publie beaucoup de choses en Chine qui sont accessibles.

    Est-ce qu’il y a des sites de données ouvertes en Chine ?

    Oui il y a par exemple des équivalents de data.gouv en Chine, beaucoup au niveau des provinces et des villes. En matière de données ouvertes, la politique chinoise est différente de celle que nous connaissons en Europe. Plutôt que d’ouvrir les données et d’attendre que des acteurs s’en saisissent, on procède en ciblant des acteurs précis pour réaliser des services innovants à partir potentiellement d’un cahier des charges, sous contrôle de l’administration publique. L’ouverture se fait dans le cadre d’appels d’offres comme c’est le cas, par exemple, à Shanghai. Bien sûr, comme ailleurs, on assiste à des résistances, des villes qui hésitent à ouvrir leurs données.

    Il faut aussi parler des expérimentations mettant en œuvre le social scoring, une notation sociale. Il s’agit de mesurer la “responsabilité citoyenne” de chacun ou de chacune, suivant les bonnes ou les mauvaises actions qu’il ou elle commet. C’est aujourd’hui très expérimental, mais différentes villes l’ont déjà implémenté.

    Il faut bien réaliser que la frontière entre espace public et privé est plus floue en Chine que chez nous. Par exemple, la circulation des voitures est monitorée et les PV sont mis automatiquement, ils sont visibles sur un site en ligne. Il faut avoir une vignette qui atteste de sa capacité à conduire et avoir bien payé ses PV. Cette approche est similaire à ce qui se pratique aux États-Unis avec le financial scoring qui est largement utilisé. Les Chinois sont globalement bienveillants face aux développements numériques et ils font preuve d’un “pragmatisme décontracté” à son égard. Les données personnelles ne sont pas accessibles à tous, et une nouvelle législation est entrée en vigueur au mois de novembre 2021, inspirée du RGPD.

    Le quartier général de Baidu, Wikipédia

    Est-ce qu’il y a des plateformes basées sur les communs numériques comme Wikipedia ou OpenStreetMap ?

    Oui des analogues existent. Il y a un équivalent de Wikipédia réalisé par Baidu, et des équivalents locaux d’OpenStreetMap. Sur les pages Wikipédia en chinois les points de vue ne sont pas toujours ceux des autorités. C’est parfois censuré mais les gens savent souvent contourner la censure.

    Et pour ce qui est des logiciels libres ?

    L’open source est relativement présent. La tech peut parfois avoir des accents libertaires qui la mettent en opposition avec les autorités. Mais l’État chinois sait se servir de l’open source en particulier comme outil de souveraineté numérique. Le système d’exploitation Harmony de Huawei (basé sur Android) est bien un enjeu de la lutte entre la Chine et les États-Unis pour la dominance technologique et le découplage des économies numériques.

    Plus généralement, que peut-on dire sur les communs numériques en Chine ?

    Il n’y aurait aucun sens à ne pas profiter de tels communs en Chine comme en France. D’ailleurs, ces communs sont fortement développés en Chine, plus que dans d’autres pays. Les données accumulées par les plateformes en Occident ne sont utilisées que par celles-ci pour un intérêt mercantile, au-delà de la sécurité. Mais ces données peuvent être vues comme des communs, dont l’usage doit être encadré bien sûr par exemple par l’anonymisation.

    Si on regarde bien, Google dispose de données stratégiques pour un grand nombre de sujets au-delà de la sécurité comme la santé, l’économie ou l’éducation. Pourtant aux États-Unis et en Europe, les relations entre l’État et les plateformes sont focalisées sur la sécurité. Cela fait passer à côté de nombreuses opportunités. En Chine, tous les sujets sont abordés en s’appuyant sur les services numériques, y compris par exemple la grogne sociale. Avec ces services, on peut détecter un problème régional et procéder au remplacement d’un responsable.

    La Chine construit une société numérique nouvelle, et exploite les données pour la gouvernance. En ce sens, elle est en avance sur le reste du monde.

    Et quelle est la place de l’Europe dans tout ça ?

    Pour l’Europe, la situation est différente. Contrairement à la Chine ou aux États-Unis, elle n’a ni technologie ni plateforme. Elle est donc dépendante sur ces deux dimensions et essaie de compenser par la régulation. Mais sa régulation est focalisée sur la protection de l’individu, pas du tout sur les communs ou l’intérêt global de la société. L’Europe n’a aucune souveraineté numérique et ses outils et services n’ont pas de portée extraterritoriale, parce qu’elle n’a pas d’outils de taille mondiale.

    Pour les Chinois, l’Europe n’existe plus : les cadres chinois voient l’Europe comme nous voyons la Grèce, une région qui a compté dans l’histoire mais qui ne pèse plus au niveau politique et stratégique, sympa pour les vacances. Je ne suis pas sûr que la vision des américains soit très différente de celle des Chinois d’ailleurs.

    La stratégie chinoise des routes de la soie, une infrastructure absolument géniale du gouvernement Chinois, contribuera d’ailleurs à augmenter la dépendance de l’Europe vis à vis de la Chine, à long terme peut-être dans un équilibre avec les États-Unis, voire dans une séparation de l’Europe dans deux zones d’influence comme c’était le cas pendant la guerre froide.

    Serge Abiteboul, Inria et ENS, Paris, & François Bancilhon, serial entrepreneur

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Pour un développement des IAs respectueux de la vie privée

    Une matinée d’étude sur les Intelligences Artificielles (IA)s et la vie privée a été organisée par les projets Digitrust et OLKi de Lorraine Université d’Excellence le 10 juin. Cette matinée, animée par Cyrille Imbert, philosophe des sciences au CNRS, était centrée sur la restitution de la charte « Pour un développement des IAs respectueux de la vie privée »  rédigée par Maël Pégny, chercheur à l’Université de Tübingen, lors de son post-doctorat à OLKi. La charte introduit un certain nombre de principes pour des IA respectueuses de la vie privée mais dont la mise en œuvre n’est pas toujours évidente et qui ont été discutés au cours des différentes interventions. Compte-rendu. Ikram Chraibi Kaadoud et Laurence Chevillot.
    Maël Pegny, Chercheur post-doctoral en Ethique en IA à l’Université de Tübingen, auteur de charte « Les 10 principes de l’éthique en IA »

    Pour Maël Pégny il s’agit de proposer aux développeurs et développeuses un cadre éthique et opérationnel permettant le respect de la vie privée par les IAs, en intégrant l’éthique dès les premières phases du développement. L’objectif de la charte est d’inciter les programmeurs et programmeuses à se positionner sur ces problématiques. Elle est dédiée essentiellement aux défis posés à l’éthique dès la conception par la reconstitution des données d’entraînement à partir de modèles d’IA  et le pouvoir prédictif trop fin.

    Contexte

    Dans un modèle d’apprentissage machine, la  distinction entre programme et données n’est pas claire car les paramètres du programme sont déterminés par entraînement sur une base de données particulières. Certaines attaques permettent une reconstitution des données d’entraînement à partir des informations encodées dans les paramètres du modèle : on parle alors de “rétro-ingénierie” des données. Si le modèle a été entraîné sur des données personnelles, on peut ainsi retrouver celles-ci, même si elles ont été détruites après l’entraînement du modèle. Donc si un modèle entraîné lambda est sous licence libre, ses paramètres  sont en libre accès. Il se pose alors la question  de la protection des données personnelles incluses dans le modèle. Ces attaques sur les modèles d’IA représentent donc un point de tension entre l’ouverture du logiciel et le respect de la protection des données personnelles. Cette tension devrait devenir un enjeu de positionnement pour les partisans du logiciel libre, des communs numériques et de la reproductibilité de la recherche. Ce problème éthique se pose dans la configuration technologique présente car, s’il existe des techniques de protection contre ces attaques de rétro-ingénierie, il n’existe pas de barrière de sécurité mathématiquement prouvée offrant une garantie absolue contre elles.

    L’intelligence artificielle au service des humains. ©Blurredculture.com

    Le développement d’un pouvoir prédictif trop fin de certains modèles d’IA peut également poser des problèmes éthiques complexes. Par exemple, un logiciel de complétion textuelle fondé sur l’apprentissage machine peut ainsi permettre de trouver le numéro de carte de crédit de l’utilisateur en tapant la phrase « Mon numéro de carte de crédit est… ». Là encore, cette attaque demeure possible même si on détruit les données brutes de l’utilisateur, parce que les informations personnelles ont été encodées dans le modèle durant son interaction avec l’utilisateur. Il s’agit bien d’un pouvoir prédictif trop fin, et d’ailleurs imprévu, car le logiciel de complétion est fait pour apprendre les pratiques d’écriture de l’utilisateur, et non ses données personnelles. Attention toutefois à ne pas confondre le problème de pouvoir prédictif trop fin avec la suroptimisation ou le phénomène de sur-apprentissage (l’apprentissage des données par cœur plutôt que de caractéristiques généralisables), car il peut survenir très tôt dans l’apprentissage. Pour protéger les données personnelles, il convient donc aussi de veiller au respect de sa spécification par le modèle d’apprentissage machine.

    La Charte: les 10 principes de l’éthique en IA

    Le triangle éthique avec les trois pôles d’une carte éthique @wikicommon
    HAL est une plateforme en ligne du CNRS, destinée au dépôt et à la diffusion de travaux de recherches (articles scientifiques, rapports techniques, manuscrit de thèse etc.) de chercheurs, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. L’accès aux données est libre et gratuit, mais pas nécessairement leur utilisation ou réutilisation. @Wikipedia

    La charte, disponible sur la plateforme HAL du CNRS au lien ici, énonce dix principes que l’on peut résumer ainsi :

    Principe 1 – Dans le cadre de recherches scientifiques, déclarer les finalités et l’extension nécessaire de la collecte, puis apporter une justification scientifique à tout écart à cette déclaration initiale, en discutant ces possibles impacts sur la vie privée .

    Principe 2 – Tester et questionner les performances finales du modèle par rapport à la finalité déclarée, et veiller à éviter l’apparition d’un pouvoir prédictif trop fin .

    Principe 3 –  Prendre en compte le respect de la vie privée dans l’arbitrage entre suroptimisation et perte de performances.

    Principe 4  – Entraîner son modèle sans faire usage de données personnelles. Si cela est impossible, voir les principes plus faibles 5 et 6.

    Principe 5 – Entraîner son modèle sans faire usage de données personnelles dont la diffusion pourrait porter atteinte aux droits des personnes.

    Principe 6 – Entraîner son modèle sans faire usage de données ayant fait l’objet d’un geste explicite de publication. 

    Principe 7  – Si le recours à des données personnelles est inévitable, déclarer les raisons justifiant ce recours, ainsi que les mesures prises contre la rétro-ingénierie des données et leur complétude par rapport à l’état de l’art.

    Principe 8 – Diffuser en licence libre tous les outils de lutte contre la rétro-ingénierie. 

    Principe 9 – Si le principe 8 n’entraîne pas de risque de sécurité intolérable, mettre le modèle à disposition de tous afin que chacun puisse vérifier les propriétés de sécurité, et justifier explicitement la décision prise.

    Principe 10 – La restriction de l’accès à un modèle entraîné sur des données personnelles ne peut être justifiée que par des enjeux d’une gravité tels qu’ils dépassent les considérations précédentes. Cette exception doit être soigneusement justifiée, l’emploi du modèle devant être réduit dans sa temporalité et ses modalités par les raisons justifiant l’exception. L’exception doit être justifiée en des termes prenant en compte la spécificité scientifique des modèles d’apprentissage machine, comme la capacité à apprendre en temps réel de grandes masses de données, l’opacité du fonctionnement et son évolution, et leurs performances comparées aux autres modèles.

    Pour être bien compris, ces principes appellent quelques commentaires: 

    Le premier principe est conçu pour encadrer la liberté donnée par le droit existant à la recherche scientifique de modifier la finalité du traitement et l’extension de la collecte des données, contrairement aux autres activités de développement où la collecte est restreinte à ce qui est nécessaire à une finalité pré-déclarée. Il s’agit d’instaurer une traçabilité des décisions d’extension de la collecte, et une prise en compte systématique de leurs risques en termes de respect de la vie privée.

    L’invitation à ne pas utiliser de données personnelles ne vise naturellement pas à interdire tout entraînement de modèle sur des données personnelles, qui est incontournable pour nombre d’applications de grand intérêt comme la recherche médicale. Il vise seulement à empêcher de considérer la collecte de données personnelles comme une évidence par défaut, et s’interroger sur la possibilité de stratégies de contournement employant des données moins problématiques.

    Les principes 5 et 6 ne peuvent être compris que si l’on voit que l’extension du concept de donnée personnelle est extrêmement large, un fait radicalement sous-estimé par le grand public. Elle comprend toute donnée concernant une personne physique (vivante). Non seulement cela n’est en aucun cas restreint à des données qu’on qualifierait intuitivement de « privées » ou « sensibles, » mais il comprend des données publiques par nature : par exemple, la phrase « Madame Diomandé est maire de sa commune. » comprend une donnée personnelle sur Madame Diomandé que personne ne songerait à qualifier de privée. Il convient donc de s’interroger sur la possibilité de restreindre la collecte des données personnelles à un sous-ensemble non-problématique.  L’exclusion des données considérées « sensibles », considérée dans le principe 5, fait l’objet de travaux techniques aux performances intéressantes, mais pose de redoutables problèmes de définition et d’opérationnalisation. La restriction aux données faisant l’objet d’un geste de publication explicite, explorée dans le principe 6, peut sembler une solution simple et pratique. Mais il convient de rappeler qu’une personne peut porter atteinte à la vie privée d’une autre dans ses publications, et que le geste de publication n’est pas un solde de tout compte pour le droit des données : l’exercice des droits à rectifier des informations erronées, à retirer une publication, à l’effacement (« droit à l’oubli ») et leurs difficiles opérationnalisations face aux modèles d’apprentissage machine posent de nombreux défis.

    La mise sous licence libre des outils de lutte contre la rétro-ingénierie (principe 7) et l’ouverture des modèles à la vérification (principe 8) constitue une forme d’approche libriste des modèles d’apprentissage machine : ces modèles doivent être ouverts à tous non seulement pour respecter les principes fondamentaux du logiciel libre, mais aussi pour vérifier leur respect de la vie privée. Cette ouverture pose cependant le problème redoutable du « vérificateur voleur » : en ouvrant ainsi les modèles à la vérification en l’absence actuelle de barrières de sécurité dures, on crée la possibilité d’atteintes à la vie privée. Nous ouvrons donc la possibilité de limiter l’application stricte des principes libristes dans le dernier principe : s’il est absolument indispensable d’entraîner un modèle sur des données personnelles sensibles, et que son ouverture à la vérification publique présentait un grave danger de « vérificateur voleur », il est possible de justifier une exception à la perspective libriste stricte. Il est légitime de craindre que l’introduction d’une exception ouvre la porte à la violation massive de la perspective libriste dans la pratique. Trancher la question d’une approche libriste stricte aurait cependant supposer de s’engager dans des débats philosophiques bien au-delà de la portée de cette charte. Doit-on par exemple autoriser l’entraînement d’un modèle de Traitement Automatique de la Langue sur des quantités énormes de données tirées des réseaux sociaux si cela permet de mieux suivre la progression d’une pandémie ? La charte a donc choisi de rester modeste, et d’ouvrir le débat en demandant avant tout à chacun de prendre position explicitement et honnêtement, en prenant en compte les risques politiques autant que techniques de chaque position. La charte a avant tout été conçue pour montrer que la conciliation du développement de l’apprentissage machine avec le respect de la vie privée pose un problème fondamental aux communautés du logiciel libre, des communs numériques et de la reproductibilité, et que ce problème mérite d’être discuté. Les principes de la charte sont introduits non pas tant pour susciter des adhésions que pour susciter des réactions et la discussion de cas, qui permettra un véritable retour sur expérience sur l’opérationnalisation de ces principes : il ne faut pas séparer opérationnalisation et question de principe.

    Une charte opérationnelle nécessaire .. mais de nombreuses questions encore en suspens

    Marc Anderson, philosophe et chercheur.

    Marc Anderson, philosophe canadien en post-doctorat au LORIA, spécialiste de l’éthique de l’IA et militant libriste (un libriste est une personne attachée aux valeurs éthiques véhiculées par le logiciel libre et la culture libre en général. @wikipedia), a noté qu’en général les chartes sont peu ancrées dans la réalité mais que cette charte a au contraire le mérite d’introduire des suggestions précises dans ses principes : une approche progressive dans l’exclusion des données, une mention directe des propriétés singulières des modèles de l’apprentissage automatique, l’incitation à entraîner les modèles sans données personnelles. Il souligne l’importance du contexte pour décider du niveau de protection des données personnelles (par exemple pour les cookies* des sites web, quelles sont les sociétés qui ont accès à nos données?), d’où l’importance de travailler directement avec les concepteurs d’IAs. 

    Les cookies des sites web sont de petits fichiers de texte qui sont enregistrés sur l’ordinateur d’un utilisateur à chaque fois qu’il visite un site. Ni logiciels espions ni virus, ils peuvent toutefois servir au pistage de l’activité internet d’un utilisateur.

    Maël Pégny a remarqué qu’un autre problème difficile à aborder est celui de l’inférence de données sensibles à partir de données publiques, que les capacités statistiques accrues de l’apprentissage automatique ont contribué à rendre plus fréquentes. On peut ainsi inférer avec une confiance forte votre orientation sexuelle à partir de vos activités sur les réseaux sociaux, ou votre état de santé, comme une possible maladie neuro-dégénérative, à partir de vos activités sur les moteurs de recherche. Comme le proposent un bon nombre de juristes, il devient nécessaire non seulement de reconceptualiser la portée et de lever les ambiguïtés de la notion de données personnelles, mais aussi d’étendre le droit au-delà des données brutes pour réguler les inférences.

    Bastien Guerry, militant libriste

    Bastien Guerry, militant libriste, remarque qu’un modèle d’apprentissage se rapproche plus d’un programme compilé et qu’il n’existe pas encore de bonnes pratiques de publication pour ce type d’objets. La publication des éléments entrant dans la construction d’un modèle crée un dilemme éthique : les licences libres visent à permettre à l’utilisateur de se réapproprier les codes sources pour lutter contre l’asymétrie de pouvoir entre les producteurs de logiciels et les utilisateurs, mais dans le cas de modèles d’IA, une telle publication entre en conflit avec le besoin de respecter la vie privée. Bastien Guerry note la difficulté de définir une éthique pour la production et la publication de modèles d’apprentissage. Si les données sont gardées secrètes se pose le problème de la reproductibilité des résultats. Si des données personnelles, même publiques, sont utilisées se pose le problème du consentement. Il indique aussi qu’il faut distinguer deux points de vue libristes sur le traitement des données personnelles. Une position forte, qui proscrirait de confier le traitement des données personnelles à un tiers. Une position souple, qui autoriserait de confier des données à un tiers de confiance si celui-ci s’engage à respecter un cadre éthique*. La charte n’est pas acceptable du point de vue de la position forte.

     Les positions forte et souple sont défendues respectivement par Richard M.  Stallman, fondateur du mouvement du logiciel libre, et Bastien Sibille, président et fondateur de Mobicoop, une plateforme coopérative de covoiturage.  Voir le débat sur les logiciels libres et les plateformes coopératives.

    Daniel Adler, mathématicien et philosophe français.

    Daniel Andler, professeur émérite de philosophie à Paris-Sorbonne et membre de l’Académie des sciences morales et politiques, considère que la charte a pour principale vertu de susciter des réactions. Comme désormais toute donnée publique est trouvable et exploitable, faut-il accepter que le domaine privé a disparu ? Il suggère de développer une éthique pratique de terrain non généralisable, pour arbitrer chaque cas.  L’approche d’éthique dès la conception laissée à elle-même est insuffisante : il faut également proposer des mesures de répression du mauvais usage de l’IA. Pour Maël Pégny, une telle remarque est compatible avec l’esprit de la charte. Celle-ci insiste en introduction sur l’impossibilité de résoudre tous les problèmes éthiques en amont, et sur la nécessité d’empêcher les institutions d’utiliser le label « éthique dès la conception » comme un blanc-seing (Feuille blanche sur laquelle on appose sa signature et que l’on confie à quelqu’un pour qu’il la remplisse lui-même @Larousse) les protégeant à l’avance de toute critique. Le développement éthique doit être pensé sur tout le cycle de vie du logiciel, et comprendre un retour sur expérience incluant les problèmes éthiques imprévus rencontrés après le déploiement : c’est l’une des principales raisons pour laquelle la charte invite à ne séparer discussion de principe et discussion de l’opérationnalisation.

    Le mouvement du libre a incité des développeurs à prendre conscience de la responsabilité qu’ils ont dans le respect des libertés des utilisateurs ; un mouvement éthique comparable doit naître pour inciter les datascientistes à respecter la vie privée des personnes dont ils manipulent les données.