Imaginez-vous élu ou agent d’une collectivité territoriale. Vous devez vous assurer de pouvoir fournir une information administrative officielle et sûre à vos usagers. Et si votre moteur de recherche pouvait vous aider dans cette tâche ? Unsearch, projet de startup accompagné par le Startup Studio Inria, propose depuis 2020 « Sources de confiance », une technologie et une extension facile à installer et qui affiche les résultats de votre requête en distinguant celles provenant de sources officielles (administration, établissements publics ou universitaires). Tristan Nitot, figure majeure du web et de l’Open-Source, fait partie de cette aventure et nous l’explique avec enthousiasme. Tristan a fondé l’association Mozilla Europe en 2003. Depuis il a travaillé pour Cozy Cloud (une plateforme auto-hébergée, extensible et open source de cloud personnel) et Qwant (un moteur de recherche Européen qui ne trace pas l’activité de ses utilisateurs) jusqu’en mars 2020.
Binaire : Raconte-nous l’histoire d’Unsearch ?
Tristan Nitot : C’est une histoire très récente. Le projet de startup Unsearch a été lancé début 2020 par un copain, Jean-Baptiste Piacentino (aka JB), qui a travaillé en collaboration avec l’association Villes Internet et un financement de la Banque Française Mutualiste sur un produit permettant d’optimiser la qualité et l’usage des informations données aux usagers en facilitant l’accès aux informations officielles des administrations. Sources de confiance (SdC pour faire court) a vu le jour. En janvier 2021, j’ai rejoint JB pour lancer la V2 et en avril, nous étions soutenus par le Startup Studio Inria pour accompagner la création d’une startup.
B : Il va falloir nous dire ce que fait « Sources de confiance ».
TN : C’est une extension qu’on installe facilement dans son navigateur (aujourd’hui, nous supportons Google, Qwant et Bing) et qui permet de préciser parmi les réponses du moteur de recherche celles qui viennent d’une source considérée comme fiable. Cela ne change pas les habitudes des usagers. Une marque verte, apparaissant à droite de chaque source fiable, comme l’illustre la capture d’écran ci-dessous.
En cliquant sur un onglet (ajouté par l’extension) vous pouvez ne conserver que les résultats validés par SdC. Vous affichez ainsi uniquement les sites officiels de l’administration.
Cette technologie modifie donc à la volée le contenu de votre affichage. Lors de votre recherche, la connexion se fait sur le serveur d’Unsearch qui va trier les pointeurs correspondants à la requête dans une “liste blanche”. Cette liste de 65 000 sites de l’administration, d’établissements publics et universitaires a été concoctée par SdC avec l’aide de l’association Villes Internet et correspond aux besoins des usagers des collectivités.
Unsearch ne modifie pas le classement des pages basé sur la popularité proposé par Google, mais permet de filtrer parmi ces pages celles qui sont considérées comme fiables. Même si la première page n’apparaît que dans la deuxième ou troisième page de résultats Google, elle est facilement accessible.
Une version pro est en phase finale de développement qui permettra aux collectivités d’afficher des ressources informatives supplémentaires comme l’annuaire des administrations, les textes de références types juridiques, et l’actualité des sites administratifs, un peu à la manière des infobox de Google, sur la base d’un moteur de recherche spécialisé que nous concevons.
B : A qui s’adresse cet outil ?
TN : Unsearch a développé Sources de confiance spécifiquement pour un public d’élus et d’agents des collectivités mais la technologie proposée permet de créer une large gamme de moteurs de recherche spécialisés. Par exemple, on pourrait considérer un outil pour des enseignants à la recherche de contenus pédagogiques certifiés, un autre pour des personnels de santé pour des informations médicales fiables, un autre pour des chercheurs d’emplois pour accéder à des sites appropriés. Unsearch a aussi des connecteurs permettant aux entreprises et établissements publics d’utiliser le moteur de recherche habituel pour exposer des informations pertinentes provenant de leurs intranets.
B : Tu nous as habitué à chercher du sens dans les logiciels pour lesquels tu travailles. Quel sens doit-on chercher dans Unsearch ?
TN : Je suis attaché à la notion de confiance et d’éthique. Avec JB nous sommes tous les deux très sensibles à des projets qui donnent aux usagers des informations qui les aident à mieux sensibiliser ou éclairer les usages. Nous avons évidemment envie que Unsearch soit viable économiquement mais nous mettons en priorité certaines valeurs éthiques et d’utilité publique. On ne se refait pas !
Serge Abiteboul, Inria et ENS, Paris, et Marie-Agnès Enard, Inria
Nous vous invitons à partager les réflexions déambulatoires de Sylvain Petitjean et Samuel Nowakowski à l’occasion de la parution du livre « Demain est-il ailleurs ? Odyssée urbaine autour de la transition numérique ». La qualité de leurs échanges et de leurs questionnements sur l’impact du numérique dans notre société nous ont donné envie de les partager sur binaire. Avec l’aimable autorisation des auteurs et du site Pixees, nous republions l’intégralité de l’article. Marie-Agnès Enard et Thierry Vieville.
Ce texte est un échange épistolaire qui s’est installé suite à la parution du livre «Demain est-il ailleurs ? Odyssée urbaine autour de la transition numérique» co-écrit par Bruno Cohen, scénographe, réalisateur et metteur en scène, et Samuel Nowakowski, maître de conférences à l’université de Lorraine et chercheur au LORIA.
Paru en octobre 2020 chez FYP Editions, ce livre rassemble les rencontres avec celles et ceux qui vivent aujourd’hui cette transformation radicale. Au cours d’une déambulation de 24 heures dans la ville, les personnes rencontrées abordent les notions de temps, parlent du déséquilibre, de leurs incertitudes et du mal-être, mais aussi de leurs émerveillements et de leurs rêves. Elles questionnent des thèmes centraux de notre société que sont la surveillance, le contrôle, le développement d’un capitalisme numérique prédateur. Elles parlent aussi de cet ailleurs des pionniers qui s’est matérialisé dans nos sociétés en réseau, traversées par les nécessaires réflexions à mener sur l’éthique, l’écologie, l’apprentissage, la transmission et le rapport au savoir. Arpentant l’univers de la ville à la recherche de la transition, nous découvrons petit à petit qu’elle s’incarne sous différentes formes chez les uns ou les autres, dans l’espace public et privé, et dans tous les milieux au sein desquels nous évoluons — naturels, sociaux, politiques, éducatifs, technologiques…
Sylvain et Samuel ont souhaité poursuivre la conversation entamée dans le livre, ouvrant ainsi d’autres champs de réflexion. Cet échange s’est étalé sur plusieurs semaines, sous forme épistolaire, dans des conditions temporelles à rebours de l’urgence et de l’immédiateté ambiante. En voici le contenu.
Samuel : L’éthique kantienne sur laquelle notre société moderne s’est construite, s’énonce ainsi : « Agis de telle sorte que tu puisses également vouloir que ta maxime devienne loi universelle ». Or aujourd’hui, au vu des enjeux, des transitions multiples auxquelles nous faisons face, ne sommes-nous pas devant un besoin de disposer d’une éthique basée sur le principe de responsabilité à l’égard des générations futures et de notre environnement. Hans Jonas énonce le Principe responsabilité : « Agis de telle façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur Terre ». Ce qui implique que le nouveau type de l’agir humain consiste à prendre en considération davantage que le seul intérêt « de l’homme » et que notre devoir s’étend plus loin et que la limitation anthropocentrique de toute éthique du passé ne vaut plus ?
Dans le cadre du numérique, et de tout ce qui se présente à nous aujourd’hui en termes d’avancées scientifiques, dans le domaine qui est le nôtre, ne devons-nous pas repenser ce rapport au vivant et nos pratiques ?
Sylvain : Il est vrai qu’il n’est plus possible de considérer que les interventions techniques de l’humain sur son environnement sont superficielles et sans danger, et que la nature trouvera toujours comment rétablir elle-même ses équilibres fondamentaux. La crise écologique et les menaces pesant sur l’humanité et la planète impliquent quasi naturellement, pour Jonas et d’autres, d’orienter l’agir vers le bien commun en accord avec notre sentiment de responsabilité. D’où la proposition de refonder l’éthique comme une éthique de la responsabilité et du commun capable d’affronter l’ampleur des problèmes auxquels fait face la civilisation technologique, pour le bien-être et la survie des générations futures.
Les technologies du numérique présentent par ailleurs un autre défi de taille, probablement inédit, du point de vue de l’éthique. Cela a notamment trait à la logique grégaire associée à l’usage des services Internet : plus un service est utilisé par d’autres usagers, plus chacun trouve intéressant de l’utiliser parce qu’il peut en obtenir davantage d’informations et de contacts, créant un effet boule de neige. Cet «effet de multitude», comme l’ont baptisé les économistes, transforme en effet l’étendue et la nature des enjeux éthiques. Alors que l’éthique est usuellement un sujet qui arrive a posteriori du progrès, dès lors que des dérives sont constatées, il sera de plus en plus difficile, avec la démultiplication des possibilités et le changement d’échelle, d’être avec le numérique dans la réaction face à un problème éthique. En d’autres termes, les problématiques éthiques et juridiques vont devenir insolubles si on ne les traite pas en amont de la conception des technologies numériques (ethics by design). Cela dessine les contours d’une éthique plus proactive, en mesure d’accompagner de façon positive le développement et l’innovation.
Malheureusement, nous n’en sommes vraisemblablement qu’aux balbutiements de l’étude et de la maîtrise de ces questions dans le domaine du numérique. Il suffit de faire un pas de côté en direction de la biomédecine et des biotechnologies et de mesurer le chemin parcouru autour des lois de bioéthique pour s’en convaincre. Or le temps presse…
Samuel : Imprégnés de l’actualité qui est la nôtre, et en paraphrasant Tocqueville, « on ne saurait douter [qu’aujourd’hui] l’instruction du peuple serve puissamment [à la compréhension des enjeux de notre temps qu’ils soient politiques, technologiques, écologiques]. [N’en sera-t-il pas] ainsi partout où l’on ne séparera point l’instruction qui éclaire l’esprit de l’éducation qui règle les mœurs ? » La maîtrise de toutes ces questions ne doit-elle pas passer par cette nécessaire instruction du plus grand nombre ? Comment nous préserver du fossé qui risque de se creuser entre ceux qui sont instruits de ces enjeux et ceux qui n’y ont pas accès parce qu’ils font face à un horizon scolaire et social bouché ? Or, la méthode la plus efficace que les humains ont trouvée pour comprendre le monde (la science) et la meilleure façon qu’ils ont trouvée afin d’organiser le processus de décision collective (les modes démocratiques) ont de nombreux points communs : la tolérance, le débat, la rationalité, la recherche d’idées communes, l’apprentissage, l’écoute du point de vue opposé, la conscience de la relativité de sa place dans le monde. La règle centrale est d’avoir conscience que nous pouvons nous tromper, de conserver la possibilité de changer d’avis lorsque nous sommes convaincus par un argument, et de reconnaître que des vues opposées aux nôtres pourraient l’emporter.
Malheureusement, à l’école, les sciences sont souvent enseignées comme une liste de « faits établis » et de « lois », ou comme un entraînement à la résolution de problèmes. Cette façon d’enseigner s’oppose à la nature même de la pensée scientifique. Alors qu’enseigner, c’est enseigner l’esprit critique, et non le respect des manuels ; c’est inviter les étudiants à mettre en doute les idées reçues et les professeurs, et non à les croire aveuglément.
Aujourd’hui, et encore plus en ces temps troublés, le niveau des inégalités et des injustices s’est intensifié comme jamais. Les certitudes religieuses, les théories du complot, la remise en cause de la science et de la démocratie s’amplifient et séparent encore plus les humains. Or, l’instruction, la science et la pensée doivent nous pousser à reconnaître notre ignorance, que chez « l’autre » il y a plus à apprendre qu’à redouter et que la vérité est à rechercher dans un processus d’échange, et non dans les certitudes ou dans la conviction si commune que « nous sommes les meilleurs ».
L’enseignement pour permettre [la compréhension des enjeux de notre temps qu’ils soient politiques, technologiques, écologiques] doit donc être l’enseignement du doute et de l’émerveillement, de la subversion, du questionnement, de l’ouverture à la différence, du rejet des certitudes, de l’ouverture à l’autre, de la complexité, et par là de l’élaboration de la pensée qui invente et qui s’invente perpétuellement. L’école se caractérise ainsi à la fois par la permanence et l’impermanence. La permanence dans le renouvellement des générations, le « devenir humain », l’approche du monde et de sa complexité par l’étudiant sur son parcours personnel et professionnel. L’impermanence, dans les multiples manières de « faire humain »… et donc dans les multiples manières d’enseigner et d’apprendre. Entre permanence et impermanence, la transition ?
Sylvain : En matière d’acculturation au numérique et plus globalement d’autonomisation (empowerment) face à une société qui se technologise à grande vitesse, il faut jouer à la fois sur le temps court et le temps long. Le temps court pour agir, pour prendre en main, pour ne pas rester à l’écart ; le temps long pour réfléchir et comprendre, pour prendre du recul, pour faire des choix plus éclairés.
Daniel Blake, ce menuisier du film éponyme de Ken Loach victime d’un accident cardiaque, se retrouve désemparé, humilié face à un simple ordinateur, point de passage obligé pour faire valoir ses droits à une allocation de chômage. Où cliquer ? Comment déplacer la souris ? Comment apprivoiser le clavier ? Ces questions qui semblent évidentes à beaucoup le sont beaucoup moins pour d’autres. La dématérialisation de la société est loin d’être une aubaine pour tous. Prenons garde à ce qu’elle ne se transforme pas en machine à exclure. L’administration — dans le film — fait peu de cas de ceux qui sont démunis face à la machine ; on peut même se demander si ça ne l’arrange pas, s’il n’y a pas une volonté plus ou moins consciente d’enfoncer ceux qui ont déjà un genou à terre tout en se parant d’équité via l’outil numérique. Daniel Blake, lui, veut juste pouvoir exercer ses droits de citoyen et entend ne pas se voir nier sa dignité d’être humain. De la fable contemporaine à la réalité de nos sociétés il n’y a qu’un pas. Réduire la fameuse fracture numérique, qui porte aujourd’hui encore beaucoup sur les usages, doit continuer d’être une priorité qui nécessite de faire feu de tout bois et à tous les niveaux. Et il faut absolument s’attacher à y remettre de l’humain.
Mais ce n’est pas suffisant. Les politiques d’e-inclusion doivent aussi travailler en profondeur et dans le temps long. De même que l’on associe au vivant une science qui s’appelle la biologie (qui donne un fil conducteur permettant d’en comprendre les enjeux et les questions de société liées, et de structurer un enseignement), on associe au numérique une science qui est l’informatique. Pour être un citoyen éclairé à l’ère du numérique et être maître de son destin numérique, il faut pouvoir s’approprier les fondements de l’informatique, pas uniquement ses usages. « Il faut piger pourquoi on clique » disait Gérard Berry. Car si les technologies du numérique évoluent très vite, ces fondements et les concepts sur lesquels ils s’appuient ont eux une durée de vie beaucoup plus grande. Les maîtriser aujourd’hui, c’est s’assurer d’appréhender non seulement le monde numérique actuel mais aussi celui de demain. Y parvenir massivement et collectivement prendra du temps. Le décalage entre la culture informatique commune de nos contemporains et ce que nécessiteraient les enjeux actuels est profond et, franchement, assez inquiétant, mais sans surprise : la révolution numérique a été abrupte, l’informatique est une science jeune, il faut former les formateurs, etc.
Conquérir le cyberespace passe aussi par le fait de remettre à l’honneur l’enseignement des sciences et des techniques, à l’image du renouveau dans les années cinquante impulsé par les pays occidentaux confrontés à la « crise du Spoutnik » et à la peur d’être distancés par les Soviétiques dans la conquête spatiale, comme le rappelle Gilles Dowek. Or la révolution scientifique et technologique que nous vivons est bien plus profonde que celle d’alors. Et il importe de commencer à se construire une culture scientifique dès le plus jeune âge, à apprendre à séparer le fait de l’opinion, à se former au doute et à la remise en cause permanente. « C’est dès la plus tendre enfance que se préparent les chercheurs de demain. Au lieu de boucher l’horizon des enfants par un enseignement dogmatique où la curiosité naturelle ne trouve plus sa nourriture, il nous faut familiariser nos élèves avec la recherche et l’expérimentation. Il nous faut leur donner le besoin et le sens scientifiques. […] La formation scientifique est — comme toute formation d’ailleurs, mais plus exclusivement peut-être — à base d’expériences personnelles effectives avec leur part d’inconnues et donc leurs risques d’échecs et d’erreurs ; elle est une attitude de l’esprit fondée sur ce sentiment devenu règle de vie de la perméabilité à l’expérience, élément déterminant de l’intelligence, et moteur de la recherche indéfinie au service du progrès. » Ces mots datent de 1957, au moment de la crise du Spoutnik ; ils sont du pédagogue Célestin Freinet qui concevait l’éducation comme un moyen d’autonomisation et d’émancipation politique et civique. Ils n’ont pas pris une ride. Continuité des idées, des besoins, des enjeux ; renouvellement des moyens, des approches, des savoirs à acquérir. Permanence et impermanence…
Samuel : Tant d’années ! Tant de nouveaux territoires du savoir dévoilés ! Et toujours les mêmes questions, toujours le même rocher à hisser au sommet de la même montagne !
Qu’avons-nous foiré ou que n’avons-nous pas su faire ? Ou plutôt, quelles questions n’avons-nous pas ou mal posées ?
« S’il y a une chose qui rend les jeunes êtres humains allergiques à l’imagination, c’est manifestement l’école » ont écrit Eric Liu et Scott Noppe-Brando dans Imagination first. Alors que se passerait-il si l’école devenait pour les jeunes êtres humains une expérience vivante et valorisante ? Et si nous étions là pour les accompagner vers l’idée qu’il n’existe pas qu’une seule réponse, une seule manière d’être dans le monde, une seule voie à suivre ? Que faut-il faire pour que les jeunes êtres humains aient la conviction que tout est possible et qu’ils peuvent réaliser tout ce dont ils se sentent capables ?
A quoi ressemblerait la société ?
Alors, à rebours de l’imaginaire populaire dans lequel on imagine l’immuabilité des lieux et des choix effectués, comment agir pour favoriser l’émergence d’« agencements » comme chez Deleuze, ou encore d’« assemblages » suivant la notion empruntée à Bruno Latour ? Non pas une matrice dans laquelle nous viendrions tous nous insérer, mais en tant qu’acteurs ne cessant de se réinventer dans une création continue d’associations et de liens dans un « lieu où tout deviendrait rythme, paysage mélodique, motifs et contrepoints, matière à expression ». Chaque fois que nous re-dessinons le monde, nous changeons la grammaire même de nos pensées, le cadre de notre représentation de la réalité. En fait, avec Rutger Bregmann, « l’incapacité d’imaginer un monde où les choses seraient différentes n’indique qu’un défaut d’imagination, pas l’impossibilité du changement ». Nos avenirs nous appartiennent, il nous faut juste les imaginer et les rendre contagieux. Nos transitions ne seraient-elles pas prendre déjà conscience que « si nous attendons le bon vouloir des gouvernements, il sera trop tard. Si nous agissons en qualité d’individu, ça sera trop peu. Mais si nous agissons en tant que communautés, il se pourrait que ce soit juste assez, juste à temps ».
Pour cela, il nous faudra explorer la manière dont les acteurs créent ces liens, et définissent ce que doit être la société. Et la société est d’autant plus inventive que les agencements qu’elle fait émerger sont inventifs dans l’invention d’eux-mêmes.
Des avenirs s’ouvrent peut-être, par une voie difficile et complexe nécessitant de traverser la zone, les ruines, les turbulences et les rêves. Nous pourrions imaginer essaimer l’essence vitale de cette planète, en proie à des destructions physiques et métaphysiques, pour faire renaître l’humanité, la vie, la flore et la faune dans les étoiles. Nous pourrions, avec d’autres, former le projet de partir à bord d’un vaisseau emportant dans ses flancs, outre des embryons humains et animaux, un chargement de graines, spécimens, outils, matériel scientifique, et de fichiers informatiques contenant toute la mémoire du monde et, plus lourd encore, le « poids considérable des rêves et des espoirs ».
Ou alors nous pourrions tout simplement former un projet non pas de « revenir à l’âge de pierre [un projet] pas réactionnaire ni même conservateur, mais simplement subversifparce qu’il semble que l’imagination utopique soit piégée […] dans un futur unique où il n’est question que de croissance ». Ce projet que nous pourrions essayer de mener à bien « c’est d’essayer de faire dérailler la machine ». Ces quelques mots d’Ursula Le Guin nous rappellent que nos avenirs nous appartiennent et que nous avons le pouvoir d’imaginer, d’expérimenter de construire à notre guise et de jouer avec nos avenirs communs et individuels afin de commencer à désincarcérer le futur.
Sylvain : Comment panser l’avant et penser l’après, alors que toutes les menaces semblent s’accélérer, alors que tous les risques semblent se confirmer ? Comment essayer de réinventer un futur véritablement soutenable ?
Certains ingrédients sont connus : décroitre, renforcer la justice sociale, déglobaliser, réduire la pression sur les ressources naturelles, développer l’économie circulaire, etc. Je voudrais ici en évoquer deux autres, sous la forme d’un devoir et d’un écueil.
Le devoir consiste à se dépouiller de cet « humanisme dévergondé » (C. Lévi-Strauss) issu de la tradition judéo-chrétienne et, plus près de nous, de la Renaissance et du cartésianisme, « qui fait de l’homme un maître, un seigneur absolu de la création », agissant envers plantes ou animaux « avec une irresponsabilité, une désinvolture totales » qui ont conduit à mettre la nature en coupe réglée et, en particulier, à la barbarie de l’élevage industriel. Quelque chose d’absolument irremplaçable a disparu nous dit Lévi-Strauss, ce profond respect pour la vie animale et végétale qu’ont les peuples dits « primitifs » qui permet de maintenir un équilibre naturel entre l’homme et le milieu qu’il exploite. Or « se préoccuper de l’homme sans se préoccuper en même temps, de façon solidaire, de toutes les autres manifestations de la vie, c’est, qu’on le veuille ou non, conduire l’humanité à s’opprimer elle-même, lui ouvrir le chemin de l’auto-oppression et de l’auto-exploitation. » L’ethnologue pose le principe d’une éthique qui ne prend pas sa source dans la nature humaine ethnocentrée mais dans ce qu’il appelle « l’humilité principielle » : « l’homme, commençant par respecter toutes les formes de vie en dehors de la sienne, se mettrait à l’abri du risque de ne pas respecter toutes les formes de vie au sein de l’humanité même ». Cette vision des droits dus à la personne humaine comme cas particulier des droits qu’il nous faut reconnaître aux entités vivantes, cet humanisme moral inclusif nous ramène immanquablement à notre point de départ, et à Jonas.
L’écueil consiste à systématiquement réduire chaque problème humain (politique, social, environnemental) à une question technique à laquelle la technologie numérique apporte une solution, en traitant les effets des problèmes sans jamais s’intéresser à leurs causes et en négligeant les possibles déterminismes et biais qui la composent. « Si nous nous y prenons bien, je pense que nous pouvons réparer tous les problèmes du monde » fanfaronnait Eric Schmidt, président exécutif de Google, en 2012. Diminuer le CO2 ? Il y a une application pour ça ! E. Morozov montre bien les limites et effets pervers de cette idéologie qu’il appelle le « solutionnisme technologique », qui s’accompagne d’un affaiblissement du jeu démocratique et aboutit au triomphe de l’individualisme et de la marchandisation. « Révolutionnaires en théorie, [les technologies intelligentes] sont souvent réactionnaires en pratique. » Et elles s’attaquent bien souvent à des problèmes artificiels à force de simplification. « Ce qui est irréaliste, dit Naomi Klein, est de penser que nous allons pouvoir faire face à ces crises mondiales avec quelques minuscules ajustements de la loi du marché. C’est ça qui est utopique. Croire qu’il va y avoir une baguette magique technologique est ridicule. Cela relève de la pensée magique, portée par ceux qui ont un intérêt économique à maintenir le statu quo. » Il ne s’agit bien sûr pas d’éliminer la technologie de la boîte à outils de la résolution de problème. Il importe en revanche de dépasser l’optimisme béat et la quasi-piété en ses pouvoirs et de comprendre qu’elle n’est qu’un levier qui n’a du sens qu’en conjonction d’autres (Ethan Zuckerman). Il est urgent, au fond, de réhabiliter la nuance, la pluralité et la complexité dans le débat et de trouver une voie pour traiter les problèmes difficiles avec des solutions nouvelles selon une approche systémique.
Demain est peut-être ailleurs, mais si l’humanité veut tenter un nouveau départ, les premiers pas vers le renouveau doivent être effectués ici et maintenant.
Jean-François Abramatic est Directeur de Recherche Emérite chez Inria. Il a partagé son parcours professionnel entre l’industrie et la recherche. Sur le plan recherche, il est spécialiste du traitement d’image. Sur le plan industriel, il a été Chief Product Officer chez Ilog et directeur du développement de l’innovation chez IBM. Mais il est surtout connu pour avoir été un acteur clé du web en tant que président du W3C (World Wide Web Consortium), l’organisme de standardisation du Web. Plus récemment, il a travaillé auprès de la Commission Européenne sur les sujets de science ouverte. C’est à ce titre qu’il répond à nos questions.
Photo de Tim Douglas provenant de Pexels
Binaire : Comment es-tu arrivé à travailler sur la science ouverte ? Cela peut paraître assez loin de tes travaux sur les logiciels.
Jean-François Abramatic : Quand je suis devenu Directeur de Recherche Emérite chez Inria, j’ai eu à définir mon programme d’activité au sein de l’institut. J’ai choisi trois axes : l’aide aux startups, l’organisation de W3C et Software Heritage (*). Je me suis progressivement focalisé sur le troisième.
En 2017, Roberto Di Cosmo et moi-même avons rencontré des responsables de la Commission Européenne pour leur présenter Software Heritage. A la fin de cette réunion, un des responsables de la commission m’a sollicité pour intervenir sur le sujet de la science ouverte. J’ai initialement été choisi comme rapporteur de projets sur la science ouverte pour la commission. En 2018, la Commission a rassemblé les acteurs du domaine pour voir ce qu’on pouvait faire et cette initiative s’est transformée en un programme, l’EOSC (The European Open Science Cloud) un environnement pour héberger, traiter et partager les programmes et les données de la recherche pour soutenir la science. Deux organes ont été mis en place pour deux ans (2019-2020) : un Governing Board (un représentant par État) et un Executive Board de 13 personnes où j’ai été nommé. Fin 2020, l’Executive Board a produit un ensemble de recommandations pour la mise en place du programme Horizon Europe (2021-2027). J’ai animé la rédaction collective du document. J’ai, en particulier, écrit la première partie qui explique en quoi le numérique va changer la façon de faire de la recherche.
B : Quelle est ta définition de la science ouverte ?
JFA : Pour moi, c’est d’abord une nouvelle manière de faire de la recherche, en prenant en compte la disponibilité du numérique. Pour comprendre, il faut commencer par un peu d’histoire. Avant l’apparition de l’imprimerie, les résultats scientifiques étaient secrets, chiffrés parfois pour s’assurer qu’ils restaient la propriété exclusive de celui qui les avait découverts. Avec l’arrivée de l’imprimerie et la création des académies, un nouveau système a conduit à rendre disponibles les résultats de recherche grâce aux publications scientifiques.
Le numérique propose une nouvelle façon de faire de la science. Si on veut partager un résultat de recherche aujourd’hui et qu’on partage les publications, on fait une partie du chemin, mais une partie seulement. Il manque des éléments essentiels au lecteur de la publication pour comprendre et utiliser les résultats. Il faut lui donner accès à d’autres informations comme les cahiers d’expérience ou les descriptions d’algorithmes, les données et le code source. Un scientifique qui veut exploiter les résultats d’une recherche, peut le faire de manière précise et efficace.
B : Tu inclus l’open source comme élément essentiel de la science ouverte. Est-ce vraiment un aspect important de la science ouverte ?
JFA : Absolument. De nos jours, plus d’un papier sur deux dans Nature and Science fait appel à du numérique et du code. Le code permet d’expliquer les recherches et sa transmission est bien un composant essentiel de la science ouverte.
B : Tu définis la science ouverte comme une nouvelle façon plus coopérative de faire de la recherche. D’autres acteurs, Opscidia par exemple, nous l’ont défini comme une plus grande démocratisation de la recherche et le fait de faire sortir la science des laboratoires. Doit-on voir une contradiction entre vos points de vue?
JFA : Il faut d’abord que la science ouverte existe dans les laboratoires. On peut ensuite passer à sa démocratisation. On commence par les chercheurs, on passe après aux citoyens. En rendant les revues accessibles à tous, on les ouvre bien sûr à tous les chercheurs mais également à tous les citoyens. Cela soulève aussi la responsabilité des chercheurs d’expliquer ce qu’ils font pour que le plus grand nombre puisse le comprendre. On voit bien avec les controverses actuelles sur l’environnement ou les vaccins, l’importance de rendre la science accessible aux citoyens.
Il faut mentionner un danger à prendre en compte, et qui s’est manifesté clairement pendant la crise du Covid, c’est que certains papiers de recherches sont faux ou contiennent des erreurs. Vérifier les résultats, reproduire les expériences, sont donc des aspects essentiels de la recherche. La science ouverte en associant publications, données, et logiciels, ouvre la voie à la vérification et la reproductibilité.
Nous avons beaucoup à apprendre sur la science ouverte, c’est un sujet nouveau, en création, et pas encore mûr. C’est un sujet de recherche. Et puis, il faut être réaliste sur l’état de l’art de la science ouverte et son état du déploiement. Par exemple, tant que les chercheurs sont évalués sur la base de leur liste de publications, et par des indices comme le h-index, le processus d’évaluation reste un obstacle au développement de la science ouverte.
B : Tu soulèves un aspect essentiel. Est-ce que le mode de fonctionnement de la recherche scientifique est mal adapté à la science ouverte ?
JFA : La situation est très différente suivant les disciplines. Certaines disciplines comme l’astronomie ou la physique ont toujours ressenti un besoin naturel de communiquer et de partager les données. Elles ont rapidement adopté le numérique pour améliorer ce partage. Ce n’est pas un hasard si le Web est né au CERN dans un laboratoire de physique des hautes énergies. Mais dans de nombreuses disciplines, la science ouverte n’est pas encore assez prise en compte.
Par exemple, archiver du code ou des données, pour un informaticien, c’est naturel. Pourtant, le fait de partager son code ne fait pas suffisamment partie des critères d’évaluation des chercheurs en informatique.
L’ouverture des données est moins évidente pour un chercheur en sciences sociales. Les choses évoluent et se mettent lentement en place. Par exemple, Inrae a créé une direction pour la science ouverte.
B : Ce rapport est donc la vision européenne de l’Open Science ?
JFA : À ce jour, c’est le rapport de la Commission. Il représente sa vision aujourd’hui, une vision en construction parce que le sujet est complexe et difficile, pas tout à fait mûr, avec de vraies controverses.
B : Quel est l’avenir de ce rapport ?
JFA : La première version a été rendue publique. Le document a vocation à évoluer au fil du temps. L’étape suivante est la création d’une association (de droit belge) qui regroupe des acteurs de la recherche tels que les instituts de recherche, les universités, les organisations de financement, etc. Les statuts prévoient que chaque pays peut choisir un membre pour les représenter. Par exemple, Inria a été invité à représenter la France. Inria a choisi Laurent Romary pour tenir ce rôle. Par ailleurs, le conseil d’administration de l’association a été élu. Suzanne Dumouchel du CNRS fait partie du conseil. Cette association sera consultée pour chaque appel à projets dans le domaine des infrastructures pendant les sept ans à venir. Le message global de la commission et de l’organisation qu’elle met en place est que la science ouverte est devenue un citoyen de première classe, un sujet horizontal qui doit couvrir tous les aspects de la recherche scientifique.
Florence Devouard est une ingénieure agronome française, devenue dirigeante associative. Vice-présidente de Wikimédia France de 2004 à 2008, elle a présidé la Wikimedia Foundation de 2006 à 2008, en remplacement de son fondateur, Jimmy Wales.
binaire : Pouvez-vous nous raconter votre parcours ? Comment en êtes-vous arrivée à vous intéresser assez à Wikipédia pour devenir la présidente de la fondation qui chapeaute l’encyclopédie ?
FD : J’ai fait des études d’ingénieure agronome. A Nancy, je me suis spécialisée en biotechnologies. J’ai un peu travaillé dans le milieu académique initialement, mais j’ai rapidement bifurqué vers le monde de l’entreprise.
J’ai suivi mon époux en Belgique flamande, puis aux États-Unis et j’ai eu deux enfants. Je me suis intéressée à l’informatique, mais c’étaient plus les usages que le codage qui m’attiraient. J’ai travaillé, par exemple, sur des outils d’aide à la décision. Et puis, au début des années 2000, j’ai atterri à Clermont-Ferrand où je me suis sentie un peu isolée. Je me suis alors plongée dans le web qui me permettait de rencontrer des gens qui partageaient mes intérêts, c’était juste ce dont j’avais alors besoin. Je suis devenue un peu activiste anonyme du web.
J’étais aussi gameuse, et je passais pas mal de temps sur les forums, beaucoup avec des Américains. Sur ces forums, qui n’étaient pas faits pour ça, je me suis retrouvée à écrire de nombreux textes sur la sécurité biologique, parce j’avais des choses à raconter. C’était l’époque de l’envoi d’enveloppes avec de l’anthrax, juste après les attentats du 11 septembre.
J’ai notamment beaucoup discuté sur un forum avec un activiste de GreenPeace. C’est lui qui m’a fait découvrir Wikipédia qui démarrait à ce moment. Il m’a suggéré d’y raconter ce qui me tenait à cœur, sur la version anglophone. A cette époque, il n’y avait encore quasiment personne sur Wikipédia en français.
J’ai alors découvert ce qu’était un wiki. Techniquement c’est très simple, juste un site web sur lequel on peut facilement s’exprimer. Je pouvais comme tout le monde participer à l’écriture de pages web et la création de liens entre elles. À l’époque, c’était tout nouveau, ça nous paraissait génial et peu de gens intervenaient. Pourtant, je n’arrivais pas à sauter le pas, je craignais le regard des autres, et je doutais de ma capacité à m’exprimer en anglais. Alors, je procrastinais. Il m’a forcé la main : il a copié-collé mes explications pour créer des articles. Ils ont été lus et modifiés et ça m’a fait réaliser que je pouvais écrire, que je pouvais faire profiter les autres de mes connaissances, que je pouvais contrecarrer un peu le matraquage de l’administration américaine sur la sécurité biologique. Et cela correspondait à ce que j’avais envie de faire.
binaire : Pourquoi est-ce que cela vous correspondait si bien ?
FD : J’avais l’impression d’écrire des textes qui pouvaient être lus dans le monde entier, faire quelque chose d’utile en apportant des connaissances et en faisant passer des idées. Je participais alors en particulier à des controverses entre la France et les États-Unis sur des sujets comme les armes de destruction massive, les OGM, et la disparition des abeilles. Sur chacun de ces sujets, il y avait des écarts de pensée importants entre la France et les US. Je pouvais donc faire passer aux US des idées qui avaient cours en France et que je maitrisais. Je pouvais faire découvrir aux Américains qu’il n’y avait pas que l’Amérique et que d’autres, ailleurs, pensaient différemment.
binaire : Est-ce que c’est ce genre de motivation de passer des idées qui anime encore aujourd’hui les Wikipédiens ?
FD : Oui. Nombre d’entre eux collaborent à l’encyclopédie par altruisme, pour faire passer aux autres des idées auxquelles ils tiennent. Ils veulent participer au développement des connaissances globales, faire circuler ces connaissances. C’est ce qui est génial. Avec Wikipédia, on peut faire travailler en commun un groupe de personnes aux quatre coins de la planète. Le numérique permet de réunir les quelques personnes qui s’intéressent à un sujet, même le plus exotique, pour partager leurs connaissances et confronter les points de vue.
binaire : C’était vrai au début quand tout était à faire. Est-ce que c’est toujours pareil aujourd’hui ?
FD : C’est vrai que cela a beaucoup changé, aussi bien les méthodes de travail, et que les contenus. Au tout début, au début des années 2000, on travaillait seul hors ligne, puis on se connectait pour charger l’article. Maintenant, on est connecté en continu et on interagit en permanence avec les autres rédacteurs.
A l’époque, on arrivait souvent devant une page blanche. Quand j’ai commencé à bosser sur la Wikipédia francophone, on était cinq et on devait tout construire. Aujourd’hui sur un sujet précis, on arrive et une grosse masse de connaissances a déjà été réunie. On démarre rarement de nouveaux sujets. Il faut avoir une bonne expertise sur un sujet pour pouvoir y contribuer. Avant, on débroussaillait avec comme ligne de mire très lointaine la qualité d’une encyclopédie conventionnelle. Aujourd’hui, on vise la perfection, par exemple, le label « Article de qualité », qui est un label très difficile à obtenir. Certains travaillent comme des dingues sur un article pour y arriver. C’est de cette quête de perfection qu’ils tirent leur fierté.
Ils éprouvent bien sûr aussi du plaisir à faire partie d’un réseau, à rencontrer des gens,
La situation pionnière qu’on a connue et que j’ai beaucoup aimée, est parfois encore un peu celle que rencontrent certains Africains qui rejoignent le projet dans des langues locales, depuis des pays encore mal connectés à internet. Ce n’est d’ailleurs pas simple pour eux de s’insérer dans le collectif qui a beaucoup changé.
binaire : La fondation Wikimédia promeut d’autres services que l’encyclopédie Wikipédia. Vous pouvez nous en parler ?
FD : Exact. L’encyclopédie représente encore 95% des efforts, mais on a bien d’autres projets. C’est d’ailleurs sur les projets moins énormes que j’ai le plus de plaisir à participer.
J’ai travaillé notamment sur un projet pour améliorer les pages « biaisées », des pages assez anciennes, où il reste peu de contributeurs actifs. On peut se retrouver par exemple confronté à des services de communication d’entreprises qui transforment les pages en les biaisant pour gommer les aspects un peu négatifs de leurs entreprises. Il faut se battre contre ça.
Un autre projet très populaire, c’est Wikimedia Commons qui regroupe des millions d’images. C’est né de l’idée qu’il était inutile de stocker la même image dans plusieurs encyclopédies dans des langues différentes. Je trouve très sympa dans Wikimedia Commons que nous travaillions tous ensemble par-delà des frontières linguistiques, que nous arrivions à connecter les différentes versions linguistiques.
Un troisième projet, Wiki Data construit une base de connaissances. Le sujet est plutôt d’ordre technique. Cela consiste en la construction de bases de faits comme « “Napoléon” est mort à “Sainte Hélène” ». À une entité comme ”Napoléon”, on associe tout un ensemble de propriétés qui sont un peu agnostiques de la langue. Les connaissances sont ajoutées par des systèmes automatiques depuis d’autres bases de données ou entrées à la main par des membres de la communauté wikimédienne. On peut imaginer de super applications à partir de Wiki Data.
Enfin, il y a d’autres projets comme Wiktionnaire ou Wiki Books, et des projets naissants comme Wiki Abstracts.
binaire : La fondation développe des communs. Comment la fondation choisit-elle quels communs proposer ? Comment définit-elle sa stratégie ?
FD : Au début, on avait juste l’encyclopédie. La Fondation a été créée en 2003, mais sans véritablement de stratégie. On faisait ce que les gens avaient envie de faire. Par exemple, Wiktionnaire a été créé à cette époque. On avait des entrées qui étaient juste des définitions de mots. On se disputait pour savoir si elles avaient leur place ou pas dans Wikipédia. Comme on ne savait pas comment trancher le sujet, on a créé autre chose : le Wiktionnaire. Dans cette communauté, quand tu as une bonne idée, tu trouves toujours des développeurs. Les projets se faisaient d’eux-mêmes, du moment que suffisamment de personnes estimaient que c’était une belle idée. Il n’y avait pas de stratégie établie pour créer ces projets.
À partir de 2007-2008, les choses ont changé, et la Fondation a cherché à réfléchir sur ce qu’on voulait, définir où on allait. Mais ça a pris du temps pour y arriver. Si on n’y fait pas attention, en mettant plein de gens autour de la table, on arrive à une stratégie qui est un peu la moyenne de ce que tout le monde veut, qui confirme ce qu’on est déjà en train de faire, sans aucun souffle, qui ne donne pas de vraie direction et qui n’est donc pas une vraie stratégie proactive.
binaire : À défaut de stratégie, la communauté a au moins développé ses propres règles ?
FD : Au début, il n’y avait même pas de règles communes. Elles ont émergé au cours du temps, au fil des besoins. Le mode fonctionnement est très flexible. Chaque communauté définit en fait ses propres règles, ses propres priorités. Les différentes versions linguistiques s’adaptent aux cultures.
Dans le temps, le modèle a tendance à se scléroser en s’appuyant bien trop sur la règle du précédent. Si ça marche à peu près, on préfère ne toucher à rien. Le Fondation qui lie tout cela ne cherche pas non plus à imposer sa loi, à de rares exceptions près. Comme par exemple, quand elle a défini des critères pour les biographies individuelles. Elle cherche surtout à tenir compte des lois des pays, et donc à limiter les risques juridiques.
Les règles communes tout comme une stratégie commune ont doucement émergé. Mais le monde de Wikimédia reste un monde très flexible.
binaire : Pouvez-vous nous parler des individus qui participent à Wikipédia. Cela semble vraiment s’appuyer sur des communautés très différentes.
FD : En partant du plus massif, vous avez la communauté des lecteurs, puis celle les éditeurs. Parmi ces derniers, cela va de l’éditeur occasionnel peu impliqué, jusqu’au membre actif qui participe à la vie de la communauté. Vous avez ensuite les associations locales et la fondation qui définissent un certain cadre par exemple en lançant des nouveaux projets. Elles interviennent aussi directement dans la vie de la communauté, notamment pour des raisons juridiques. Enfin, il faut mentionner, les salariés et contractuels de la fondation qui implémentent certains choix de la Fondation, et parfois entrent en conflit avec la communauté.
Le nombre de salariés des associations est très variable. Wikimédia France a une dizaine d’employés. Wikimédia Allemagne est plus ancienne et a environ deux cents personnes. D’autres pays n’ont que des bénévoles.
binaire : Le nombre de salariés est lié à la richesse de l’association locale ?
FD : Oui. L’association allemande a existé assez tôt en vendant notamment des encyclopédies off-line. Dans certains pays, les associations ont eu le droit de mettre des bandeaux d’appel aux dons sur Wikipedia, ce qui rapporte de l’argent. Dans d’autres, comme en Pologne, on peut via les impôts choisir de contribuer financièrement à l’association locale.
Le modèle économique varie donc d’un pays à l’autre. La Fondation Wikimédia (mondiale) redistribue une partie de ses fonds. Certains pays comme l’Allemagne sont assez riches pour s’en passer. Il reste une énorme disparité sur la disponibilité de moyens pour les Wikipédiens suivant leur pays.
binaire : Vous êtes aussi impliquée dans d’autres associations comme Open Food Fact ? Quel y est votre rôle ?
FD : Je suis dans leur Conseil d’Administration. Je suis là avec quelques autres personnes pour garantir le futur de toutes ces ressources développées en commun, et garantir une certaine pérennité.
binaire : Une dernière question. Vous avez à cœur de défendre une certaine diversité. Est-ce que vous pouvez partager cela avec les lecteurs de binaire ?
FD : Tous ces projets sont massivement le fait de mâles, cis, blancs, jeunes. On perd des talents à cause de cela, car l’environnement participatif ou le cadre de travail peuvent repousser. Il faut absolument que l’implication soit plus globale. On essaie d’explorer des solutions par exemple en luttant contre le harcèlement. Mais à mon avis on y arrive mal. J’aimerais bien savoir comment faire. Aujourd’hui, le pilotage global est très anglosaxon, et ça ne marche pas bien.
Wikipédia est une superbe réussite, on a construit quelque chose de génial. Un temps, on s’est inquiété de la diminution du nombre de contributeurs, la fuite des cerveaux. Je pense qu’on a réglé ce problème, aujourd’hui la population de contributeurs est quasi stable. Maintenant, pour continuer notre œuvre, on a besoin de plus de diversité. Je dirais que c’est aujourd’hui notre plus gros challenge.
Serge Abiteboul, Inria et ENS, Paris, & François Bancilhon, serial entrepreneur
Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils considéraient les aspects techniques. Dans un deuxième, ils traitaient des craintes autour de la 5G. Dans ce dernier, ils adressent la question des applications de cette technologie.
Cet article est en collaboration avec Theconversation France. Toute la série.
Comme c’est souvent le cas avec l’arrivée d’une nouvelle technologie, comme ça a été souvent le cas pour les générations de téléphonie cellulaire précédente, il est difficile de savoir quels seront les usages dominants, les “killer apps”. Pour le grand public et à court terme, la 5G servira surtout à éviter la saturation des réseaux 4G. Ce qui changera surtout ce sera l’arrivée d’applications autour de la vidéo et des jeux en réseaux s’appuyant sur des débits plus importants et une faible latence. La différence ne sera pas si évidente. C’est principalement le débit qui s’exprime dans ce contexte avec la 5G en 3.5 GHz.
Mais la 5G c’est aussi une plus faible latence (en particulier, avec la 26 GHz) et des garanties de service. Nous pensons que les usages les plus disruptifs seront plus que pour les générations précédentes à chercher du côté professionnel, notamment du côté des usines.
L’usine connectée, Source Arcep
L’usine connectée. Un plateau de fabrication consiste aujourd’hui en des machines connectées par des kilomètres de câble. La moindre transformation d’une chaîne de production demande de repenser la connectique, une complexité qui disparaît avec la 5G. La maintenance, notamment prédictive, et la logistique, sont également simplifiées parce que le suivi des machines et de la production se font beaucoup plus simplement avec des garanties de latence satisfaisante. La 5G est au cœur de l’industrie 4.0.
Bien sûr, elle a des concurrents comme le Wifi. Mais la plus grande latence, la moins bonne fiabilité (l’absence de garantie de service) du Wifi même de dernière génération fait souvent pencher la balance en faveur de la 5G dans un cadre industriel. Une différence, même réduite en apparence, peut conduire à l’accident industriel.
En France, l’usage de la 5G pour les usines a été expérimenté sur le site de Schneider Electric du Vaudreuil, dans l’Eure.
Logistique. La 5G est aussi un élément essentiel d’une logistique plus automatisée dans l’industrie ou dans les territoires. Le premier enjeu est celui de l’optimisation et du suivi du transport des matières premières comme des produits fabriqués utilisant toutes les possibilités des objets connectés et de l’informatique. La 5G devrait permettre de mieux gérer les flux, les performances (délais de livraisons) tout comme l’impact environnemental (émissions de gaz à effet de serre).
Le port du Havre a été le premier port français complètement connecté en 5G. La 5G permet une gestion fine des bateaux qui entrent ou sortent du port, en communication permanente. Il devrait aussi permettre un suivi en temps réel des cargaisons. La 5G ouvre toute une gamme d’applications comme le pilotage en temps réel d’un robot connecté qui nettoie les déchets marins en surface.
Les territoires connectés. L’enjeu principal de la ville ou du territoire connecté est l’acquisition de données en temps réel via des réseaux de capteurs (comme de détecter l’arrivée d’une personne de nuit dans une rue mal éclairée), et la commande d’actionneurs (allumer les lampadaires de cette rue). Donc le territoire intelligent est informé et piloté avec la 5G. On imagine bien le déploiement massif d’objets connectés. Mais pour quoi faire ? Gérer les réseaux de distribution (eau, électricité, etc.), surveiller la pollution, détecter rapidement divers types d’alertes, améliorer le transport, etc. Le territoire intelligent peut aussi s’appuyer sur la 5G pour une télésurveillance de masse, mais ça, ça ne fait pas rêver.
Avec la 5G, une question qui se pose très vite est celle de la rapidité d’adoption de la nouvelle technologie. Pour ce qui est de son déploiement dans des territoires intelligents, les deux auteurs ne partagent pas le même point de vue. Pour l’un, cela va arriver très vite, quand l’autre en doute. Les deux tombent d’accord pour dire qu’on ne sait pas trop et que cela dépendra en particulier de la maîtrise des aspects sécurité.
L’agriculture connectée. Les performances de la 5G en termes de densité d’objets connectés pourraient s’avérer très utiles dans l’agriculture. Le succès n’est pas garanti. Dans de nombreux cas comme celui des capteurs de l’hydrologie de champs, les constantes de temps sont souvent importantes, deux ou trois fois par jour. Les acteurs semblent parfois préférer des solutions 0G comme Sigfox ou Lora. C’est moins vrai pour l’élevage et la situation pourrait changer avec le contrôle de robots qui débarqueraient massivement dans les campagnes. La sécurité est également dans ce domaine une question critique qui pourrait ralentir le déploiement de la 5G en agriculture.
Médecine connectée. C’est souvent proposé comme un domaine d’application phare de la 5G. On n’est bien au-delà de la téléconsultation pour laquelle la 4G suffit souvent. L’hôpital, un lieu complexe et bourré de machines hyper-sophistiquées, est évidemment en première ligne. On a aussi assisté à des opérations chirurgicales à distance, par exemple, en 2019, sur une tumeur intestinale au Mobile World Congress à Barcelone. Le débit plus important et la faible latence rendent possibles de telles réalisations. Pourtant, dans le cadre de la chirurgie, une connexion filaire semble plus appropriée quand elle est présente. Le diagnostic appuyé sur de la réalité virtuelle et augmentée pourrait être une belle application de la 5G, tout comme le suivi de patients utilisant des objets connectés comme les pompes à insuline ou les pacemakers. On voit bien que la fiabilité des communications et leur sécurité sont essentielles dans ce contexte.
On trouve deux projets de 5G pour les CHU de Rennes et Toulouse dans le Plan France Relance.
Les transports. Le fait d’avoir une faible latence permet à la 5G d’être prometteuse pour le contrôle en temps réel de véhicules. Un domaine en forte progression, le transport collectif, devrait en bénéficier. Bien sûr, la 5G a sa place dans les gares qui concentrent une population dense. La 5G en 26GHz est par exemple expérimentée dans la gare de Rennes. Le transport collectif utilise déjà massivement des communications entre ses trains et les infrastructures. La 5G devrait apporter une plus grande qualité avec notamment des garanties de délais.
Pour l’automobile individuelle autonome, la situation est moins claire et les déploiements pourraient prendre plus de temps. (Les voitures autonomes testées aujourd’hui se passent en général de 5G.) La 5G pourrait s’installer dans les communications entre les véhicules et le reste du monde, le V2X (avec les autres véhicules et l’environnement). Dans ce cadre, elle est en concurrence avec un autre standard basé sur le Wifi. Les communications peuvent servir entre véhicules, par exemple, dans des “trains de camions” roulant à très faible distance l’un de l’autre sur l’autoroute. On imagine bien que toutes ces informations puissent réduire les risques d’accident, par exemple, en prévenant à l’avance le système d’une voiture de travaux sur la route ou de la présence de piétons ou de cyclistes.
Wikimedia Commons
Le V2X risque de prendre du temps pour s’installer pour plusieurs raisons. C’est d’abord la sécurité. Les spécialistes s’accordent à dire que les standards en développement ne sont pas sûrs, ce qui questionne évidemment. Et puis, des cadres de responsabilité légale en cas d’accident doivent être définis. Enfin, cette technologie demande des investissements lourds pour équiper les routes, et en particulier, les points névralgiques. On devrait donc la voir arriver à des vitesses différentes suivant les pays, et d’abord sur les axes routiers les plus importants. On peut aussi s’attendre à la voir débarquer dans des contextes locaux comme sur des tarmacs d’aéroports (véhicules pour les bagages ou le ravitaillement des avions) ou dans des ports (chargement et déchargement des cargaisons).
Le futur réseau radio des secours passera par la 5G. Crédit : Service départemental d’incendie et de secours, Dordogne
Et les autres. Cette liste ne se veut pas exhaustive. On aurait pu parler de smart grids, de service de secours, d’éducation, etc. Il faudra attendre pour voir où la 5G se déploie vraiment. Après ce tour d’horizon, on peut sans trop de doute se convaincre que la 5G révolutionnera de nombreux domaines, mais que cela ne se fera pas en un jour et que cela passera par la maîtrise des problèmes de fiabilité et de sécurité.
Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France
Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils ont considéré les aspects techniques. Dans un deuxième, ils traitent des craintes autour de la 5G. Un dernier adressera la question des applications de cette technologie.
Cet article est en collaboration avec Theconversation France. Toute la série.
Quand on met dans un seul sac les opposants de la 5G, on mélange tout et n’importe quoi : risques sanitaires, destruction de la planète, atteintes à la sûreté des réseaux et au-delà à la souveraineté de l’État, surveillance de masse. Ces amalgames incluant des accusations facilement et factuellement déconstruites mêlées à de vrais problèmes suffisent-elles à disqualifier la critique ? Non, pas plus que les anti-vacs, anti-ondes, anti-sciences, anti-techno, etc. qui se sont agrégés au mouvement anti-5G au gré des municipales en France allant jusqu’à des incendies ou dégradations de stations radios. Répondre aux questionnements par la simple affirmation du déterminisme technologique n’est pas non plus suffisant. Les questionnements, les préoccupations sont légitimes pour une technologie qui va changer nos vies, selon ce qui est annoncé. Nous discutons de ces questionnements ici en ignorant les aspects irrationnels, voire conspirationnistes.
Manifestation anti-5G à Lyon, Wikipédia
Environnement
Le numérique, de manière générale, questionne les défenseurs de l’environnement. Par plein de côtés, il a des effets positifs sur l’environnement. Par exemple, il permet des études fines du climat, la gestion intelligente de l’énergie dans des smart grids, celle des moteurs de tous types, de l’automobile à l’aviation, des économies de transports avec le travail à distance. Par contre, il participe à la course en avant vers toujours plus de productivité et de consommation. Cet aspect très général du débat sera ignoré ici, où nous nous focaliserons sur la 5G.
Du côté positif, la 5G a été conçue dès le départ pour être énergétiquement sobre. Sachant que les chiffres ne sont pas stabilisés, elle devrait diviser fortement la consommation d’électricité pour le transport d’un Gigaoctet de données ; on parle de division par 10 et à terme par 20 par rapport à la 4G. Même si ces prévisions sont peut-être trop optimistes, il faut noter qu’elles vont dans le sens de l’histoire, qui a effectivement vu de pareilles améliorations de la 2G à la 3G à la 4G. Et on pourrait citer aussi les économies du passage du fil de cuivre à la fibre, ou des “vieux” data centers aux plus modernes. Le numérique sait aussi aller vers plus de sobriété, ce qui lui a permis d’absorber une grande partie de l’explosion des données transférées sur le réseau depuis vingt ans.
Une partie de cette explosion, oui, mais une partie seulement, car il faut tenir compte de l’effet rebond. D’une manière très générale, l’effet rebond, encore appelé paradoxe de Jevons, observe que des économies (monétaire ou autres) prévues du fait d’une amélioration de la technologie peuvent être perdues à la suite d’une adaptation du comportement de la société. Avec les améliorations des techniques qui ont permis le transport de plus en plus de données, on a vu cette quantité de données transportées augmenter violemment, en gros, doubler tous les dix-huit mois. Si les récents confinements dus à la pendémie n’ont pas mis à genoux la 4G, c’est grâce à l’année d’avance que sont obligés de prendre les opérateurs pour absorber cette croissance, entièrement due aux utilisateurs d’ailleurs.
L’introduction de la 5G va permettre que cet accroissement se poursuive, ce qui résulterait selon certains en une augmentation de l’impact négatif des réseaux sur l’environnement.
Bien sûr, on doit s’interroger pour savoir si cela aurait été mieux en refusant la 5G. Sans 5G, les réseaux télécoms de centre-ville auraient vite été saturés ce qui aurait conduit à densifier le réseaux de stations 4G. On aurait sans doute assisté à un même impact négatif pour un réseau qui aurait alors fini massivement par dysfonctionner, car la 4G supporte mal la saturation pour des raisons intrinsèques à sa technologie. Ne pas déployer la 5G – ce que demandaient certains – n’aurait réglé aucun problème, le vrai sujet est celui de la sobriété.
Dans le cadre du déploiement en cours, une vraie question est celle des coûts environnementaux de fabrication des éléments de réseaux comme les stations radio, et surtout des téléphones. Il faut savoir que la fabrication d’un téléphone portable émet beaucoup plus de gaz à effet de serre (GES) que son utilisation. Si tous les français se précipitent et changent leur téléphone pour avoir accès à la 5G, on arrive à un coût énorme en émission de GES. Il faudrait les convaincre que ça ne sert à rien et qu’on peut se contenter du renouvellement “normal” des téléphones. Il est important d’insister ici sur “normal” : les français changent de téléphone tous les 18 mois, ce qui n’est pas normal du tout. Même si ça a été effectivement nécessaire quand les téléphones étaient loin de leur puissance de calcul actuelle, ça ne l’est plus maintenant. Et produire tous ces téléphones engendre une gabegie de ressources, d’énergie et d’émission de GES . Au-delà du sujet de la 5G, que faisons-nous pour ralentir ces remplacements ? Que faisons-nous pour qu’ils ne s’accélèrent pas à l’appel des sirènes de l’industrie des smartphones ?
Il faudrait aussi questionner les usages. Le visionnage d’une vidéo sur un smartphone consomme plusieurs fois l’électricité nécessaire au visionnage de la même vidéo après téléchargement par la fibre. Mais la situation est tout sauf simple. Comment comparer le visionnage d’un cours en 4G par un élève ne disposant pas d’autre connexion internet au visionnage d’une vidéo (qu’on aurait pu télécharger à l’avance) dans le métro parisien ? Il ne s’agit pas ici de décider pour le citoyen ce qu’il peut visionner suivant le contexte, mais juste de le sensibiliser à la question du coût environnemental de ses choix numériques et de lui donner les moyens, s’il le souhaite, d’avoir des comportements plus sobres.
Rapport de The Shift Project, mars 2021
Sécurité et surveillance massive
Dans ces dimensions, les effets sont contrastés.
Pour la cybersécurité, la 5G procure des moyens d’être plus exigeants, par exemple, en chiffrant les échanges de bout en bout. Par contre, en augmentant la surface des points névralgiques, on accroît les risques en matière de sécurité. En particulier, la virtualisation des réseaux qu’elle introduit ouvre la porte à des attaques logicielles. L’internet des objets, potentiellement boosté par la 5G, questionne également quand on voit la faiblesse de la sécurité des objets connectés, des plus simples comme les capteurs à basse énergie jusqu’aux plus critiques comme les pacemakers. Le risque lié à la cybersécurité venant de l’internet des objets est accru par la fragmentation de ce marché qui rend difficile de converger sur un cadre et des exigences communes .
Pour ce qui est de la surveillance, les effets sont également contrastés. Les pouvoirs publics s’inquiètent de ne pouvoir que plus difficilement intercepter les communications des escrocs, des terroristes, etc. Des citoyens s’inquiètent de la mise en place de surveillance vidéo massive. La 4G permet déjà une telle surveillance, mais la 5G, en augmentant les débits disponibles la facilite. On peut réaliser les rêves des dictateurs en couvrant le pays de caméra dont les flux sont analysés par des logiciels d’intelligence artificielle. Le cauchemar. Mais la 5G ne peut être tenue seule pour responsable ; si cela arrive, cela tiendra aussi du manque de vigilance des citoyens et de leurs élus.
Communication de l’OMS démentant un lien entre 5G et Covid-19
Santé
Est-ce que la 5G et/ou l’accumulation d’ondes électromagnétiques nuit à la santé ?
C’est un vieux sujet. Comme ces ondes sont très utilisées (télécoms, wifi, four à micro-ondes, radars, etc.) et qu’elles sont invisibles, elles inquiètent depuis longtemps. Leurs effets sur la santé ont été intensément étudiés sans véritablement permettre de conclure à une quelconque nocivité dans un usage raisonné. Une grande majorité des spécialistes pensent qu’il n’y a pas de risque sanitaire à condition de bien suivre les seuils de recommandation de l’OMS, qui ajoute déjà des marges importantes au-delà des seuils où on pense qu’il existe un risque. On notera que certains pays comme la France vont encore au-delà des recommandations de l’OMS.
Pourtant, d’autres spécialistes pensent que des risques sanitaires existent. Et on s’accorde généralement pour poursuivre les études pour toujours mieux comprendre les effets biologiques des ondes, en fonction des fréquences utilisées, de la puissance et de la durée d’exposition. Avec le temps, on soulève de nouvelles questions comme l’accumulation des effets de différentes ondes, et après avoir focalisé sur les énergies absorbées et les effets thermiques, on s’attaque aux effets non thermiques.
La controverse se cristallise autour de “l’hypersensibilité aux ondes électromagnétiques”. C’est une pathologie reconnue dans de nombreux pays, qui se manifeste par des maux de tête, des douleurs musculaires, des troubles du sommeil, etc. Malgré son nom, les recherches médicales n’ont montré aucun lien avec l’exposition aux ondes. Ses causes restent mystérieuses.
Venons-en à la question plus spécifique de la 5G. La 5G mobilise différentes nouvelles gammes de fréquence, autour de 3,5 GHz et autour de 26 GHz. Avec la 3.5 GHz, on est très proche de fréquences déjà utilisées, par exemple par le Wifi, et de fréquences dont les effets ont été très étudiés. Pour la 26 GHz, si l’utilisation dans un cadre grand public de telles ondes est nouveau, on dispose déjà d’études sur de telles fréquences élevées. Pourtant, l’utilisation nouvelle de ces fréquences spécifiques légitime le fait que de nouvelles études soient entreprises pour elles, ce qui est déjà le cas.
Un aspect de la 5G conduit naturellement aussi à de nouvelles études : les antennes MIMO dont nous avons parlé. Elles permettent de focaliser l’émission sur l’utilisateur. Cela évite de balancer des ondes dans tout l’espace. Par contre, l’utilisateur sera potentiellement exposé à moins d’ondes au total mais à des puissances plus importantes. Le contexte de l’exposition changeant aussi radicalement conduit à redéfinir la notion d’exposition aux ondes, et peut-être à de nouvelles normes d’exposition. Cela conduit donc à repenser même les notions de mesure.
Nous concluons cette section en mentionnant un autre effet sur la santé qui va bien au-delà de la 5G pour interpeller tout le numérique : la vitesse de développement de ces technologies. Le numérique met au service des personnes des moyens pour améliorer leurs vies. C’est souvent le cas et, en tant qu’informaticiens, nous aimons souligner cette dimension. Mais, le numérique impose aussi son rythme et son instantanéité à des individus, quelquefois (souvent?) à leur détriment. C’est particulièrement vrai dans un contexte professionnel. Dans le même temps où il nous décharge de tâches pénibles, il peut imposer des cadences inhumaines. Voici évidemment des usages qu’il faut repousser. Il faut notamment être vigilant pour éviter que la 5G ne participe à une déshumanisation du travail.
Wikimedia Commons
Économie et souveraineté
On peut difficilement évaluer les retombées économiques de la 5G, mais les analystes avancent qu’elle va bouleverser de nombreux secteurs, par exemple, la fabrication en usine et les entrepôts. On s’attend à ce qu’elle conduise aussi à de nouvelles gammes de services grand-public et à la transformation des services de l’État. On entend donc : Le monde de demain sera différent avec la 5G, et ceux qui n’auront pas pris le tournant 5G seront dépassés. C’est une des réponses avancées aux détracteurs de la 5G, la raison économique. On rejouerait un peu ce qui s’est passé avec les plateformes d’internet : on est parti trop tard et du coup on rame à rattraper ce retard. Sans la 5G, l’économie nationale perdrait en compétitivité et nous basculerions dans le tiers monde.
Il est difficile de valider ou réfuter une telle affirmation. N’abandonnerions-nous la 5G que pour un temps ou indéfiniment ? Est-ce que ce serait pour adopter une autre technologie ? Nous pouvons poser par contre la question de notre place dans cette technique particulière, celle de la France et celle de l’Europe.
Pour ce qui est du développement de la technologie, contrairement à d’autres domaines, l’Europe est bien placée avec deux entreprises européennes sur les trois qui dominent le marché, Nokia et Ericsson. On peut même dire que Nokia est “un peu” française puisqu’elle inclut Alcatel. La dernière entreprise dominante est chinoise, Huawei, que les États-Unis et d’autres essaient de tenir à l’écart parce qu’elle est plus ou moins sous le contrôle du parti communiste chinois. La France essaie d’éviter que des communications d’acteurs sensibles ne puissent passer par les matériels Huawei ce qui revient de fait à l’exclure en grande partie du réseau français.
Pour ce qui est des usages, les industriels français semblent s’y intéresser enfin. Les milieux scientifiques européens et les entreprises technologiques européennes ne sont pas (trop) à la traîne même si on peut s’inquiéter des dominations américaines et chinoises dans des secteurs comme les composants électroniques ou les logiciels, et des investissements véritablement massif des États-Unis et de la Chine dans les technologies numériques bien plus grands qu’en Europe. On peut donc s’inquiéter de voir l’économie et l’industrie européenne prendre du retard. Il est vrai que la 5G ne sera pleinement présente que dans deux ou trois ans. On peut espérer que ce délai sera utilisé pour mieux nous lancer peut-être quand on aura mieux compris les enjeux, en espérant que ce ne sera pas trop tard, qu’en arrivant avec un temps de retard, on n’aura pas laissé les premiers arrivants rafler la mise (“winner-take-all”).
Conclusion. Comme nous l’avons vu, certains questionnements sur la 5G méritent qu’on s’y arrête, qu’on poursuive des recherches, qu’on infléchisse nos usages des technologies cellulaires. La 5G est au tout début de son déploiement. Les sujets traversés interpellent le citoyen. Nous voulons mettre cette technologie à notre service, par exemple, éviter qu’elle ne conduise à de la surveillance de masse ou imposer des rythmes de travail inhumains. Nous avons l’obligation de la mettre au service de l’écologie par exemple en évitant des changements de smartphones trop fréquents ou des téléchargements intempestifs de vidéos en mobilité. C’est bien pourquoi les citoyens doivent se familiariser avec ces sujets pour choisir ce qu’ils veulent que la 5G soit. Décider sans comprendre est rarement la bonne solution.
Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France
On a tous entendu parler de tinder.com qui propose de mettre en relation des personnes avec des profils répondant aux critères de son choix. Cette application répond à d’autres usages que de s’en remettre au hasard des rencontres quotidiennes ou celles des soirées plus ou moins erratiques. Mais s’appuyer, pour un aspect souvent majeur de notre vie, sur un système de recommandation très difficile à comprendre n’est-il pas problématique ? Alors si nous prenions un peu de recul et de hauteur pour réfléchir à cela ? Isabelle Collet nous propose de voir ce qu’il se cache derrière les coulisses du fonctionnement de cet outil. Serge Abiteboul et Marie-Agnès Enard.
En 2019, la journaliste Judith Duportail sort une enquête autobiographique « L’amour sous algorithme » aux Éditions de la Goutte d’or. Elle nous raconte deux histoires simultanément. D’une part, les réflexions et sentiments d’une journaliste trentenaire parisienne qui, suite à une rupture amoureuse, charge la plus célèbre des applications de rencontre, et d’autre part l’histoire de Tinder, l’application créée en 2012, qui a révolutionné la manière de faire des rencontres.
Photo de cottonbro provenant de Pexels
Un support pour l’introspection
La première histoire est une histoire sensible et honnête sur le rapport à soi, à son image, à l’amour, quand on est une jeune femme moderne, féministe mais vivant à l’ombre des grandes tours du « male gaze », c’est-à-dire du regard des hommes. Comment gérer le célibat et l’envie de faire des rencontres quand on doit aussi passer sous Les Fourches caudines des injonctions sociales détaillant ce qui serait « une vie digne d’être vécue » comme le dit Judith Butler. La recette officielle du bonheur féminin est simple ; elle a d’ailleurs assez peu changé depuis une vingtaine d’années. Le bonheur ? C’est un jean taille 36. La honte ? Être célibataire à 30 ans. La pire angoisse ? Ne pas réussir à se caser avant 40 ans parce qu’après on perd toute valeur sur « le marché de la bonne meuf » comme dit Virginie Despentes. La réussite ? Rentrer dans un jean en taille 36. Ce qui disait Bridget Jones en 1996 n’a pas pris une ride… même si la conscience féministe de l’autrice sait bien que ces règles ne viennent pas d’elle et que plus elle tente de s’ajuster à cet idéal patriarcal, moins elle se respecte.
Peut-être que l’élément qui manque à son récit, c’est la prise de conscience de sa dimension très située : cette histoire est précisément celle d’une Parisienne blanche trentenaire qui a fait des études supérieures. Ses contraintes, ses angoisses, ses loisirs et ses libertés sont étroitement liés à sa position sociale. Elle raconte sa propre histoire, mais sans avoir explicitement conscience que cette histoire est liée à sa catégorie socioprofessionnelle et à son âge. Ce qui la choque le plus, dans son enquête sur Tinder, c’est le fait que l’application lui attribue une note de désirabilité, un score qui est secret et qui conditionne le type de profil qui lui sera proposé. Tinder fait se rencontrer des joueurs de mêmes forces, c’est-à-dire des personnes évaluées comme également désirables, mais Tinder ne communique pas à ses client-es la note qui leur attribue. Une partie de l’enquête de Judith Duportail va être motivée par la découverte de cette note. Pourtant, nous allons voir qu’il ne s’agit que d’un détail de la stratégie de Tinder.
L’histoire dont je vais parler dans ce texte, c’est l’autre, celle de Tinder et des applications de rencontre. Judith Duportail n’est la seule à la raconter. Elle a beaucoup été aidée par Jessica Pidoux, doctorante à l’université de Lausanne. A l’origine des travaux de Jessica Pidoux, il y a une idée toute simple. Quels sont les brevets qui ont été déposés par Tinder et qui sont donc à l’origine de son fonctionnement ? Les entreprises répètent tellement que leurs algorithmes sont secrets qu’on finit par les croire. Pourtant, quand on dépose une idée pour qu’on ne vous la vole pas, il faut bien la décrire. En somme, une bonne partie du mystère est disponible sur Internet, le reste, c’est de l’analyse sociologique.
En préambule, je tiens à préciser que je n’ai rien contre le principe des applications de rencontres, que ce soit pour rechercher une rencontre éphémère ou un partenaire de longue durée. Utiliser une telle appli, c’est un moyen pour sortir de l’entre-soi, pour éviter de devoir draguer sur son lieu de travail, pour éviter de transformer tous ses loisirs en possible terrain de chasse. C’est aussi un moyen de faire de l’entre-soi : rencontrer des personnes qui ont la même religion ou les mêmes valeurs sociales comme les applications qui ciblent les personnes avec un mode de vie écologique et décroissant. Et enfin, c’est un moyen de s’amuser avec sa sexualité. Mon seul problème, avec ces applications, c’est leur opacité, d’une part, et leur côté addictif d’autre part… non pas addictif à la rencontre, mais à l’application elle-même. Un fonctionnement avec lequel les utilisateurs et utilisatrices ne sont pas familiers, faute d’avoir été averti-es (voire formé-es) et sur lesquels les applications se gardent de communiquer.
Les applications de rencontre : de grosses machines à sous
Tout part d’un malentendu : on croit, à tort, que le but premier de Tinder et de ses clones est de nous permettre de faire des rencontres. Il n’en est rien : leur but est de rapporter de l’argent. Les rencontres sont juste le moyen d’y parvenir. Comment monétiser efficacement ce genre de site ? Comme beaucoup d’autres sites, Tinder est gratuit mais vend des fonctionnalités qui permettent à la version gratuite d’être plus performante. Tinder ne souhaite pas vous faire rencontrer l’amour, car ce serait la mort de son fonds de commerce. D’ailleurs, il ne s’est jamais positionné sur le créneau de la rencontre « pour la vie » mais plutôt du « coup d’un soir » ou du « plan cul » : ce sont des expériences qu’on peut réitérer sans fin et rapidement, contrairement à la relation amoureuse sexuellement exclusive, qui n’est absolument pas « bankable ».
L’autre moyen mis en œuvre par Tinder pour gagner de l’argent est de transformer ses utilisateurs-trices en produit. À la connexion, Tinder déploie un certain nombre de subterfuges pour collecter un maximum de données vous concernant. Il vous invite à lui donner les clés de votre compte Facebook, pour éviter de présenter votre profil à vos amis-es. Il vous propose, via Spotify, de mettre en lien votre chanson préférée, car la musique est un excellent moyen d’entamer la conversation. Enfin, il vous invite à connecter votre compte à Instagram où il y a des tonnes de photos géniales qui vous permettront de vous mettre en valeur. Prévenant, Tinder ? Disons plutôt qu’il se comporte comme un formidable aspirateur, engrangeant tout ce qu’il peut attraper et utilisant une infime partie de ces informations pour son activité « vitrine » : vous aider à rentrer en relation avec les inconnu-es qui vous ressemblent.
On peut toutefois utiliser Tinder en fournissant le strict minimum d’informations : pour utiliser l’application, vous avez seulement besoin de mettre votre numéro de téléphone (qui ne sera pas communiqué), un pseudo, votre âge, sexe et localisation. Puis, vous indiquez le sexe des personnes recherchées, leur tranche d’âge et la distance maximum à laquelle elles doivent habiter. Ensuite, l’application vous demande de charger 2 photos pouvant représenter n’importe quoi (vous pouvez même mettre une photo noire), et c’est parti.
Les rencontres seront-elles moins riches ou moins satisfaisantes si vous frustrez Tinder dans la pêche à l’information ? Si on va sur Tinder, c’est d’abord parce qu’on s’en moque un peu de cette « compatibilité » calculée car il existe de nombreuses applications qui vous font remplir un questionnaire détaillé. Alors, inutile de donner des données qui ne servent qu’à monnayer notre profil. De toute façon, l’IA de Tinder est bien incapable de deviner ce qu’est une alchimie qui fonctionne, elle peut juste trouver des proximités entre les profils. En outre, un sondage rapide auprès des utilisatrices et utilisateurs indique assez vite que « riches et satisfaisantes » ne sont pas les adjectifs les plus utilisés pour décrire les rencontres… ni même ce qui est toujours recherché.
La deuxième manière pour Tinder de faire de l’argent est la vente régulière de fonctionnalités permettant d’optimiser votre « expérience d’utilisation ». Pour cela, il faut vous rendre accro. Tinder / Candy crunch / Facebook et les autres : même combat. La ludification de l’activité combinée à un système de récompenses et d’encouragements vous incite à continuer à jouer indéfiniment. Il faut reconnaitre que Tinder a un système de gratification particulièrement efficace : sur Instagram, on aime vos photos, sur Facebook, on salue vos propos ou les infos que vous transférez, sur Tinder on vous aime, vous ! Double dose de dopamine. Le succès de Tinder tient à mon sens davantage à l’ergonomie de son interface qu’à la performance de son algorithme…
La gestion du catalogue de profils
Vous voilà donc devant l’application et vous êtes prêt ou prête à… à quoi au fait ? Vous savez bien que ce n’est pas pour trouver l’amour… mais on ne sait jamais… Le prince charmant, la reine des neiges va peut-être vous contacter…
Vous entrez dans l’application et une première photo apparaît : Jojo, 40 ans, a étudié à : école de la vie, situé à 3 km. Si Jojo ne vous plait pas, vous glissez la photo à gauche. Ce geste, c’est le coup de génie de Tinder, le brevet qui restera : le swipe. Swipe à droite, ça vous plait, swipe à gauche, ça ne vous plait pas. Ultra intuitif, ultra efficace. Donc vous swipez Jojo vers la gauche, et là, Tim apparait, 48 ans, 25 km, Ingénieur, a étudié à Sup Aéro. Une phrase d’accroche : « Ce que je cherche chez l’autre ? l’honnêteté ». Au fond de vous, il y a peut-être une petite voix qui vous dit : « ça m’étonnerait que quelqu’un écrive : ce que je cherche ? c’est qu’on me mente régulièrement », mais on est là pour jouer… vous swipez à droite. Et on passe à Roméo, 35 ans, qui cherche des rencontres en toute discrétion Etc. La pile de photos semble sans fin. Si Tim vous swipe également à droite, Tinder vous mettra en contact, c’est un match. Comme on ne sait pas qui vous a sélectionné, autant en sélectionner beaucoup, pour augmenter ses chances de matchs. Et on continue à faire défiler le catalogue… Gus, 43 ans, fonctionnaire, « Je cherche quelqu’un qui me fera quitter Tinder. J’aime les chats, le vélo et les femmes qui ont de l’humour ». Swipe. Au suivant.
@pexels
Mais au fait, comment cette pile est-elle triée ? C’est là qu’intervient votre score de désirabilité. Plus vous êtes choisi, plus vous êtes désirable et plus on vous présente des personnes souvent choisies. Pour que le jeu fonctionne indéfiniment, il faut que les profils présentés vous plaisent, avec de temps en temps, un profil top qui vous relance et vous incite à continuer à faire défiler. Ou une incitation à payer un service qui vous permettra un super match. Tinder vous évalue, et pour cela il applique les règles archaïques de la société patriarcale, il estime qu’il vaut mieux présenter des hommes à haut niveau social à des femmes plus jeunes qu’eux et à moins hauts revenus. Avec votre compte Facebook, Instagram, et même avec vos photos, Tinder se fait une idée de qui vous êtes. Vous êtes en photo dans votre salon ou dans une piscine de jardin ou sur des skis ou en parapente ou devant le Golden Gate… tout cela dit des choses sur votre niveau social.
Curieusement, c’est ce score de désirabilité (appelé elo score) qui a le plus choqué Judith Duportail. Elle pouvait admettre d’être notée, mais supportait pas de ne pas connaître sa note. Pourtant, noter, évaluer les uns et les autres d’une manière non transparente est une activité commune et continuelle… Facebook a été créé originellement pour noter les étudiantes à Harvard, les banques évaluent votre capacité à rembourser un prêt, même Parcours sup vous jauge sans tout vous dire de ses critères. Quoiqu’on pense du procédé, il est assez banal.
La plus grande difficulté de Tinder, c’est d’équilibrer ses deux catalogues : il y a au moins deux fois plus d’hommes que de femmes sur les sites de rencontre. D’autant plus que les hommes, pour augmenter leurs chances s’inscrivent partout : Tinder, mais aussi Meetic, Adopte un mec, Ok Cupid, Fruitz… les sites ne manquent pas et les hommes accentuent le déséquilibre en faisant feu de tout bois.
Le résultat est que pour les femmes, l’utilisation d’un site de rencontre est vite gratifiante : elles ont un succès fou, elles sont en position de force sur un marché tendu. Si vous sélectionnez une dizaine de profils, vous vous retrouvez à devoir gérer la file d’attente des hommes qui vous ont matché… mais restez lucide : ce n’est pas parce que vous êtes incroyablement attirante… c’est surtout parce que vous êtes rare. Judith Duportail et Nicolas Kayser-Bril ont échangé les rôles : Nicolas a mis une photo noire en disant qu’il était une femme… Au bout de deux heures, il ne supportait plus les mecs. Il était dragué sans relâche. Sur la tranche d’âge des trentenaires, beaucoup d’hommes ne choisissent pas. Ils swipent toutes les femmes et attendent que ça morde. Autant pour l’algorithme sophistiqué.
Tinder se paye sur la frustration des hommes. Il y a tellement de profils d’hommes que le vôtre ne sera peut-être jamais présenté. Pas assez séduisant, pas assez riche, pas assez sexy, bref, pas bien noté. Mais si vous payez, votre profil sera présenté en tête pendant un certain laps de temps.
Un supermarché de la rencontre pour les un-es, un moyen d’empowerment pour les autres
Photo de Olya Kobruseva provenant de Pexels
Pour que Tinder donne sa pleine mesure, il a besoin de beaucoup de profils et de beaucoup de données. L’expérience Tinder à Auxerre ou à Tulle n’est pas la même qu’à Paris. L’expérience Tinder d’une Parisienne de 30 ans est très différente de celle d’une quadra vivant à la campagne… et pour le coup, il y aussi des bonnes nouvelles. A force de lire des récits ou des interviews de jeunes adultes, on oublie qu’il n’y a pas de limite d’âge pour s’inscrire ni pour draguer. Au moment où des chroniqueurs goujats expliquent que les femmes de 50 ans sont invisibles, celles-ci découvrent sur Tinder que des hommes qui ont plus ou moins leur âge sont désireux de les séduire…
et si Tinder apporte son lot de mecs lourds et vulgaires, il est bien plus simple de s’en débarrasser en ligne que dans une soirée.
Ces applications sont accusées de marchandiser les relations sentimentales, de pousser à la collection de rencontres. Comme dit Judith Duportail : on revient toujours voir s’il n’y a pas mieux en rayon. Les gens risquent-ils de devenir des célibataires en série, dépendant des applications pour se rencontrer ? En réalité, aucune évidence scientifique ne démontre de tels faits, au contraire.
D’une part, les rencontres sont facilitées : dans la vie hors ligne (et surtout en période de pandémie), tout le monde n’a pas une vie sociale dense, ni le temps, l’envie ou l’audace nécessaires pour aborder les inconnu-es. De plus, si les hommes ont peur d’être repoussés, les femmes ont peur d’être agressées… l’enjeu du « raté » n’est pas le même mais dans les deux cas, le risque se gère bien mieux à distance.
Dans cette enquête « les applications de rencontres ne détruisent pas l’amour« , Gina Potarca montre qu’il n’existe pas de différence sur les intentions des couples formés en ligne ou à l’ancienne. En particulier aucune différence n’existe sur l’intention de se marier ou pas. Et, quel que soit le type de rencontre, les couples sont tout aussi heureux de leur vie et de la qualité de leur relation avec leur partenaire. Enfin, ce mode de rencontre est particulièrement favorable aux femmes diplômées qui trouvent plus facilement un partenaire, là encore, à l’encontre des idées reçues qui voudraient que les femmes intelligentes soient vouées au célibat. Au final, Tinder permet de la mobilité sociale : parce que, quoiqu’en pensent ses concepteurs, des hommes sortent volontiers avec des femmes plus âgées, plus diplômées ou plus riches qu’eux.
Votre vie en ligne
Finalement, ces applications ont considérablement modifié les modes d’entrée en relation, permettant à bien plus de personnes de se lancer. La honte larvée qui existait à utiliser ce genre de « petites annonces » (car le procédé est tout de même ancien !) est en train de disparaître, même si les femmes restent plus réticentes, parce que ce sont elles qui ont le plus à perdre si ça tourne mal, y compris en termes de réputation. Mais derrière cette révolution sociale de la rencontre, il faut garder à l’esprit que le fond de l’affaire, la motivation première, ce sont nos données. Les connexions entre les bases de données qui ne sont pas faites aujourd’hui le seront peut-être demain, au hasard des rachats de services entre GAFAM. Demain, votre profil Tinder pourrait alimenter les IA de recrutement qui ratissent LinkedIn : elles iront lire votre conversation sexy sur WhatsApp avant de savoir si vraiment vous êtes fait-e pour le job… N’oubliez pas que quand vous supprimez une conversation ou un profil, Internet, lui, n’oublie rien.
Encore plus d’infos sur Tinder ? L’excellente série Dopamine, sur Arte .
Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils considèrent les aspects techniques. Dans un deuxième, ils traiteront des craintes autour de la 5G. Un dernier adressera la question des applications de cette technologie.
Cet article est en collaboration avec Theconversation France. Toute la série.
On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.
Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.
Tous les 10 ans en gros, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages; récemment, c’était la 5G.
Antenne 5G en Allemagne, Wikpédia
On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc). C’est permis par les avancées scientifiques et technologiques qui ont amélioré les “tuyaux” où circulent les données. De fait, les usages absorbent tout ce que la techno propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.
Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications global, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.
Logo 5G du 3GPP
La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde des normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordi d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.
Nous allons mentionner dans ce premier article les belles avancées scientifiques et techniques qui sous-tendent la 5G, et ce qu’elles apportent en termes de fonctionnalités. Mais introduire des technologies dans nos vies quotidiennes n’est jamais innocent. Dans un second article, nous envisagerons les questionnements que cela soulève pour ce qui est de l’environnement principalement, mais aussi de la sécurité, la santé ou la souveraineté. Dans un dernier article, nous regarderons du côté des services et des usages et essaierons d’analyser la difficile question de savoir ce qui va vraiment changer, les changements réels induits par de telles technologies disruptives étant souvent différents de ce qui était prévu à l’origine ou annoncé au moment du lancement.
La portée de 3 bandes de fréquences. Source Arcep.
Les fonctionnalités
La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.
Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps, le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que “le débit de pic” soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.
Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.
La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visualiser un film, on s’en fout. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut juste faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.
La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets) Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.
La dernière dimension, la virtualisation, est cette fois de nature logicielle. De même que le cloud computing virtualise les ressources de calcul et de stockage distantes, la 5G permet de virtualiser différents éléments d’un réseau de communication. Jusqu’à la 4G, un opérateur particulier disposait de sa propre bande de fréquences, de ses matériels notamment radio, et de logiciels qui s’exécutaient sur ces matériels. Les réseaux des différents opérateurs étaient bien isolés les uns des autres. La virtualisation (dont nous détaillerons des aspects techniques plus loin) permet de construire des réseaux virtuels étanches les uns aux autres mais partageant la même bande de fréquences ; par exemple, une industrie pourra exploiter son propre réseau étanche et limité géographiquement pour y connecter ses propres objets et services.
Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des “cœurs de réseaux”.
4G en bleu et 5G en rouge. Source ArcepSource Arcep
Il faut aussi parler de deux autres dimensions :
L’efficacité énergétique qui a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.
Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux-aussi inclure de l’IA.
Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.
Les innovations techniques logicielles
La virtualisation. Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plateformes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.
Edge Computing. Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.
Network slicing. Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une “tranche de fréquences” pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.
Les innovations techniques radios
Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe mais qui permettra des économies d’énergie une fois bien maitrisée. Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation
L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes.
L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en Wifi (voix sur Wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un “trou” lors du passage de l’une à l’autre.
Le mode TDD (Time Division Duplexing) : on partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.
Les « petites cellules » (small cells). La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.
Les communications de terminal à terminal. Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.
La radio cognitive. L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.
Et demain, la 6G
S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le “plus fin” : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous “humains”, probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.
En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.
Bien sûr, l’intelligence artificielle sera hyper-présente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.
La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café… Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.
Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France
Un nouvel « Entretien autour de l’informatique ». Judith Rochfeld est professeure de droit privé à l’École de droit de la Sorbonne, et directrice du Master 2 « Droit du commerce électronique et de l’économie numérique ». C’est une des meilleures spécialistes des communs. Elle est co-éditrice du Dictionnaire des biens communs aux PUF, 2021. Elle est autrice de « Justice pour le climat ! Les nouvelles formes de mobilisation citoyenne » chez Odile Jacob, 2021. Cet article est publié en collaboration avec theconversation.fr.
Judith Rochfeld
binaire : Judith, peux-tu nous dire qui tu es, d’où tu viens ?
JR : Je suis au départ une juriste, professeure de droit privé à l’Université Paris 1 Panthéon-Sorbonne. Au début, je m’intéressais aux grandes notions juridiques classiques, dont la propriété privée. Puis, sous le coup de rencontres et d’opportunités, j’ai exploré deux directions : le droit du numérique d’un côté ; et, avec un groupe de travail composé d’économistes, d’historiens, de sociologues, les « communs » dans la suite des travaux d’Elinor Ostrom (*), d’un autre côté. Cela m’a amenée à retravailler, entre autres, la notion de propriété. Par la suite, pour concrétiser certains des résultats de ces réflexions, j’ai dirigé, avec Marie Cornu et Fabienne Orsi, la rédaction d’un dictionnaire des biens communs. Aujourd’hui, je m’intéresse particulièrement à toutes les formes de biens communs et de communs, principalement en matière numérique et de données ainsi qu’en environnement.
binaire : Pourrais-tu préciser pour nos lecteurs les notions de « biens communs » et de « communs » ?
JR : Le vocabulaire n’est pas complètement stabilisé et peut varier suivant les interlocuteurs. Mais si l’on tente de synthétiser, on parlerait de « biens communs » pour saisir des biens, ressources, milieux, etc., à qui est associé un intérêt commun socialement, collectivement et juridiquement reconnu. Ce peut être l’intérêt d’une communauté nationale, internationale ou l’intérêt de groupes plus locaux ou restreints. On peut prendre l’exemple des monuments historiques : en 1913, on a assisté à des combats législatifs épiques pour faire reconnaître qu’il fallait les identifier, les classer, et admettre qu’ils présentaient un intérêt pour la nation française dans son ensemble ; qu’en conséquence, leurs propriétaires, fussent-ils privés, ne pouvaient pas avoir sur eux de pleins pouvoirs (comme le voudrait l’application de la propriété classique), jusqu’à celui de les détruire ; qu’ils devaient tenir compte de l’intérêt pour d’autres (voire pour les générations à venir), avec des conséquences juridiques importantes (l’obligation de les conserver dans leur état, de demander une autorisation pour les modifier, etc.).
Il existe d’ailleurs divers intérêts communs reconnus : l’intérêt historique et/ou artistique d’un monument ou d’autres biens culturels, l’intérêt environnemental ou d’usage commun d’un cours d’eau ou d’un terrain, l’intérêt sanitaire d’un vaccin, etc.
Mais précisons la terminologie. D’abord, il faut différencier entre « biens communs » et le « bien commun » discuté, par exemple, dans « Économie du bien commun » de Jean Tirole. Le second renvoie davantage à l’opposition entre bien et mal qu’à l’idée d’un intérêt commun.
Ensuite, il faut distinguer « biens communs » et « communs ». Avec la notion de « communs » (dans le sens que lui a donné Elinor Ostrom), on ajoute l’idée d’une organisation sociale, d’un gouvernement de la ressource par la communauté. C’est cette communauté qui gère les accès, les prélèvements, les différents droits…, et assure avec cela la pérennité de la ressource. C’est le cas par exemple pour un jardin partagé, un tiers-lieu, ou une encyclopédie en ligne telle que Wikipédia, administrés par leurs utilisateurs ou un groupe de personnes dédiées.
Un commun se caractérise typiquement par une communauté, une ressource que se partage cette communauté, et une gouvernance. Dans un bien commun, on n’a pas forcément cette gouvernance.
binaire : Cela conduit bien-sûr à des conflits avec la propriété privée ?
JR : On a souvent tendance à opposer les notions de biens communs ou de communs au droit de propriété privée, très belle avancée de la révolution française en termes d’émancipation et de reconnaissance d’un espace d’autonomie sur ses biens au bénéfice de l’individu propriétaire. Reconnaître qu’un bien porterait un intérêt commun poserait des limites au pouvoir absolu que la propriété renferme, en imposant la considération de l’intérêt d’une communauté. Cela peut être vrai dans certains cas, comme celui des monuments historiques évoqué.
Mais c’est oublié qu’il peut y avoir aussi une volonté du propriétaire d’aller en ce sens. La loi de protection de la biodiversité de 2016 permet ainsi, par exemple, de mettre un bien que l’on possède (un terrain, une forêt, etc.) au service d’une cause environnementale (la réintroduction d’une espèce animale ou végétale, la préservation d’une espèce d’arbre,…) en passant un accord pour formaliser cette direction : le propriétaire établit un contrat avec une association ou une collectivité, par exemple, et s’engage (et engage ses héritiers) à laisser ce dernier au service de la cause décrite. On assiste alors à une inversion de la logique de la propriété : elle sert à partager ou à faire du commun plutôt qu’à exclure autrui. C’est la même inversion qui sert de fondement à certaines licences de logiciel libre : celui qui pourrait bénéficier d’une « propriété » exclusive, à l’égard d’un logiciel qu’il a conçu, choisit plutôt de le mettre en partage et utilise pour cela une sorte de contrat (une licence de logiciel libre particulière) qui permet son usage, des modifications, mais impose à ceux qui l’utilise de le laisser en partage. Le droit de propriété sert ainsi à ouvrir l’usage de cette ressource plutôt qu’à le fermer.
binaire : Pour arriver aux communs numériques, commençons par internet. Est-ce que c’est un bien commun ? Un commun ?
JR : C’est une grande discussion ! On a pu soutenir qu’Internet était un commun mondial : on voit bien l’intérêt de cette ressource ou de cet ensemble de ressources (les différentes couches, matérielles, logicielles, etc.) pour une communauté très large ; ses fonctionnement et usages sont régis par des règles que se donnent des « parties prenantes » et qui sont censées exprimer une sorte de gouvernance par une partie de la communauté intéressée. En réalité, internet a même plusieurs gouvernances — technique, politique — et on est loin d’une représentation de l’ensemble des parties prenantes, sans domination de certains sur d’autres. La règle, cependant, qui exprime peut-être encore le mieux une partie de cette idée est celle de neutralité du net (dont on sait qu’elle a été bousculée aux États-Unis) : tout contenu devrait pouvoir y circuler sans discrimination.
binaire : Est-ce qu’on peut relier cela au droit de chacun d’avoir accès à internet ?
JR : Oui, ce lien est possible. Mais, en France, le droit à un accès à internet a plutôt été reconnu et fondé par le Conseil constitutionnel sur de vieilles libertés : comme condition des libertés d’information et d’expression.
binaire : Le sujet qui nous intéresse ici est celui des communs numériques. Est-ce tu vois des particularités aux communs numériques par rapport aux communs tangibles ?
JR : Oui tout à fait. Ostrom étudiait des communs tangibles comme des systèmes d’irrigation ou des forêts. La menace pour de telles ressources tient principalement dans leur surexploitation : s’il y a trop d’usagers, le cumul des usages de chacun peut conduire à la disparition matérielle de la ressource. D’ailleurs, l’économie classique postule que si j’ouvre l’usage d’un bien tangible (un champ par exemple, ouvert à tous les bergers désirant faire paître leurs moutons), ce dernier sera surexploité car personne ne ressentira individuellement la perte de façon suffisante et n’aura intérêt à préserver la ressource. C’est l’idée que synthétisera Garrett Hardin dans un article de 1968 resté célèbre, intitulé la « Tragédie des communs » (**). La seule manière de contrer cet effet serait d’octroyer la propriété (ou une réglementation publique). Ostrom s’inscrira précisément en faux en démontrant, à partir de l’analyse de cas concrets, que des systèmes de gouvernance peuvent se mettre en place, édicter des règles de prélèvements et d’accès (et autres) et assurer la pérennité de la ressource.
Pour ce qui est des communs numériques, ils soulèvent des problèmes différents : non celui de l’éventuelle surexploitation et de la disparition, mais celui qu’ils ne soient pas produits. En effet, si j’ouvre l’accès à des contenus (des notices de l’encyclopédie numérique, des données, des œuvres, etc.) et si, de plus, je rends gratuit cet usage (ce qui est une question un peu différente), quelle est alors l’incitation à les créer ?
Il faut bien préciser que la gratuité est une dimension qui a été placée au cœur du web à l’origine : la gratuité et la collaboration, dans une vision libertaire originaire, allaient quasi de soi. Les logiciels, les contenus distribués, etc. étaient créés par passion et diffusés dans un esprit de don par leurs concepteurs. Or, ce faisant, on fait un choix : celui de les placer en partie hors marché et de les faire reposer sur des engagements de passionnés ou d’amateurs désintéressés. La question se pose pourtant aujourd’hui d’aller vers le renforcement de modèles économiques qui ne soient plus basés que sur cette utopie du don, ou même sur des financements par fondations, comme ceux des Mozilla et Wikipedia Fundations.
Pour l’heure, la situation actuelle permet aux grandes plateformes du web d’absorber les communs (les contenus de wikipédia, des données de tous ordres, etc.), et ce sans réciprocité, alors que l’économie de l’attention de Google dégage des revenus énormes. Par exemple, alors que les contenus de l’encyclopédie Wikipédia, un commun, alimentent grandement le moteur de recherche de Google (ce sont souvent les premiers résultats), Wikipédia n’est que très peu rétribuée pour toute la valeur qu’elle apporte. Cela pose la question du modèle économique ou du modèle de réciprocité à mettre en place, qui reconnaisse plus justement la contribution de Wikipédia aux revenus de Google ou qui protège les communs pour qu’ils demeurent communs.
binaire : On pourrait également souhaiter que l’État soutienne le développement de communs. Quelle pourrait être une telle politique de soutien ?
JR : D’un côté, l’État pourrait s’afficher aux côtés des communs : inciter, voire obliger, ses administrations à choisir plutôt des communs numériques (logiciels libres, données ouvertes, etc.). C’est déjà une orientation mais elle n’est pas véritablement aboutie en pratique.
D’un autre côté, on pourrait penser et admettre des partenariats public-commun. En l’état des exigences des marchés publics, les acteurs des communs ont du mal à candidater à ces marchés et à être des acteurs reconnus de l’action publique.
Et puis, le législateur pourrait aider à penser et imposer la réciprocité : les communs se réclament du partage. Eux partagent mais pas les autres. Comment penser une forme de réciprocité ? Comment faire, par exemple, pour qu’une entreprise privée qui utilise des ressources communes redistribue une partie de la valeur qu’elle en retire ? On a évoqué le cas de Google et Wikipédia. Beaucoup travaillent actuellement sur une notion de « licence de réciprocité » (même si ce n’est pas simple) : vous pouvez utiliser la ressource mais à condition de consacrer des moyens ou du temps à son élaboration. Cela vise à ce que les entreprises commerciales qui font du profit sur les communs participent.
Dans l’autre direction, un projet d’article 8 de la Loi pour une République Numérique de 2016 (non adopté finalement) bloquait la réappropriation d’une ressource commune (bien commun ici) : il portait l’idée que les œuvres passées dans le domaine public (des contenus numériques par exemple) devenaient des « choses communes » et ne pouvaient pas être ré-appropriées par une entreprise, par exemple en les mettant dans un nouveau format ou en en limitant l’accès.
D’aucuns évoquent enfin aujourd’hui un « droit à la contribution », sur le modèle du droit à la formation (v. L. Maurel par exemple) : une personne pourrait consacrer du temps à un commun (au fonctionnement d’un lieu partagé, à l’élaboration d’un logiciel, etc.), temps qui lui serait reconnu pour le dédier à ces activités. Mais cela demande d’aller vers une comptabilité des contributions, ce qui, à nouveau, n’est pas facile.
En définitive toutes ces propositions nous conduisent à repenser les rapports entre les communs numériques, l’État et le marché.
binaire : Nous avons l’impression qu’il existe beaucoup de diversité dans les communautés qui prônent les communs ? Partages-tu cet avis ?
JR : C’est tout à fait le cas. Les communautés qu’étudiaient Ostrom et son École étaient petites, territorialisées, avec une centaine de membres au plus, identifiables. Avec l’idée des communs de la connaissance, on est passé à une autre échelle, parfois mondiale.
Certains communs se coulent encore dans le moule. Avec Wikipédia, par exemple, on a des communautés avec des rôles identifiés qui restent dans l’esprit d’Ostrom. On a la communauté des « bénéficiaires » ; ses membres profitent de l’usage de la ressource, comme ceux qui utilisent Wikipédia. On a aussi la communauté « délibérative », ce sont les administrateurs de Wikipédia qui décident des règles de rédaction et de correction des notices par exemple, ou la communauté « de contrôle » qui vérifie que les règles ont bien été respectées.
Mais pour d’autres communs numériques, les communautés regroupent souvent des membres bien plus mal identifiés, parfois non organisés, sans gouvernement. Je travaille d’ailleurs sur de telles communautés plus « diffuses », aux membres non identifiés a priori mais qui bénéficient de ressources et qui peuvent s’activer en justice pour les défendre quand celles-ci se trouvent attaquées. Dans l’exemple de l’article 8 dont je parlais, il était prévu de reconnaître que tout intéressé puissent remettre en cause, devant les tribunaux, le fait de ne plus pouvoir avoir accès à l’œuvre du domaine public du fait de la réappropriation par un acteur quelconque. Il s’agit bien d’une communauté diffuse de personnes, sur le modèle de ceux qui défendent des « ressources environnementales ». On peut y voir une forme de gouvernance, certes à la marge.
binaire : On a peu parlé de l’open data public ? Est-ce que la définition de commun que tu as donné, une ressource, des règles, une gouvernance, s’applique aussi pour les données publiques en accès ouvert ?
JR : Il y a des différences. D’une part, les lois ont vu dans l’open data public le moyen de rendre plus transparente l’action publique : les données générées par cette action devaient être ouvertes au public pour que les citoyens constatent l’action publique. Puis, en 2016, notamment avec la loi pour une République numérique évoquée, cette politique a été réorientée vers une valorisation du patrimoine public et vers une incitation à l’innovation : des startups ou d’autres entreprises doivent pouvoir innover à partir de ces données. Les deux motivations sont légitimes. Mais, mon impression est qu’aujourd’hui, en France, l’État voit moins dans l’open data un moyen de partage de données, qu’un espace de valorisation et de réappropriation. D’autre part, ce ne sont pas du tout des communs au sens où il n’y a pas de gouvernance par une communauté.
binaire : Tu travailles beaucoup sur le climat. On peut citer ton dernier livre « Justice pour le climat ». Quelle est la place des communs numériques dans la défense de l’écologie ?
JR : Je mets de côté la question de l’empreinte environnementale du numérique, qui est un sujet assez différent, mais néanmoins très préoccupant et au cœur des réflexions à mener.
Sur le croisement évoqué, on peut tracer deux directions. D’une part, il est évident qu’un partage de données « environnementales » est fondamental : pour mesurer les impacts, pour maîtriser les externalités. Ces données pourraient et devraient être saisies comme des « biens communs ». On a également, en droit, la notion voisine de « données d’intérêt général ». Il y a déjà des initiatives en ce sens en Europe et plus largement, que ce soit à l’égard des données publiques ou de données générées par des entreprises, ce qui, encore une fois, est délicat car elles peuvent recouper des secrets d’affaires.
D’autre part, la gravité de la crise environnementale, et climatique tout particulièrement, donne lieu à des formes de mobilisations qui, pour moi, témoignent de nouvelles approches et de la « conscientisation » des biens communs. Notamment, les procès citoyens que je décris dans le livre, qui se multiplient dans une bonne partie du monde, me semblent les expressions d’une volonté de réappropriation, par les citoyens et sous la pression de l’urgence, du gouvernement d’entités ressenties comme communes, même si le procès est une gouvernance qui reste marginale. Ils nous indiquent que nous aurions intérêt, pour leur donner une voie de gouvernement plus pacifique, à installer des instances de délibération, à destination de citoyens intéressés (territorialement, intellectuellement, par leur activité, leurs besoins, etc.) saisis comme des communautés diffuses. A cet égard, une initiative comme la Convention Citoyenne sur le climat était particulièrement intéressante, ouvrant à une version moins contentieuse que le procès.
Il pourrait en aller de même dans le cadre du numérique : l’utilisation de l’ensemble de nos données personnelles, des résultats de recherche obtenus en science ouverte, etc. pourraient, comme des communs, être soumise à des instances de délibération de communautés. On prendrait conscience de l’importance des données et on délibérerait sur le partage. Sans cela, on assistera toujours à une absorption de ces communs par les modèles d’affaires dominants, sans aucune discussion.
Serge Abiteboul, Inria & ENS Paris, François Bancilhon, serial entrepreneur
(*) Elinor Ostrom (1933-2012) est une politologue et économiste américaine. En 2009, elle est la première femme à recevoir le prix dit Nobel d’économie, avec Oliver Williamson, « pour son analyse de la gouvernance économique, et en particulier, des biens communs ». (Wikipédia)
(**) « La tragédie des biens communs » est un article décrivant un phénomène collectif de surexploitation d’une ressource commune que l’on retrouve en économie, en écologie, en sociologie, etc. La tragédie des biens communs se produirait dans une situation de compétition pour l’accès à une ressource limitée (créant un conflit entre l’intérêt individuel et le bien commun) face à laquelle la stratégie économique rationnelle aboutit à un résultat perdant-perdant.
Un nouvel « Entretien autour de l’informatique ». Véronique Bellon-Maurel nous parle d’agriculture, de numérique, et d’environnement, des domaines qui, depuis des années, se rencontrent de plus en plus. Véronique Bellon-Maurel est agronome, une des meilleures expertes du domaine, et elle dirige l’Institut Convergences Agriculture Numérique, #DigitAg, depuis 2016. Elle a reçu le Grand Prix IMT – Académie des Sciences en 2020. Elle nous parle, entre autres, des « analyses de cycle de vie ». Nous espérons que vous prendrez autant de plaisir à découvrir cet échange que nous à le réaliser.
Véronique Bellon-Maurel
Binaire : Pour débuter, pourrais-tu nous parler de ton parcours ?
Véronique Bellon-Maurel : Tout d’abord, j’ai obtenu un diplôme d’ingénieur agronome à AgroParisTech (à l’époque INAP-G), et je me suis spécialisée dans les capteurs et la mesure des propriétés des produits complexes. Dans cette optique, j’ai préparé une thèse de doctorat sur l’évaluation du goût des fruits en utilisant une méthodologie de mesure non destructive pour les produits : la spectroscopie dans le proche infrarouge.
J’ai passé la plus grande partie de ma carrière comme chercheuse dans un institut qui a beaucoup évolué, le Cemagref devenu Irstea puis INRAE en 2020, à l’exception d’une période de 7 ans comme professeur à l’Institut Agro-Montpellier SupAgro. J’ai beaucoup travaillé sur les capteurs optiques, la spectrométrie et l’imagerie proche infrarouge, pour les produits agricoles, l’agriculture de précision mais aussi pour évaluer d’autres propriétés difficiles à mesurer comme la biodégradabilité des plastiques.
Ceci m’a amenée à réfléchir plus largement à l’évaluation de l’empreinte environnementale des produits. C’est ainsi qu’à partir de 2009-2010, à l’occasion d’un séjour sabbatique en Australie, j’ai exploré les questions liées à l’évaluation des impacts environnementaux des productions agricoles, forestières et des écotechnologies, basée sur les Analyses de Cycle de Vie (ACV).
Enfin, à partir de 2013, je suis devenue directrice du département Ecotechnologies à Irstea où j’ai pu contribuer à plusieurs rapports sur les technologies du futur en agriculture. En 2016, j’ai monté l’Institut Convergences #DigitAg sur l’agriculture numérique et j’en ai pris la direction.
Illustration des grandes phases d’une analyse de cycle de vie, comme décrite par ISO 14040
B : Est-ce que tu pourrais expliquer en plus de détail aux lecteurs de Binaire ce que sont ces fameuses Analyses de Cycle de Vie ?
VBM : L’ACV est une méthode pour étudier « l’empreinte » environnementale d’un procédé ou d’un produit qui s’est surtout diffusée à partir du début des années 1990. Prenons l’exemple d’une technologie de transfert des données, comme la 5G. Si on veut analyser et comparer son empreinte à d’autres technologies, il faut d’abord définir le service rendu (par exemple « transférer 1Mb de données à telle vitesse »). Ensuite, on doit considérer le système complexe qui permet de fournir ce service et ce pour chaque technologie, afin de les comparer. On réalise donc la modélisation numérique de ces systèmes, des consommations de matière et d’énergie et de flux polluants. On intègre différents aspects : l’énergie consommée pour la fabrication, les ressources utilisées comme les terres rares, l’infrastructure télécom installée avec ses data centers, la consommation énergétique pendant l’usage, la durée de vie, la réparation ou le recyclage des téléphones, etc. Puis pour quantifier des impacts à partir de ces émissions, on utilise des « chemins d’impact » calculés par des spécialistes des sciences de l’environnement.
On obtient donc des impacts quantifiés à partir des estimations de la consommation énergétique et de matières premières. La tâche la plus difficile est vraiment la construction et l’ajustement du modèle qui permet de faire l’inventaire, c’est-à-dire la collecte ou la simulation des données de consommations et émissions associées. Avec trop de facteurs, trop de paramètres à considérer, on pourrait presque penser que c’est impossible. Mais le travail de l’expert praticien est justement de construire un modèle pertinent qui sera assez « fin » sur les étapes les plus impactantes. Dans un premier temps, une analyse grossière permet de comprendre quels sont les postes importants, puis on affine pour ces postes, et on se permet de négliger d’autres postes qui auraient réclamé de trop gros efforts de collecte.
B : Ça sert vraiment en pratique ?
VBM : Bien sûr. Mes travaux portent sur l’agriculture. Une ACV peut chercher à répondre avec des valeurs concrètes, précises, par exemple, à une question simple comme « quelle est l’empreinte environnementale pour produire un kilo de blé ».
Mais si la question est simple, la réponse peut être complexe. Cela va dépendre de la géographie, produire un litre d’eau en Guyane et dans le Sahel, on comprend que ce n’est pas la même chose ; ou de la nature du blé visé, la quantité, de nombreux paramètres. Les consommateurs demandent de plus en plus du bio. Mais, est-ce mieux sur tous les aspects d’un point de vue environnemental ? La réponse n’est pas aussi simple qu’on veut bien le dire. On a besoin de mieux maitriser le sujet pour progresser. L’étude de l’empreinte environnementale de l’agriculture est un sujet passionnant.
B : On sort des incantations. Vous apportez des faits, des vérités.
VBM : C’est ce que nous sommes tenus de faire. Il ne s’agit pas juste de publier des résultats. Il faut aussi que ces résultats puissent être vérifiés, répliqués si quelqu’un le demande. Pour cela, les choix du modèle doivent être clairs et explicités, on doit avoir accès au détail des formules, des logiciels, des données utilisées.
B : Les données sont importantes ?
VBM : On n’insiste jamais assez sur la valeur des données pour les ACV. Le plus dur c’est souvent d’obtenir ces données. Les informaticiens disent « Garbage in, garbage out ». Si vous utilisez des données médiocres pour une ACV, ses résultats n’auront aucune valeur.
Les ACV ont besoin de données et on pourrait d’ailleurs faire beaucoup mieux. On pourrait faire des analyses bien plus fines, par exemple, avec les « carnets de cultures ». Ce sont des carnets que les agriculteurs utilisent et dans lesquels ils décrivent les traitements réalisés, les conditions climatiques, hygrométriques, etc. Toutes ces informations représentent exactement les données nécessaires aux modèles numériques utilisés pour calculer des ACV. D’autres informations sont intéressantes comme la description des agroéquipements utilisés mais on peut facilement les trouver ailleurs. Pourquoi ces cahiers de culture ne sont-ils pas plus utilisés, surtout s’ils sont numériques ? Tous les acteurs, du producteur au consommateur, en tireraient des bénéfices.
« Un exemple de technologies frugales et « d’agro-sourcing » : l’évaluation du stress hydrique de la vigne à l’aide d’un smartphone (Crédit Chaire AgroTIC-L’Institut Agro) ».
B : Vos résultats sont souvent complexes. N’y-a-t-il pas un vrai défi par exemple à faire comprendre aux consommateurs les résultats d’une ACV de produits alimentaires ?
VBM : C’est une vraie question, un frein à l’emploi des ACV. Aujourd’hui, nous utilisons principalement des étiquetages (origine, bio, etc.) et des échelles de valeur (dans des nutri-scores (*) par exemple). Ces informations présentent l’avantage d’être simples à comprendre mais sont limitées dans leur précision et aussi dans leur caractère parfois uniquement déclaratif. A contrario, une ACV est beaucoup plus précise en apportant une vingtaine de valeurs de variables. Du coup, elle est nettement plus difficile à appréhender dans sa globalité pour un non-expert. C’est pour cette raison que j’aimerais voir se développer des projets de recherche mixant des compétences en agronomie (pour maîtriser et expliquer ce que sont les ACV), en sciences cognitives (pour comprendre comment nous percevons l’information) et en informatique (pour concevoir et proposer des métaphores de visualisation et d’interaction).
Il y a aussi une vraie difficulté à influencer les politiques publiques. Les politiques ont comme les consommateurs du mal à saisir la complexité des résultats des ACV. Et puis, leur focale est souvent nationale. Certains ont du mal à tenir compte des dégâts environnementaux causés, par exemple, en Tunisie, par la fabrication d’engrais utilisés en France. La Tunisie, c’est loin. Et pourtant, nous vivons tous sur la même planète…
B : Parlons maintenant de l’institut #DigitAg que tu diriges ?
VBM : Début 2016, fut publié le rapport sur « Agriculture et Innovation 2025 », qui émettait des recommandations auprès des ministres pour construire une agriculture compétitive et durable. Parmi les quatre grands piliers technologiques identifiés, entre autres leviers, figurait le numérique et le besoin de structurer la recherche française sur le sujet. C’est ainsi qu’un consortium (avec entre autres, l’Inria et l’INRAE) a porté le projet de l’Institut #DigitAg à l’AAP « Instituts Convergence » de 2016. Nous avons été l’un des 5 lauréats et #DigitAg a été créé début 2017. Il réunit près de 600 experts publics issus des sciences agronomiques, des sciences du numérique et jusqu’aux sciences sociales et de gestion et 8 entreprises privées. Recherche, innovation et formation figurent au menu de nos activités avec comme objectif de contribuer à mettre en place une agriculture numérique vertueuse. La pluridisciplinarité, voire l’interdisciplinarité, est dans notre ADN. Nous proposons des thèses et des postdocs au croisement de plusieurs de ces disciplines, le plus original et le difficile étant la rencontre des disciplines comme la création de jeux sérieux pour les agriculteurs.
« La carte des sites du Living Lab Occitanum qui ambitionne d’évaluer les coûts et bénéfices économiques, environnementaux et sociaux des technologies numériques dans plusieurs filières agricoles en Occitanie » (Crédit : INRAE)
B : Comment fais-tu le lien entre les ACV et l’agriculture numérique ?
VBM : Le lien est double. D’une part, comme je l’ai déjà dit, les outils numériques sont indispensables pour collecter les données nécessaires pour la première étape de l’ACV, l’inventaire, très consommatrice de ces données. D’autre part, dans l’autre direction, l’ACV sert à mesurer l’impact environnemental de l’introduction d’un outil numérique dans une culture. Cette évaluation est très importante pour créer des références sur les outils numériques en agriculture : quels sont leurs bénéfices et leurs coûts, non seulement économiques mais aussi environnementaux. C’est d’autant plus important que des interrogations sont de plus en plus vives sur l’impact environnemental du numérique en général. Pour y répondre, #DigitAg a construit le Living Lab Occitanum (Occitanie Agroécologie Numérique, www.occitanum.fr), dans lequel nous évaluerons sur le terrain les bénéfices et coûts des technologies numériques et des changements de pratiques agricoles qu’elles ont permis.
B : Binaire est particulièrement sensible à la place des femmes dans la science en général et dans le numérique en particulier ; as-tu envie de nous en parler ?
VBM : Oui, absolument. C’est un de mes chevaux de bataille et depuis de nombreuses années. Je pense que la société dans laquelle nous vivons entraîne chez beaucoup de jeunes filles une forme d’autocensure quant aux métiers qu’elles pourraient exercer. Il est important de lutter contre ces préjugés. En relation forte avec l’université de Montpellier, nous allons bientôt annoncer une campagne de stages d’observation de 3ème à destination de collégiennes, pour qu’elles découvrent le numérique. L’informatique et l’agriculture vont bien ensemble et les filles y ont autant leur place que les garçons.
Serge Abiteboul, Inria et ENS, Paris, Pascal Guitton, Université de Bordeaux et Inria
Teaser : un livre blanc sur « agriculture et numérique » rédigé par des scientifiques de l’INRAE et d’Inria va bientôt sortir. Binaire l’attend avec impatience et vous en reparlera dès que possible.
Philippe Aigrainà la Journée du domaine public, Paris, 2012. Wikipédia
Philippe était informaticien, mais aussi écrivain, poète, passionné de montagne, militant. J’en oublie sûrement. Le dernier courriel que j’ai reçu de lui, c’était en sa qualité de dirigeant de publie.net, une maison d’édition où il avait pris la suite de François Bon. Une des dernières fois où je l’ai rencontré, nous faisions tous les deux parties du jury de l’Habilitation à diriger des recherches de Nicolas Anciaux. C’était de l’informatique mais le sujet allait bien à Philippe : « Gestion de données personnelles respectueuse de la vie privée ». Il défendait les libertés, notamment sur internet, ce qui l’avait conduit à cofonder « la Quadrature du net ». C’était aussi un brillant défenseur des biens communs. Pour de nombreux informaticiens, il était aussi le défenseur intransigeant des logiciels libres. Il s’est beaucoup battu pour les valeurs dans lesquelles il croyait,contre la loi Dadvsi, la loi Hadopi, la loi de Renseignement…
Difficile d’imaginer le paysage numérique français sans Philippe. Il manquera dans les combats futurs pour les libertés et pour le partage, mais nombreux sont ceux qu’il a influencés et à travers lesquels il se battra encore longtemps.
Le site web d’Opscidia explique que la société « s’appuie sur la littérature scientifique en accès ouvert ainsi que sur les dernières avancées du traitement automatique du langage naturel dans le but de vous apporter le meilleur de l’information technologique ». Pour comprendre ce que ça voulait dire, nous avons rencontré ses dirigeants-fondateurs, Sylvain Massip et Charles Letaillieur. Le CEO Sylvain a une thèse en physique de l’université de Cambridge et a été chercheur et directeur de l’innovation dans une start-up, Natural Grass. Le CTO Charles est ingénieur Télécom Paris et a eu de nombreuses expériences dans le numérique, Cap Gemini, Streamezzo, La Netscouade, Adminext. Ils ont tous les deux une solide expérience dans l’open access et open data, ainsi qu’en apprentissage automatique.
Photo de Ben Taylor provenant de Pexels
Binaire : Quelle a été l’idée de départ pour Opscidia ?
SMCL : Nous étions tous les deux passionnés par la science ouverte. Notre vision est que le développement de la publication scientifique en accès ouvert et le développement d’applications, qui permettent de faciliter la diffusion de la connaissance scientifique dans la société au-delà des cercles académiques sont des mouvements qui vont de pair et se nourrissent mutuellement.
Au début, nous voulions tout révolutionner en même temps, et cela reste notre objectif à long terme ! Plus modestement, aujourd’hui, l’essentiel de nos travaux portent sur la diffusion des articles ouverts au-delà des chercheurs académiques. Nous proposons des applications qui s’appuient sur des technologies d’intelligence artificielle pour analyser automatiquement les publications scientifiques en accès ouvert, ce qui permet de réutiliser les résultats de la recherche pour les entreprises qui font de la R&D, et pour les décideurs publics. Nous avons construit une plateforme que nous commercialisons par abonnement.
Et puis, au-delà de ces deux premières cibles, nous voulons aller jusqu’à l’information du grand public. Si les articles scientifiques sont écrits par des chercheurs pour des chercheurs, ils peuvent aussi être de superbes outils pédagogiques pour le grand public.
Notre plateforme permet de naviguer dans la littérature scientifique. Nos utilisateurs peuvent la personnaliser pour leurs besoins propres. Nous avons par exemple travaillé avec la commission européenne et avec l’entrepôt de données ouvert OpenAIRE, un dépôt d’articles scientifiques en open access.
Nous réalisons aussi des projets qui ne sont pas directement liés à la plateforme, en nous appuyant sur nos domaines d’expertise, comme l’analyse automatique de publications scientifiques avec de l’intelligence artificielle.
Opscidia est maintenant une équipe de huit personnes avec des experts en traitement du langage naturel, des développeurs de logiciels et des business développeurs. Nous avons à ce jour une dizaine de clients, parmi eux, la Commission Européenne, pour qui nous analysons les signaux faibles issus des projets de recherche, l’INRAE ou encore la Fondation Vietsch avec qui nous avons développé un fact-checker scientifique.
binaire : Science ouverte (open science), accès ouvert (open access), vous pouvez expliquer aux lecteurs de binaire de quoi on parle.
SMCL : Pour nous, l’idée de l’open science est que la science ne doit pas être réservée aux seuls chercheurs académiques, mais qu’elle doit être partagée par tous. Elle doit donc sortir des murs des universités et des laboratoires de recherche et devenir accessible aux industriels, aux décideurs politiques et aux citoyens. Dans notre société moderne, de nombreux problèmes ne peuvent pas être compris si on ne comprend pas la science en action.
Pour que la science soit ouverte, il faut que les publications scientifiques soient accessibles à tous, c’est l’open access, et il faut que les données scientifiques soient ouvertes à tous, c’est l’open data. L’open science, c’est le cadre général ; l’open access et l’open data sont des éléments de l’open science.
binaire : Parlons un peu de la manière dont fonctionnent les revues scientifiques.
SMCL : Le « vieux » système des publications scientifiques date d’après la deuxième guerre mondiale. C’est à cette époque que se sont formés les éditeurs scientifiques, et qu’après un processus de fusion/acquisition ils sont devenus les quelques gros éditeurs qui dominent le domaine aujourd’hui.
Les éditeurs mettaient alors en forme les articles, les imprimaient sur du papier, puis diffusaient les revues scientifiques imprimées dans les universités. Tout cela coûtait cher. Les universités et les laboratoires devaient donc payer pour recevoir les revues.
Avec l’avènement d’internet et du web, une grande partie de ce travail a disparu et tout le monde a pensé que les coûts allaient diminuer, que les prix baisseraient en conséquence. Pas du tout ! Il y a eu au contraire création d’un grand nombre de nouvelles revues alors que les prix individuels baissaient peu. Le coût pour les universités a augmenté considérablement au lieu de diminuer.
Ça mérite de s’arrêter un instant sur l’écosystème : des chercheurs écrivent des articles, les éditent en grande partie eux-mêmes maintenant, les soumettent à publications, d’autres chercheurs les relisent (le reviewing) et les sélectionnent. En bout de chaîne, les universités paient. Et les éditeurs ? Ils se contentent de faire payer très cher les abonnements pour juste organiser le processus et mettre les articles sur le web.
A part le fait que la collectivité paie cher pour un service somme toute limité, le processus empêche les chercheurs dans des organisations moins bien dotées que les grandes universités occidentales d’avoir accès aux publications, ce qui est un problème pour le développement de la recherche scientifique.
Ce sont les motivations principales du mouvement open access pour rendre les publications scientifiques accessibles à tous. Ce mouvement s’est beaucoup développé depuis les années 90.
binaire : Comment est-ce que cela fonctionne ?
SMCL : Le monde de l’open access est compliqué. On se perd dans les modèles de publication et dans les modèles de financement des publications. Comme les éditeurs de publications scientifiques ont subi de fortes pressions pour rendre leurs publications ouvertes, ils l’ont fait mais avec des modes tels que cela n’a pas vraiment suffi pour que les gens accèdent à la connaissance contenue dans les publications.
Une solution proposée et promue par les éditeurs est la « voie dorée » (gold open access) : le chercheur paye pour publier son papier et qu’il soit accessible à tous. C’est une première réponse, mais une solution qui ne nous paraît pas optimale parce qu’elle reste coûteuse et que ce ne sont pas les chercheurs qui pilotent le processus. Aujourd’hui, les négociations entre les universités et les éditeurs se font en général au niveau des États. Ce sont de très gros contrats pour se mettre d’accord sur le prix, dans une grande complexité et une relative opacité.
Un modèle alternatif est que tout soit organisé directement par les chercheurs et gratuitement pour tous. Évidemment, il n’y a pas de miracle : il faut bien que quelqu’un paie pour absorber les coûts, par exemple des institutions comme la commission européenne.
L’environnement est encore instable et il est difficile de dire comment tout ça va évoluer.
binaire : Quelle est la pénétration de l’open access, et comment la situation évolue-t-elle ?
SMCL : On mesure ça assez précisément. Le ministère de la recherche publie d’ailleurs un baromètre pour la France. On peut aussi consulter les travaux d’Eric Jeangirard sur le sujet. Il y a aussi des équivalents internationaux. En gros, au niveau mondial 30 à 40% des articles sont en open access.
Les chiffres de pénétration sont très dépendants des domaines de recherche. L’informatique est parmi les bons élèves. Et ce pour beaucoup de raisons : les informaticiens ont l’expertise technique, il y a des bases de publications, il y a la mentalité et la culture de l’open source. Les mauvais élèves sont plutôt l’ingénierie et la chimie. Les sciences humaines et sociales, avec une dépendance plus forte des chercheurs dans les éditeurs du fait de l’importance que joue la publication de livres dans ces disciplines, mais aussi avec beaucoup d’initiatives pour promouvoir l’Open Access, sont dans une dynamique assez spécifique.
Certaines des différences sont fondées. Comparons les publications d’articles dans le domaine médical et en informatique. En informatique, les chercheurs publient souvent leurs résultats en « preprints », c’est-à-dire des versions open access avant publication officielle dans une revue. En médecine, une telle publication peut conduire à des risques sanitaires graves. On l’a vu dans le cas du Covid avec des batailles de publication de preprints. Parmi les 2000 articles par semaine qui ont été publiés sur le coronavirus, beaucoup étaient des preprints, tous n’ont pas été relus par des pairs (peer review), beaucoup ont été abandonnés et n’ont pas eu de suite. Du coup, les chercheurs en médecine sont plus réticents à publier avant que l’article n’ait été accepté pour publication, et ce, même si les preprints permettent en fait d’améliorer la qualité des publications en augmentant la transparence.
Pour terminer, on pourra noter que la diffusion de l’open access est clairement en croissance. C’est ce que montrent les chiffres. Cela vient notamment de règles comme le plan S qui, par exemple, oblige les chercheurs à publier en open access s’ils ont bénéficié de financement de l’Union européenne.
binaire : Est-ce que ouvert ou pas, cela a des impacts sur la qualité des publications ?
SMCL : Les journaux en open access gold ont le même niveau de sérieux que les journaux classiques : les articles sont revus par des pairs. Donc la qualité est là et la seule différence avec les journaux classiques est le modèle économique avec transfert du paiement du lecteur vers l’auteur. Avec un bon système de peer review, la qualité est au rendez-vous quel que soit le modèle économique. Le mécanisme du preprint privilégie par contre la transparence, la facilité et la rapidité d’accès au dépend du contrôle de qualité. Mais les preprints ont vocation à être publiés ensuite dans des revues à comité de lecture, et la transparence supplémentaire offerte par le système de preprint permet en général d’augmenter la qualité du processus de relecture !
binaire : De 30 à 40% du marché, c’est déjà une victoire !Quel est le panorama mondial et quelle est la position de la France sur l’open access ?
SMCL : Oui. Ça progresse bien et l’open access finira par s’imposer. C’est le sens de l’histoire.
L’Europe est assez leader sur ces thématiques, ce qui est récent et n’a pas toujours été le cas. Il faut rappeler que les principaux éditeurs sont européens (britanniques, néerlandais et allemands), donc ils ont forcément voix au chapitre en termes de lobbying. La commission européenne est un lieu d’affrontement entre les parties. L’Amérique du sud est assez en pointe pour l’open access avec des initiatives comme SciELO ou Redalyc.
Aux États Unis, le grand entrepôt de données et d’articles médicaux (Pubmed) a été organisé par l’État avec une vraie volonté d’open data. Il y a en revanche beaucoup moins d’obligations écrites pour les chercheurs qu’en Europe ; ils publient où ils veulent, mais ils doivent publier leurs données dans Pubmed. Il y a de sérieux combats au moment des renouvellements des revues. En Europe, les éditeurs ont un argument de choc. C’est eux qui contrôlent l’historique et personne ne veut perdre l’accès à des dizaines d’années de résultats scientifiques. Aux Etats-Unis, grâce à Pubmed, c’est moins vrai.
La France est plutôt active en faveur de l’open access. La Loi sur la république numérique a levé des interdictions importantes. Le Ministère de la Recherche et de l’Enseignement Supérieur est très moteur, et la nomination de Marin Dacos, un militant de l’open science, comme Conseiller science ouverte au Ministère a fait avancer les choses.
binaire : Qu’est-ce que la science ouverte apporte ?
SMCL : La promotion de modes ouverts fait diminuer la compétition, encourage la collaboration. Le travail collaboratif s’impose. Avec un meilleur accès, plus précoce, aux résultats d’autres chercheurs, on peut plus facilement faire évoluer cette recherche. En travaillant sur des données ouvertes, on peut plus facilement travailler ensemble.
Prenons une problématique importante, celle de l’évaluation des chercheurs, qui conditionne le recrutement et les promotions. Le fait d’aller vers de l’open science et de l’open data, conduit à modifier ce processus d’évaluation. Par exemple, si un chercheur met à disposition un jeu de données que tous exploitent pendant des années, son impact en termes de recherche peut être immense, et ce même s’il n’a que peu publié. Il faut modifier l’évaluation pour qu’elle tienne compte de son apport à la communauté.
Évidemment, cela dépend beaucoup du domaine. On ne va pas offrir un large électron-positron collisionneur à chaque groupe qui a envie de faire de la physique des particules. Donc forcément, dans ce domaine, les données doivent être par nature partagées. En revanche, dans d’autres domaines où les expériences sont plus petites et où potentiellement les applications industrielles sont plus rapides, les choses auront tendance à être plus fermées.
Et puis, on n’a pas forcément à choisir entre tout ouvert ou tout fermé. Dans le travail qu’Opscidia fait pour la commission européenne, la commission veut croiser des données sur le financement des projets avec des données scientifiques publiques. Cela n’oblige évidemment pas la commission à ouvrir ses données sensibles.
binaire : Du côté logiciel libre, de nombreuses associations et quelques organisations, fédèrent la communauté. Est-ce pareil pour l’open access ?
SMCL : Les militants de l’open science sont le plus souvent des fonctionnaires et des chercheurs académiques. Ils s’appuient sur des institutions comme le Comité pour la science ouverte. Ce comité, organisé par le ministère, réalise un travail considérable. Il fédère de nombreux acteurs publics qui ont chacun leur spécificité et leur apport. Malgré le militantisme, on reste dans un cadre assez institutionnel.
binaire : Est-ce qu’il y a un pape de l’open access, un équivalent de Richard Stallman pour le logiciel libre ?
SMCL : De nombreuses personnes ont eu un grand impact sur ce domaine. On peut peut-être citer Aaron Swartz, un peu le martyr de l’open access ou Peter Suber qui a fait beaucoup pour populariser l’approche mais à notre sens, l’Open Access reste avant tout une affaire aux mains des communautés de recherche et des chercheurs individuels sur le terrain.
Serge Abiteboul, Inria et ENS, Paris, François Bancilhon sérial-entrepreneur
Il y a 2 ans, Michel Serres nous quittait. Bien au delà de binaire dont l’équipe était, et est restée, fan absolu de ce grand Monsieur, ce « nous » désigne la société dans son ensemble tant il savait s’adresser avec ces mots simples à chacun.e d’entre nous notamment quand il parlait du numérique.
En 2007, à l’occasion des 40 ans d’Inria à Lille, Michel avait embarqué plusieurs milliers de personnes en leur expliquant simplement en quoi la révolution numérique bouleversait notre société. Nous vous proposons d’écouter ou de réécouter cette conférence. Laissez vous embarquer dans son récit qui reste encore aujourd’hui tellement d’actualité.
Faites-vous plaisir : prenez une heure de votre temps et dégustez !
binaire
Michel SERRES – WikiPedia CC BY-SA 3.0
D’autres moments à passer avec Michel Serres :
une conférence qu’il a donnée en 2005 à l’école polytechnique
« Numérique et pandémie – Les enjeux d’éthique un an après »
organisé conjointement par le
Comité national pilote d’éthique du numérique et
l’Institut Covid-19 Ad Memoriam
le vendredi 11 juin 2021 de 9h à 16h15.
Systèmes d’information pour les professionnels de santé
Souveraineté numérique
Télé-enseignement
La pandémie Covid-19 est la première de l’ère numérique. Par cette dimension, elle ne ressemble pas aux crises sanitaires des époques précédentes : dès mars 2020, les activités économiques et sociales ont été partiellement maintenues grâce aux smartphones, ordinateurs et autres outils numériques. Mais les usages de ces outils ont eux aussi changé depuis le printemps 2020. La rapidité de ces évolutions n’a pas encore permis de dégager le sens qu’elles auront pour notre société, ni de saisir leurs effets à long terme. Ce colloque fera un premier pas dans cette direction. Qu’avons-nous appris ? Quelles sont les avancées que nous voudrions préserver après la fin de la crise ? À quelles limites se heurte la numérisation accélérée de notre quotidien ?
Laëtitia Atlani-Duault
Présidente de l’Institut Covid-19 Ad Memoriam, Université de Paris
Jean-Francois Delfraissy
Président du CCNE pour les sciences de la vie et de la santé
Président d’honneur de l’Institut Covid-19 Ad Memoriam
Claude Kirchner
Directeur du Comité National Pilote d’Éthique du Numérique
Nous avons rencontré pour Binaire, Lou Welgryn, la présidente de l’association Data for Good. Elle est aussi Carbon Data Analyst chez Carbone4 Finance, un cabinet de conseil qui aide les entreprises à réduire leurs émissions de gaz à effet de serre.
Data for Good est une association fondée en 2015, une communauté de data scientists principalement. Chaque membre a une autre activité qui lui apporte un salaire mais, pour Data for Good, il passe bénévolement quelques heures chaque semaine sur des projets sociaux ou environnementaux. On entend dire : « The best mind of our times are thinking about how to make people click on ads » (Les meilleurs esprits de notre temps réfléchissent à la manière de faire cliquer les internautes sur des pubs) et ce n’est pas faux. Lou Welgryn nous explique que l’esprit de l’asso, c’est au contraire de : « Mettre notre temps de cerveau disponible au service de causes utiles. » L’entraide est au cœur du dispositif. Par exemple, tout le code développé doit être en open source pour pouvoir aussi servir à d’autres.
Le martin-pêcheur de Data For Good
L’association Data for Good apporte principalement des ressources humaines à des structures qu’elle choisit d’aider. À qui apporte-t-elle son soutien ? À des associations, des startups, des organisations plutôt artisanales qui n’ont pas les moyens d’embaucher les data scientists dont elles auraient besoin mais aussi des entreprises plus établies voulant mettre en place un projet à impact positif. L’association fonctionne avec chaque année deux « saisons d’accélération » de 3 mois. Pour une saison, une dizaine de projets est sélectionnée. Les membres de l’association choisissent alors le projet qui les intéresse. Ensuite, chaque semaine pendant 3 mois, ils travaillent sur le projet. Ils s’engagent à donner entre 4 à 12 h de leur temps par semaine. Le Covid a fait basculer le travail en distanciel mais ne l’a pas interrompu. Avec Data for Good, on ne produit pas des idées ou du papier. La règle est celle du minimum viable product, pas forcément un truc grandiose mais du code, une solution testable.
Chacun des 10 projets sélectionnés doit progresser. Il a un responsable qui l’accompagne pendant les trois mois pour s’assurer qu’il fonctionne bien, recadrer et réorganiser l’équipe si besoin. Suivant l’importance du projet, l’équipe est plus ou moins importante, une dizaine de membres de l’association en moyenne.
Le financement de l’asso ? Pas grand-chose. L’immobilier ? Des copains, Le Wagon et Liberté Living-Lab, prêtent des espaces. Alors, Data for Good, un petit truc dans un coin ? Non ! L’asso apporte la vraie richesse de ses 2 000 membres. Et ça dépote. La preuve : nous avons eu du mal à ne choisir que 2 projets parmi les 51 listés sur leur site en avril 2021. Nous aurions aimé parler de beaucoup d’autres.
1) OpenFoodFacts C’est le Wikipédia de la nourriture. Pour lutter contre la malbouffe, pour aider les citoyens à mieux manger, l’association OpenFoodFacts propose une base de données de produits alimentaires avec leur composition. Data for Good les a aidés à développer un éco-score, un indicateur de l’impact environnemental des produits. Pour reprendre une phrase sur le site d’OpenFoodFacts « On est ce que l’on mange. », ce travail est donc vraiment important.
Yuka
Yuka, la célèbre application pour iOS et Android, permet de scanner les produits alimentaires et cosmétiques en vue d’obtenir des informations détaillées sur l’impact d’un produit sur la santé. Yuka a longtemps utilisé la base de données d’OpenFoodFacts et elle y contribue maintenant.
2) Pyroneer est un projet qui n’a pas encore atteint cette ampleur. Il développe un logiciel gratuit et open source de détection précoce des feux de forêt. Le logiciel de détection fonctionne avec des caméras économiques. Un algorithme de traitement d’images basé sur l’apprentissage profond détecte les indices visuels de départ de feu. Plus besoin d’avoir des pompiers en permanence dans une tour de guet, des caméras prennent leur place. Pyroneer est en phase de test dans l’Ardèche.
Feu de forêt dans le Montana, Wikipédia
Il y a sûrement beaucoup d’organisations qui font des trucs bien et qui ont des besoins en tech et pas mal de data scientists qui aimeraient donner du sens à leur travail. Data for good a de l’espace pour grandir.
Serge Abiteboul, Inria & ENS Paris, et Jill-Jênn Vie, Inria
Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible cette notion de 5G. Marie-Agnès Enard etPascal Guitton.
– C’est vrai Mamie que de ton temps, avant Internet, les téléphones avaient des fils qui les reliaient au mur ?
– Oui mon grand. Et tout le monde n’avait pas le téléphone.
– Pourquoi ce fil ? Pour pas qu’on les vole ?
– Ne te moque pas ! La communication passait alors par les fils. Un jour, on est passé au téléphone cellulaire, au téléphone sans fil. La communication passe alors par les airs, en empruntant des ondes électromagnétiques.
– Comme un rayon lumineux ?
– Oui, sauf que les ondes du téléphone ne se voient pas.
La téléphonie sans fil
Un téléphone cellulaire transforme la voix, un message audio, en une onde électromagnétique qui va jusqu’à une station radio. Pour la 1G, la station radio transforme ce message en un signal électrique analogique qui passe par un câble électrique pour aller rejoindre le correspondant. La représentation est analogique, c’est-à-dire qu’elle est proportionnelle à l’information du message initial, de la voix. Dans la 2G, la représentation consiste en une séquence de 0 et de 1, des nombres ; c’est pour ça qu’on dit que c’est numérique. C’est un message numérique qui est transporté dans le réseau de télécommunications. Avec la 2G, le réseau est devenu numérique.
2G, 3G, 4G, 5G, Arcep
– Alors, Mamie, avec la 2G, on passe au numérique. Et après, on a la 3G, la 4G, la 5G. On n’est pas arrivé !
– La patience n’est pas ton point fort, mon petit Jules. C’est bon, j’accélère. La 2G, c’est vers 1990. En gros, tous les dix ans, les gens qui développent les technos de téléphones cellulaires se mettent d’accord pour faire un gros paquet cadeau avec tous les progrès techniques des dix dernières années. Avec le nouveau millénaire et la 3G, le téléphone nous a fait passer dans le monde d’Internet. Et avec la 4G, on a pu voir des vidéos en bonne définition.
– Et ce coup là, qu’apporte la 5G ?
– Plus de débit, une meilleure latence, plus de densité.
Le débit, c’est la quantité de données qui peut passer dans une communication. Plus de débit, ça veut dire, par exemple, des films en plus haute définition.
La latence, c’est le temps que met un message pour aller de mon téléphone au serveur, et revenir. Une meilleure latence va faciliter les jeux en réseaux, ou des conversations avec des hologrammes.
La densité, c’est le nombre de connexions simultanées avec la station radio. On parle de millions d’objets au kilomètre carré.
– Je veux bien, mais concrètement, la 5G va changer quoi pour toi ? demande Jules.
– Euh… Pas grand chose. C’est l’arrivée de la 4G et de la fibre dans ma maison de la Creuse qui va me changer vraiment la vie. Bientôt !
– Et pour moi à Marseille ?
– Pas grand-chose non plus. Ça évitera que les réseaux soient saturés dans le centre ville.
– Alors pourquoi on cause tant de ce truc si ça change que dalle ?
– Parce que ça va transformer l’industrie, la gestion des villes et des régions, et peut-être la médecine, les transports collectifs. On ne sait pas encore à quel point, mais on s’attend à ce que ça change plein de trucs.
– Juste à cause du débit, de la latence, de la densité.
– Oui, parce que cela va permettre de développer de nouveaux services. Dans une usine par exemple, on n’aura plus besoin de tous ces câbles pour connecter les machines, les robots. Cela se fera en 5G. Et puis, il y a aussi d’autres innovations techniques dont je ne t’ai pas causé. Il y en a une que tu devrais aimer : le réseau en tranches de saucisson.
– Késaco ?
– On va pouvoir découper le réseau en tranches comme du saucisson. Ensuite, c’est comme si on avait plusieurs réseaux qu’on peut utiliser différemment. Une tranche pour des opérations médicales et une autre pour des jeux en réseau. Si tu t’éclates sur ton jeu, tu ne gênes pas le chirurgien du coin.
– Les jeux vidéo. Continue, Mamie, là tu m’intéresses.
– On se calme. Pour tes jeux, la 4G suffit bien.
– Alors, je n’ai pas vraiment besoin de te demander un téléphone 5G pour mon anniversaire ?
– Non, mon grand. La fabrication de téléphones, ce n’est pas bon pour la planète. Donc on essaie de ne pas en changer trop souvent. On reste sur le vélo pour ton anniversaire !
Trafic de données consommées sur les réseaux mobiles, Arcep
– OK, mais Mamie, le voisin dit qu’il faut pas la 5G, que c’est dangereux pour la santé, que ça pourrit la planète, la vie, et tout. C’est vrai ?
– Mon grand. Ce n’est pas parce que quelque-chose est nouveau qu’il faut en avoir peur. Ce n’est pas non plus parce qu’une nouvelle techno arrive qu’il faut se précipiter.
– Oui mais je lui dis quoi au voisin ? Que c’est un gros nul ?
– On ne parle pas comme ça. Il a le droit de poser des questions. Ses questions ne sont pas sottes. Qu’est-ce que je te répète toujours ?
– Je sais Mamie. Il n’y a pas de questions idiotes, ce sont les réponses qui le sont souvent.
– C’est ça mon grand. Allez, on va causer avec Monsieur Michu !
Après les salamalecs du bonjour, bonsoir, comment va Madame Michu, un café, non merci, pourquoi nous sommes venus vous voir, et tout…
– J’ai entendu dire que la 5G, c’était dangereux pour la santé ? démarre M. Michu.
– Aucune étude n’a permis d’établir un tel danger, ou alors à super haute dose, explique Mamie. Et pourtant, c’est un sujet qui a été hyper étudié par les scientifiques. On impose d’ailleurs des contraintes sévères sur les quantités d’ondes électromagnétiques autorisées, bien plus que ce que l’on sait dangereux pour la santé. Pour ce qui est des ondes électromagnétiques, on dit qu’il ne faut pas laisser les bébés jouer avec un téléphone cellulaire. Pour le reste, pas d’inquiétude.
– Il faut penser aux gens électro-sensibles. Non ?
– Ces personnes ont de vrais symptômes mais à chaque fois qu’on a essayé de lier cela aux ondes électromagnétiques, on n’y est pas arrivé. Comme elles souffrent bien, il faut plus de recherche pour comprendre ce qui cause leurs problèmes. Mais, cela semble bien ne rien à voir avec les ondes électromagnétiques.
– Bon, je veux bien, admet Monsieur Michu. Mais il y a aussi des impacts énormes sur l’environnement. La 4G suffisait.
– La 4G consomme beaucoup plus d’électricité pour la même quantité de données ? Et elle est moins efficace. Les réseaux 4G saturaient en centre-ville et cela conduisait à multiplier les stations 4G. En restant avec la 4G on allait dans le mur.
– Alors pourquoi, ils disent que la 5G va conduire à une explosion de la consommation d’électricité ?
– C’est à cause de l’effet de rebond, explique Mamie. J’en ai parlé avec Jules. Il va nous l’expliquer.
– La 5G, raconte Jules, fier de ramener sa récente science, permet beaucoup plus de débit. Alors les gens vont se mettre à faire n’importe quoi, regarder des vidéos en super résolution dans les couloirs du métro ou jouer à des jeux vidéos au marché, et la consommation de données sur les téléphones portables va exploser. Et…
– On ne veut pas de ça ! Coupe Monsieur Michu. Non ?
– Oui, la vraie question, ce n’est pas s’il faut la 5G ou pas, propose Mamie. A mon avis, il faut la 5G pour les usines, pour les réseaux de transports, pour les villes intelligentes, etc. La vraie question, c’est qu’il ne faut pas faire n’importe quoi avec.
– Bon alors je peux m’acheter un téléphone 5G ? interroge Monsieur Michu.
– Votre téléphone est cassé ? C’est un vieux truc ? questionne Mamie.
– Pas du tout. Madame Michu m’en a acheté un tout neuf pour mon anniversaire, l’an dernier. Je ne sais pas encore trop bien m’en servir…
Ce texte est publié dans le cadre de la chronique « Société numérique », proposée par les chercheuses et chercheurs du département Sciences économiques et sociales de Télécom ParisTech, membres de l’Institut interdisciplinaire de l’innovation (CNRS).
On a, au début des années 2000, beaucoup parlé de « fracture numérique » en s’intéressant à la fois aux inégalités d’accès et d’usages. Les rapports annuels du CREDOC montrent que les catégories populaires ont commencé à rattraper leur retard de connexion depuis une dizaine d’années : entre 2006 et 2017, en France, la proportion d’employés ayant une connexion Internet à domicile est passée de 51 % à 93 %, celle des ouvriers de 38 à 83 % (CREDOC 2017 : 48).
C’est désormais l’âge et non le revenu ou le niveau de diplôme qui est le facteur le plus clivant (parmi ceux qui ne se connectent jamais à Internet, huit personnes sur dix ont 60 ans ou plus). Si la question de l’accès est en passe d’être résolue, les usages des classes populaires restent moins variés et moins fréquents que ceux des classes moyennes et supérieures, nous apprennent ces mêmes rapports. Les individus non diplômés ont plus de mal à s’adapter à la dématérialisation des services administratifs, font moins de recherches, pratiquent moins les achats, se lancent très rarement dans la production de contenus. Bref, il y aurait en quelque sorte un « Internet du pauvre », moins créatif, moins audacieux, moins utile en quelque sorte…
Changer de focale
Peut-être faut-il adopter un autre regard ? Ces enquêtes statistiques reposent sur un comptage déploratif des manques par rapport aux pratiques les plus innovantes, celles des individus jeunes, diplômés, urbains. On peut partir d’un point de vue différent en posant a priori que les pratiques d’Internet privilégiées par les classes populaires font sens par rapport à leur besoins quotidiens et qu’elles sont des indicateurs pertinents de leur rapport au monde et des transformations possibles de ce rapport au monde.
Comme Jacques Rancière l’a analysé à propos des productions écrites d’ouvriers au XIXe siècle, il s’agit de poser l’égalité des intelligences comme point de départ de la réflexion pour comprendre comment « une langue commune appropriée par les autres » peut être réappropriée par ceux à qui elle n’était pas destinée. (Rancière 2009 : 152).
Un tel changement de focale permet d’entrevoir des usages qui n’ont rien de spectaculaire si ce n’est qu’ils ont profondément transformé le rapport au savoir et aux connaissances de ceux qui ne sont pas allés longtemps à l’école. Ce sont par exemple des recherches sur le sens des mots employés par les médecins ou celui des intitulés des devoirs scolaires des enfants. Pour des internautes avertis, elles pourraient paraître peu sophistiquées, mais, en attendant, elles opèrent une transformation majeure en réduisant l’asymétrie du rapport aux experts et en atténuant ces phénomènes de « déférence subie » des classes populaires face au monde des sachants – qu’Annette Lareau a analysée dans un beau livre, Unequal Childhoods (2011).
Recherche en ligne : s’informer et acheter
Des salariés qui exercent des emplois subalternes et n’ont aucun usage du numérique dans leur vie professionnelle passent aussi beaucoup de temps en ligne pour s’informer sur leur métier ou leurs droits : le succès des sites d’employés des services à la personne est là pour en témoigner. Des assistantes maternelles y parlent de leur conception de l’éducation des enfants, des aides-soignantes ou des agents de service hospitaliers de leur rapport aux patients. On pourrait aussi souligner tout ce que les tutoriels renouvellent au sein de savoir-faire traditionnellement investis par les classes populaires : ce sont des ingrédients jamais utilisés pour la cuisine, des manières de jardiner ou bricoler nouvelles, des modèles de tricot inconnus qui sont arrivés dans les foyers.
Apprendre donc, mais aussi acheter. Pour ceux qui vivent dans des zones rurales ou semi rurales, l’accès en quelques clics à des biens jusqu’alors introuvables dans leur environnement immédiat paraît a priori comme une immense opportunité. Mais en fait, les choses sont plus compliquées. La grande vitrine marchande en ligne est moins appréciée pour le choix qu’elle offre que pour les économies qu’elle permet de réaliser en surfant sur les promotions. C’est la recherche de la bonne affaire qui motive en priorité : c’est aussi qu’elle permet de pratiquer une gestion par les stocks en achetant par lots. En même temps, ces gains sont coupables puisqu’ils contribuent à fragiliser le commerce local, ou du moins ce qu’il en reste.
Dans une société d’interconnaissance forte où les commerçants sont aussi des voisins, et parfois des amis, la trahison laisse un goût amer des deux côtés. À l’inverse, les marchés de biens d’occasion entre particuliers, à commencer par Le Bon Coin qui recrute une importante clientèle rurale et populaire, sont décrits comme des marchés vertueux : ils offrent le plaisir d’une flânerie géolocalisée – c’est devenu une nouvelle source de commérage !-, évitent de jeter, et permettent de gagner quelques euros en sauvegardant la fierté de l’acheteur qui peut se meubler et se vêtir à moindre coût sans passer par des systèmes de dons. L’achat en ligne a donc opéré une transformation paradoxale du rapport au local, en détruisant certains liens et en en créant d’autres.
Lire et communiquer sur Internet
Enfin, Internet c’est une relation à l’écrit, marque de ceux qui en ont été les créateurs. Elle ne va pas de soi pour des individus qui ont un faible niveau de diplôme et très peu de pratiques scripturales sur leur lieu de travail. Le mail, qui demande une écriture normée, est largement délaissé dans ces familles populaires : il ne sert qu’aux échanges avec les sites d’achat et les administrations -le terme de démêlés serait en l’occurrence plus exact dans ce dernier cas.
C’est aussi qu’il s’inscrit dans une logique de communication interpersonnelle et asynchrone qui contrevient aux normes de relations en face à face et des échanges collectifs qui prévalent dans les milieux populaires. Facebook a bien mieux tiré son épingle du jeu : il permet l’échange de contenus sous forme de liens partagés, s’inscrit dans une dynamique d’échange de groupe et ne demande aucune écriture soignée. Ce réseau social apparaît être un moyen privilégié pour garder le contact avec les membres de sa famille large et les très proches, à la recherche d’un consensus sur les valeurs partagées. C’est un réseau de l’entre-soi, sans ouverture particulière sur d’autres mondes sociaux.
Car si l’Internet a finalement tenu de nombreuses promesses du côté du rapport au savoir, il n’a visiblement pas réussi à estomper les frontières entre les univers sociaux.
Acheter en ligne, réaliser des transactions bancaires, communiquer de façon sécurisée, autant d’opérations qui nécessitent d’être protégées par des fonctions (ou primitives) cryptographiques. Notre confiance envers ces briques de base repose sur la cryptanalyse, c’est à dire l’analyse de la sécurité par des experts, qui essayent de “casser” les primitives cryptographiques proposées, et ainsi déterminer celles qui semblent robustes et qu’on pourra recommander, ou celles qui semblent dangereuses et qu’il ne faut pas utiliser. C’est ce que nous explique Maria Naya-Plasencia dans deux articles qui terminent la série entamée à l’occasion de la publication par Inria du livre blanc sur la cybersécurité. Dans ce second article, Maria nous décrit la situation actuelle et les évolutions envisagées dans ce domaine. Pascal Guitton .
D’où peuvent venir les faiblesses ?
L’expérience nous montre que des attaques sur les primitives cryptographiques sont basées sur différents types de faiblesse. Dans le cas de la cryptographie asymétrique, la faille vient parfois d’un assouplissement dans la preuve pour lier le problème cryptographique au problème mathématique associé. Dans d’autres cas, le problème mathématique considéré s’avère plus facile à résoudre que prévu. Des faiblesses peuvent aussi venir d’une configuration ou de paramètres spécifiques d’une certaine instance, parfois non apparents, qui rendent le problème moins difficile que l’original.
Dans le cas des primitives symétriques, les preuves formelles de sécurité reposent sur des suppositions irréalistes, mais cela ne les rend pas faciles à attaquer pour autant. Si jamais une attaque est trouvée (rappelons qu’elle doit être plus efficace que l’attaque générique), la primitive correspondante est considérée comme cassée. Ce fut le cas par exemple du chiffrement Gost.
Le besoin de la transparence
Nous avons vu que même les primitives cryptographiques les plus robustes ne possèdent pas de véritable preuve de sécurité – tout au plus des indices qui semblent garantir leur sûreté, mais sans qu’on en soit absolument certain.
La mesure de sécurité la plus tangible et la plus acceptée par la communauté cryptographique est en fin de compte la résistance avérée à la cryptanalyse : si une fonction cryptographique a résisté aux attaques de dizaines d’experts pendant des décennies, on est en droit de se sentir en bonne sécurité (malgré le manque de preuve formelle).
C’est en fait le rôle principal de la cryptanalyse : la mesure empirique de la sécurité. Elle est donc la base de la confiance que nous portons aux algorithmes cryptographiques. C’est une tâche essentielle qui n’a pas de fin.
Il est important de réaliser que cette sécurité ne peut s’obtenir que grâce à une transparence totale : si on conçoit un algorithme cryptographique, il faut le rendre complètement public dans ses moindres détails pour le soumettre à l’analyse des cryptographes, car seuls leurs efforts continus pour casser cet algorithme pourront être un gage tangible de sa sécurité (s’ils échouent, bien sûr). Ce principe est paradoxalement dû à un militaire et connu depuis plus de 100 ans sous le nom de principe de Kerkhoffs.
Le symétrique est également vrai : les cryptanalystes doivent publier leur travaux et leurs avancées pour permettre à la communauté scientifique de réutiliser leurs idées, et ainsi disposer des meilleures techniques pour analyser les crypto-systèmes existants.
Cette première transparence – celle des algorithmes cryptographiques – est assez communément appliquée, même si certains acteurs s’entêtent à concevoir des crypto-systèmes “cachés” en espérant que cela augmentera leur sécurité. Par contre, il reste assez commun, pour des hackers isolés comme pour de grosses organisations, privées ou publiques (comme la NSA américaine), de conserver leurs progrès pour eux, en espérant peut-être obtenir un avantage stratégique s’ils parvenaient à cryptanalyser avec succès un algorithme que le reste du monde considère sûr. Nous avons donc un réel besoin de cryptanalystes bienveillants, travaillant dans la transparence et ayant pour but de faire progresser la cryptographie en général.
Forces et faiblesses
Un aspect préoccupant vient du fait que la sécurité n’est jamais prouvée. Quelle que soit la fonction cryptographique, on ne pourra jamais écarter complètement la possibilité d’une cryptanalyse, même très tardive.
Un aspect rassurant est que le modus operandi est très bien établi, depuis des décennies. La communauté des cryptographes adopte par défaut une attitude qu’on pourrait qualifier de paranoïaque quand il s’agit d’évaluer si tel ou tel algorithme pourrait se faire attaquer. En effet, la cryptanalyse moderne parvient très rarement à véritablement “casser” un crypto-système, et la plupart des résultats sont en fait des attaques partielles, c’est-à-dire sur une version réduite du système. Par exemple, en cryptographie symétrique, de nombreuses primitives sont formées en appliquant R fois une même fonction interne : on parle de R tours. Très souvent, les cryptanalystes s’attaquent à une version réduite, avec un nombre de tours r inférieur à R. On peut alors jauger la “marge” de sécurité grâce à la différence entre le plus grand r d’une attaque et le nombre de tours R (si r = R, la fonction est véritablement cassée). Pour éviter tout risque, de nombreuses primitives sont abandonnées tout en restant loin d’avoir été cassées : on a besoin de peu de primitives cryptographiques, au final, et les plus sûres ont une marge de sécurité très importante. Pour que ce système reste valide, il est important que la cryptanalyse bienveillante reste très active et dynamique.
L’exemple d’AES
AES est le standard actuel de chiffrement à clé secrète. Nous allons analyser l’effet de la cryptanalyse sur la version de l’AES qui utilise une clé de 128 bits. Cette version utilise 10 tours, c’est à dire qu’on applique 10 fois la même fonction interne.
En 1998, lors de sa conception, la meilleure attaque connue, trouvée par les auteurs, s’appliquait sur 6 tours du chiffrement : il existait donc une attaque, meilleure que l’attaque générique, mais seulement sur une version affaiblie qui n’applique que 6 fois la fonction interne. La marge de sécurité était donc de 4 tours sur 10. En 2001, une attaque sur 7 tours fut découverte. Bien que la marge fut donc réduite de 4 à 3 tours, AES était loin d’être cassé.
Depuis 2001, plus de 20 nouvelles attaques sur des versions réduites de l’AES ont été publiées, améliorant la complexité, c’est-à dire diminuant la quantité de calcul nécessaire. Aujourd’hui, la meilleure attaque connue est toujours sur 7 tours : pendant 18 ans, la marge de sécurité en nombre de tours n’a pas bougé. Plusieurs compromis sur le temps de calcul, la quantité de données et de mémoire nécessaire à l’attaque sont possibles, mais celle qui optimise le temps de calcul a tout de même besoin de 299 opérations, et d’une quantité de données et de mémoire équivalente. Ce nombre énorme (à 30 chiffres) est bien au delà de la capacité de calcul de l’ensemble des ordinateurs de la planète, même pendant des centaines d’années. Et la comparaison avec l’attaque générique, qui a besoin de 2128 opérations mais d’une quantité de données et de mémoire négligeable, n’est pas si évidente en termes d’implémentation.
De toute évidence, en prenant en compte tous les efforts fournis par la communauté cryptographique pendant tant d’années, il semble très peu probable que des attaques sur la version complète apparaissent en l’état actuel. On laisse peu de place aux surprises ! AES reste encore un des chiffrements les plus analysés au monde, et de nouveaux résultats pour mieux comprendre sa sécurité et son fonctionnement apparaissent tous les ans.
Etdansunmondepost-quantique?
Imaginons des attaquants ayant accès à un ordinateur quantique, qui utilise les propriétés quantiques des particules élémentaires pour effectuer certains types de calculs de manière beaucoup plus performante que les ordinateurs classiques (cf ces articles [1], [2] récent de binaire). De tels attaquants pourraient casser la plupart des crypto-systèmes asymétriques utilisés actuellement. C’est d’ailleurs une des applications les plus prégnantes de l’ordinateur quantique tel qu’on l’imagine.
Les crypto-systèmes dit “post-quantiques” sont en plein essor pour répondre à ce besoin. En ce moment même, le NIST américain organise une compétition pour trouver des nouveaux standards de chiffrement post-quantique. Ces crypto-systèmes se basent sur des problèmes difficiles qui – contrairement à la factorisation des entiers, base de RSA – résisteraient, dans l’état actuel des connaissances, à l’arrivée de l’ordinateur quantique. Ces primitives post-quantiques, asymétriques et symétriques, ont besoin, de la même façon que dans le cas classique, d’avoir leur sécurité analysée face à un attaquant quantique, et la cryptanalyse quantique est donc d’une importance primordiale.
Mentionnons que la cryptographie doit parfois pouvoir résister dans le temps : on voudrait pouvoir garder certains documents confidentiels à long terme, malgré les progrès scientifiques en matière de cryptanalyse (incluant donc l’arrivée possible de l’ordinateur quantique). Il serait donc opportun de commencer dès aujourd’hui à utiliser des crypto-systèmes qu’on pense résistants même dans un contexte post-quantique.
L’importance des recommandations.
Il ne faut pas sous-estimer l’importance de suivre les recommandations de la communauté scientifique cryptographique. Notamment, seule la poignée de primitives recommandées par cette communauté doit être utilisée, car ce sont celles qui focalisent la cryptanalyse et dont la marge de sécurité est de loin la meilleure. Heureusement, ce principe est de mieux en mieux respecté par la communauté informatique dans son ensemble, comme vous pourrez le constater avec légèreté en effectuant une recherche sur le Web d’images contenant les termes “roll your own crypto”. Une notion également importante et parfois plus négligée est de rester à jour, et de réagir rapidement quand la communauté cryptographique recommande d’abandonner un crypto-système précédemment recommandé, mais jugé insuffisamment sûr à l’aune de progrès récents.
Les grandes failles de sécurité informatique sont souvent le cas de mauvaises implémentations, mais la faute incombe parfois à l’usage de crypto-systèmes non recommandés. Citons par exemple une attaque parue en 2013 sur le protocole TLS (qui protège les connexions https sur nos navigateurs), utilisant des failles du stream cipher RC4 dont on connaissait l’existence depuis 2001 ! Pire : en 2015, l’attaque FREAK exploitait la petite taille des clés RSA-512, qu’on savait trop faible depuis les années 90.
Ces brèches de sécurité et beaucoup d’autres auraient pu et dû être évitées !
Conclusion
Ces illustrations montrent que la cryptanalyse demande des efforts soutenus et continus, par des chercheurs bienveillants travaillant dans un contexte transparent, et publiant leurs résultats.
Que ce soit dans un contexte classique ou post-quantique, la cryptanalyse doit rester une thématique en constante évolution, afin d’assurer la maintenance des algorithmes utilisés, ainsi que pour évaluer les nouveaux types d’algorithmes cryptographiques. Mieux vaut prévenir que guérir et garder une longueur d’avance sur les adversaires malveillants !
Acheter en ligne, réaliser des transactions bancaires, communiquer de façon sécurisée, autant d’opérations qui nécessitent d’être protégées par des fonctions (ou primitives) cryptographiques. Notre confiance envers ces briques de base repose sur la cryptanalyse, c’est à dire l’analyse de la sécurité par des experts, qui essayent de “casser” les primitives cryptographiques proposées, et ainsi déterminer celles qui semblent robustes et qu’on pourra recommander, ou celles qui semblent dangereuses et qu’il ne faut pas utiliser. C’est ce que nous explique Maria Naya-Plasencia dans deux articles qui terminent la série entamée à l’occasion de la publication par Inria du livre blanc sur la cybersécurité. Dans ce premier article, Maria pose les bases des mécanismes de la cryptanalyse. Pascal Guitton .
Nos communications doivent être protégées pour assurer leur confidentialité et intégrité, et pour les authentifier. Des protocoles de sécurité bien réfléchis sont utilisés dans ce but, et les briques de base de tous ces protocoles sont les primitives cryptographiques. Ces primitives cryptographiques peuvent être divisées en deux grandes familles.
La cryptographie symétrique (parfois dite “à clé secrète”) est la plus ancienne. Si Alice et Bob veulent communiquer à distance de façon confidentielle, malgré les risques d’interception de leurs messages, ils vont d’abord se réunir et se mettre d’accord sur une clé secrète, que tous les deux (et personne d’autre) connaissent. Quand Alice veut envoyer un message à Bob, il lui suffit alors de cacher l’information à l’aide de la clé secrète, avant de l’envoyer. Quand Bob recevra le message chiffré, il peut le déchiffrer à l’aide de la même clé secrète pour récupérer le message original : la clé secrète sert à chiffrer et à déchiffrer. Bob peut lui aussi envoyer un message à Alice avec la même clé, qui est utilisable dans les deux sens.
Cette méthode présente l’inconvénient de devoir se réunir (en secret, sans risque d’interception ou espionnage) avant de pouvoir établir des communications éloignées et sécurisées. Comment pourraient faire Alice et Bob pour communiquer confidentiellement sans se réunir avant ?
Ils peuvent utiliser la cryptographie asymétrique (dite ”à clé publique”), introduite dans les années 70. Les détails sur ce types de primitives sont présentés dans l’article “De la nécessité des problèmes que l’on ne sait pas résoudre”.
La cryptographie asymétrique permet d’éviter que les parties qui veulent communiquer se réunissent avant établir la communication sécurisée, mais elle est aussi lente et coûteuse, pouvant devenir impraticable pour des longs messages. De son côté, la cryptographie symétrique nécessite un échange de clés avant de pouvoir commencer la communication, mais une fois la clé secrète répartie, elle est considérablement plus efficace. Pour exemple, le standard symétrique actuel, AES, recommandé depuis 2002 et utilisé dans la plupart des navigateurs web, peut chiffrer plusieurs gigaoctets par seconde, là où les standards asymétriques actuels peinent à atteindre un mégaoctet par seconde (plus de 1000 fois plus lents). On utilise donc le plus souvent des systèmes mixtes : la cryptographie asymétrique pour échanger une clé secrète, normalement de petite taille (par exemple 128 bits), et ensuite la cryptographie symétrique (en utilisant la clé secrète échangée) pour chiffrer les messages.
Pour que les communications soient sûres, les primitives cryptographiques utilisées doivent répondre à un cahier des charges précis en matière de sécurité. La cryptanalyse constitue le moyen essentiel de s’assurer du respect prolongé de ce cahier des charges.
Quelles primitives utiliser ?
La sécurité des primitives asymétriques (à clé publique) repose en général sur la difficulté d’un problème mathématique bien établi et jugé difficile, c’est-à-dire à priori insoluble dans un laps de temps raisonnable. Par exemple, le chiffrement RSA repose sur le problème de la factorisation (étant donné un entier naturel non nul, trouver sa décomposition en produit de nombres). Déchiffrer RSA reviendrait donc à résoudre le problème de la factorisation de très grandes nombres entiers, ce qui constituerait une véritable bombe dans le milieu scientifique, car de très nombreux chercheurs étudient ce problème en vain depuis des décennies.
Du côté de la cryptographie symétrique, on peut prouver formellement de nombreuses propriétés de sécurité d’un chiffrement symétrique idéal si on suppose qu’il génère pour chaque message un chiffre aléatoire, ce qui ne nous permettrait pas de retrouver de l’information sur le message original. Mais il est par essence impossible de construire efficacement une telle fonction, et les primitives symétriques essaient d’imiter ce comportement avec des fonctions déterministes. Pour jauger la sécurité, on s’en remet donc à la résistance aux attaques des cryptanalystes.
Une attaque est jugée efficace (et la primitive attaquée est alors dite « cassée ») si elle peut se faire plus facilement (plus rapidement, ou en utilisant moins de ressources de calcul) que les meilleures attaques génériques, c’est à dire une attaque qu’on peut toujours appliquer, même sur les primitives idéales. Par exemple, une attaque générique sur un chiffrement symétrique est la recherche exhaustive de la clé secrète : en essayant toutes les clés possibles, on parviendra toujours à trouver la bonne. Comme on ne veut pas qu’une telle attaque soit réalisable, les clés secrètes ont des tailles variant entre 128 à 256 bits, selon la sécurité voulue : cela implique qu’il faudrait essayer respectivement 2128 ( environ à 340 milliards de milliards de milliards de milliards, soit un 3 suivi de 38 zéros) et 2256 clés différentes. Tester 2128 clés est à l’heure actuelle hors de portée mais il est difficile de prédire pendant combien de temps ce sera le cas ; pour des clés de 256 bits une recherche exhaustive est cependant totalement au-delà des capacités de l’ensemble des ressources de calcul de la planète.
L’existence de toute attaque plus performante que ces attaques génériques est considérée comme une faiblesse grave de la primitive.
Thibaut Sohier est doctorant au sein du Laboratoire des Technologies d’Intégration 3D du CEA, rattaché à l’école doctorale des Mines de Saint-Etienne. Il est finaliste de la région Lyonnaise au concours « Ma thèse en 180 secondes« . Thibaut vient nous expliquer dans binaire ce qu’est le piratage par voie physique, et la solution qu’il développe dans le cadre de sa thèse pour s’en prémunir. Pauline Bolignano.
Thibaut Sohier
La mention d’une cyberattaque renvoie directement dans l’imaginaire collectif à un film de science-fiction mettant en scène des hackeurs de génie capables d’étudier du code défilant à toute vitesse sur des écrans. Quand d’un coup, le message « accès autorisé » leur ouvre les portes de systèmes ultra-sécurisés. Toutefois, dans le monde réel ce n’est pas aussi simple… Et heureusement ! Les protections algorithmiques évoluent sans cesse, compliquant grandement le piratage. Aujourd’hui, l’algorithme de chiffrement appelé AES (pour « Advanced Encryption Standard ») offre une protection efficace contre les cyberattaques ciblant les données (voir cet article). S’il fallait tester toutes les combinaisons permettant de trouver la clef secrète qui a permis ce chiffrement, il faudrait plus de 100 milliards d’années et la contribution de 7 milliards d’ordinateurs. Ce n’est évidemment pas réalisable… Les hackers se sont donc adaptés : ils peuvent s’en prendre directement à des systèmes physiques, y compris à des objets connectés dont ils exploitent des failles pour infiltrer le réseau auquel ils sont reliés. La méthode consiste à perturber physiquement (optiquement ou électromagnétiquement) les composants électroniques afin de générer une sorte de « bug » qui laissera échapper des informations permettant de déduire la clé de chiffrement et ainsi d’accéder aux informations convoitées. Dans notre monde hyper-connecté, cette technique est amenée à se développer, que ce soit dans le domaine militaire (acquisition des données archivées dans le drone) ou dans le domaine économique (piratage d’une entreprise via des objets connectés tels que des caméras de surveillance, voire la machine à café !).
Une cyber-attaque par voie physique ? et puis quoi encore ?!?
Pour bien comprendre ce nouveau mode de piratage, il faut se représenter ce qu’est réellement un dispositif électronique. Ce qui s’en rapproche le plus : c’est vous ! Ou plus précisément votre cerveau. Alors comment un hacker pourrait-il découvrir vos secrets les plus intimes?
La première solution, la plus évidente, consisterait à vous faire parler de tout et de rien, tout en étudiant l’activité de votre cerveau via la pose de sondes (comme pour un encéphalogramme). On découvrira ainsi où se situe votre zone mémoire, l’analyse et l’étude des signaux enregistrés permettra de savoir ce qui vous rend heureux, ce qui vous fait réfléchir, et même quand vous mentez… Et de fil en aiguille, en déduire vos petits secrets… Dans le jargon, on parle d’attaque par « canaux auxiliaires » ou « side channel » ; on recherche des pics de température, de courant, de champ électromagnétique… émanant du dispositif électronique en fonctionnement. Après de nombreuses analyses, toutes les informations récoltées permettent de reconstituer la clé de chiffrement en un temps record.
Equipement de test
Si cette première méthode échoue car vous êtes entrainé à ne pas parler sous la pression et à n’exprimer aucune émotion, il y a toujours un moyen plus direct d’obtenir ces informations… La torture ! Dans ce cas, l’attaquant va ouvrir votre boite crânienne afin d’accéder à votre cerveau. Il va ensuite soumettre vos neurones à des stimuli extrêmes tels que des radiations, des hausses de température ou encore de fortes impulsions lumineuses afin de générer des lapsus révélateurs.
Pour un composant électronique, c’est exactement la même chose, excepté que les neurones sont ce que l’on appelle des transistors et que la torture se nomme joliment « injection de fautes ». Mais comment s’en prémunir ?
Par analogie, on va chercher à reproduire les mécanismes de protection du cerveau ! Pour cela on réalise un boitier physique (boite crânienne) et on introduit des capteurs (récepteurs sensoriels/nerfs) qui transmettent un message d’alerte au cerveau en cas d’intrusion (douleur).
Toutefois, de même que les récepteurs sensoriels sont rendus insensibles lors d’une anesthésie, les capteurs peuvent être inhibés par une action physique ciblée.
Alors que faire ? C’est là que j’interviens !
Ma thèse
Mon travail de thèse consiste à étudier les mécanismes utilisés pour réaliser ces attaques afin de proposer une protection adéquate.
L’objectif de mon travail est de développer un boitier sécuritaire pour les composants électroniques, en intégrant des détecteurs « nouvelle génération » difficiles à « anesthésier » ! Pour ce faire, un phénomène magnétique extrêmement sensible appelé Magnéto Impédance Géante (GMI en Anglais) a été utilisé. Un maillage imitant un réseau nerveux a été généré. Il assure à la fois le rôle de barrière physique et de détecteur. Pourquoi ces détecteurs sont-ils si spéciaux ? Tout simplement car ils sont aussi émetteurs d’informations. Autrement dit, ils sont très bavards ! Chacun de ces détecteurs a l’étonnante capacité de « discuter » avec ses proches voisins via un couplage magnétique. Chaque détecteur envoie constamment à ses voisins un unique message d’origine magnétique dont le contenu dépend des messages qu’il reçoit de ses propres voisins. C’est une sorte d’équilibre. Tant que la structure du boitier est intègre, l’ensemble des messages reste constant. En cas de tentative de pénétration dans le boitier sécuritaire, un des capteurs sera nécessairement altéré, engendrant de ce fait un changement de l’information du message magnétique. L’équilibre est alors rompu, générant un effet boule de neige qui permet de repérer une modification même infime de la protection, et ainsi de prendre les mesures nécessaires pour empêcher l’accès aux données sensibles, quitte à les détruire….
Pour un humain, ce n’est pas l’idéal, mais pour de la protection de nos données, c’est rudement efficace !
Vue du dessus de la contremesure à base de matériaux magnétiques réalisée au cours de la thèse (Jaune)
Conclusion
Ma thèse peut donc se résumer au développement et à la mise en place d’un réseau de capteurs communiquant par effet magnétique. Il constitue un coffre-fort appelé « packaging sécurisé » pour les composants électroniques, afin que vos petits secrets restent bien à l’abri…