Catégorie : Environnement

  • Quel(s) numérique(s) pour demain dans un monde contraint en matière et en énergie ?

    Alors que le numérique s’impose dans tous les aspects de notre quotidien, ses impacts environnementaux interrogent.
    Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia, et Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria, nous partagent ici des réflexions émergentes sur comment repenser le numérique pour le rendre compatible avec les contraintes environnementales et énergétiques, tout en lui permettant de contribuer à la construction de sociétés plus résilientes et soutenables ?
    Antoine Rousseau et Thierry Viéville .

    Cheminement du numérique dans un monde en transition
    Chemins de transition, 2022


    Les discussions sur les impacts environnementaux du numérique gagnent en importance, s’inscrivent dans les pratiques professionnelles et commencent même à s’institutionnaliser, notamment en France mais aussi dans d’autres pays, comme la Suisse, la Belgique et le Québec [1].

    Ces initiatives convergent vers une conclusion commune : la nécessité de maîtriser les impacts environnementaux du développement numérique pour ne pas compromettre les efforts de transition socio-écologique. 

    Dans ce contexte, la notion de “sobriété numérique” émerge comme une réponse : elle se concrétise par diverses stratégies visant à prolonger la durée de vie des équipements, alléger les services numériques et réduire leur consommation énergétique. Bien que ces initiatives soient encourageantes et méritent d’être soutenues, elles restent toutefois insuffisantes face aux trajectoires insoutenables de la numérisation. 

    En réalité, l’enjeu dépasse la simple optimisation technologique. Le numérique s’intègre dans toutes les sphères de la société, y compris celles qui portent directement atteinte à l’intégrité de la planète[2]. Des optimisations appliquées sans discernement risquent ainsi d’amplifier des activités insoutenables, comme le minage de cryptomonnaies  ou l’exploration pétrolière automatisée. Par ailleurs, le développement numérique repose largement sur des modèles d’affaires axés sur l’accumulation perpétuelle, qu’il s’agisse d’appareils connectés ou de données collectées, qui doivent également être remis en question pour réorienter les trajectoires actuelles.

    La course effrénée à l’intelligence artificielle (IA) générative, la multiplication d’objets connectés et de centres de données illustrent des dynamiques incompatibles avec un cadre de soutenabilité à long terme, même avec les meilleures stratégies d’optimisation. À cela s’ajoute la menace grandissante de l’épuisement progressif de ressources essentielles aux technologies numériques, notamment certains métaux critiques.

    Rendre le développement numérique compatible avec la transition socio-écologique exige une remise en question profonde des dynamiques dont il dépend et de sa compatibilité avec les contraintes énergétiques, climatiques et matérielles à venir. Il s’agit alors de le prioriser collectivement, d’en définir les paramètres de déploiement, et d’inventer de nouveaux rapports aux technologies qui sont à la fois véritablement utiles et durables. L’optimisation, prise isolément, n’est pas suffisante pour atteindre la sobriété : elle n’a de sens que lorsqu’elle s’inscrit dans un système qui intègre et respecte les contraintes socio-écologiques, et nécessite des efforts de formation adaptés

    Une priorisation dans d’autres secteurs

    La réflexion entre optimisation et sobriété dépasse le numérique et s’inscrit plus généralement dans le cadre de la transition socio-écologique. Ainsi, les optimisations techniques, telles que celles observées dans les véhicules électriques ou les systèmes de chauffage bas carbone ne sont véritablement efficaces que lorsqu’elles s’intègrent dans des systèmes repensés : une mobilité axée sur le collectif, des habitats mieux isolés, le tout soutenu par des énergies renouvelables. 

    Cette problématique se pose également dans d’autres secteurs, où les impacts environnementaux et la disponibilité des ressources rendent la question plus pressante. En France, par exemple, le Secrétariat général à la planification écologique (SGPE) propose une hiérarchisation des usages de la biomasse locale (page 15), privilégiant la souveraineté alimentaire à la production de biocarburants pour l’aviation civile, le chauffage ou la production énergétique.

    De même, l’hydroélectricité québécoise fait face à une multiplication de projets industriels sollicitant son accès. Depuis 2023, tout projet de plus de 5 mégawatts doit obtenir l’approbation du ministère de l’Énergie, suite à une demande d’Hydro-Québec.  Ce changement législatif, initié par la société d’État responsable de la production électrique, répond à son incapacité à satisfaire toutes les demandes de raccordement. La priorisation s’opère selon des critères définis : les capacités techniques de raccordement et les incidences sur le réseau électrique du Québec, les retombées sur l’économie et le développement régional, l’impact environnemental et social, ainsi que la cohérence avec les orientations gouvernementales.

    Prioriser les projets numériques utiles ?

    Les réflexions autour de la priorisation commencent à émerger également dans les travaux récents consacrés au numérique et à l’IA responsable, notamment à travers le prisme de l’utilité. Le Référentiel général d’écoconception de services numériques, porté par l’ARCEP, invite ainsi à mettre en dialogue l’utilisation d’un service avec ses impacts environnementaux. De même, le  Référentiel général pour l’IA frugale de l’Afnor souligne que toute analyse technique doit être précédée d’une réflexion sur les besoins et usages, en s’assurant qu’ils “visent à rester dans les limites planétaires et ont été préalablement questionnés”. Par ailleurs, la Net Zero Initiative for IT va encore plus loin en établissant des critères d’éligibilité pour qu’un service numérique puisse prétendre éviter des émissions de gaz à effet de serre. Ces critères incluent le secteur d’activité de l’entreprise, excluant explicitement les industries considérées comme structurellement contraires aux objectifs de développement durable de l’ONU, comme l’extraction ou l’exploration d’énergies fossiles, l’industrie du tabac ou encore la pornographie (cette dernière considérée comme contraire aux objectifs 3 et 5, voir page 21 de la méthodologie).

    L’émergence de ces cadres méthodologiques amène dans le débat une question fondamentale commune à ces différentes initiatives : qu’est-ce qu’un numérique utile ?

    La question n’est pourtant pas si nouvelle, puisque depuis l’essor du numérique au 20ᵉ siècle, deux visions antagonistes se dessinent quant à sa finalité. La première, largement dominante, aborde le numérique comme un outil de substitution, destiné à exécuter des tâches à la place des humains. Cette approche, qui est omniprésente dans l’industrie et le quotidien (des caisses automatiques aux applications de guidage GPS), vise avant tout la maximisation des profits et le gain de temps. Pourtant, ce “gain de temps” s’accompagne paradoxalement d’un sentiment d’accélération : le temps libéré est immédiatement réinvesti dans des activités productives, comme l’illustrent les enchaînements de réunions en visioconférence, sans pauses permises par les déplacements physiques. Cette approche crée également une dépendance, en dépossédant les utilisateurs de compétences auparavant essentielles. Par exemple, l’usage systématique des applications de guidage via GPS pour générer et suivre un itinéraire élimine la nécessité de maîtriser la géographie ou les repères topologiques.

    À l’inverse, une seconde vision promeut un numérique au service de la complémentarité. Ici, l’objectif principal est d’aider les individus à apprendre et à agir. Le projet “Back to the Trees”, par exemple, propose un outil éducatif minimaliste qui accompagne les utilisateurs dans l’identification des plantes à travers un questionnaire reprenant les caractéristiques d’identification des livres de botaniste. Ce numérique “low-tech” favorise l’acquisition de savoir de façon ludique tout en consommant peu de ressources. 

    Au-delà des projets futurs, on peut légitimement se demander si ce questionnement de l’utilité, largement invisibilisé dans le débat public jusqu’à présent, ne devrait pas également concerner l’existant.

    Que faire des usages existants, incompatibles avec une transition à long terme ?

    L’univers numérique est en constante évolution et il est certainement plus facile de planifier ou de réorienter des projets qui n’existent pas encore plutôt que de le faire une fois déployés. Se pose cependant la question de la possibilité de faire atterrir l’univers numérique actuel dans le cadre des limites planétaires. Avec le déclin des ressources naturelles (métaux, minéraux, eau, énergie, etc.) et l’aggravation des aléas climatiques, il devient impératif d’évaluer la compatibilité de nos infrastructures numériques, dont nos modes de vie dépendent de plus en plus, avec un avenir marqué par ces contraintes. 

    Au-delà de la raréfaction des ressources nécessaires à leur fonctionnement, ces infrastructures devront également affronter des conditions climatiques de plus en plus difficiles. Sécheresses, montées des eaux, inondations et stress hydrique sont autant de phénomènes dont la fréquence et l’intensité continueront à croître. Or, les infrastructures numériques sont particulièrement vulnérables à ces risques. 

    Par exemple, selon l’intensité des aléas climatiques, les réseaux numériques, notamment essentiels pour l’électricité, les communications, et le transport, pourraient subir des déformations structurelles, voire des ruptures, à cause des vagues de chaleur, des vents violents ou des inondations extrêmes. Cette fragilité est exacerbée par la complexité et l’interdépendance de ces infrastructures : une simple défaillance dans un élément critique, même situé à l’extérieur d’un territoire donné, peut entraîner sa déconnexion totale. Bien que renforcer leur résilience soit possible, cela nécessiterait une redondance accrue des infrastructures, impliquant à son tour une consommation accrue de ressources.

    Imaginer un numérique compatible avec un futur contraint

    Dans ce contexte, une réflexion s’impose : à quoi ressembleraient des infrastructures, appareils, modèles d’affaires et usages numériques compatibles avec des sociétés limitées en ressource tout en étant résilients face à l’augmentation des risques climatiques? Cette question, cruciale, nous invite à nous projeter dans l’avenir pour mieux éclairer les choix collectifs à faire aujourd’hui. 

    – Quelles branches existantes de l’univers numérique actuel pourraient rester pertinentes, voire devenir essentielles, pour soutenir des sociétés plus soutenables et résilientes ?
    – Quelles branches pourraient être repensées pour répondre aux nouvelles contraintes ?
    – Quelles branches sont fondamentalement incompatibles avec ces perspectives et nécessitent une redirection, un renoncement ou un abandon ?

    Ces questions peuvent être traduites en implications opérationnelles. Par exemple, les systèmes d’IA particulièrement énergivores, comme ceux basés sur des modèles de langage massifs (LLM), sont-ils compatibles avec un monde aux ressources limitées ? Est-il raisonnable de rendre nos sociétés toujours plus dépendantes de ces technologies ?

    Planification et priorisation : un impératif pour le numérique

    Pour devenir compatible avec le cadre des limites planétaires, en réduisant ses impacts directs et en renforçant sa résilience, le numérique devra s’éloigner de ses paradigmes expansifs actuels. Il devra s’inscrire dans une logique de planification et de priorisation. Allant dans ce sens, la Commission de l’Éthique en Science et Technologie (CEST) du Québec a récemment rédigé un avis complet de 112 pages sur l’impératif de la sobriété numérique, appelant explicitement dans ses recommandations à enclencher rapidement une démarche de réflexion sur la priorisation des usages du numérique.

    Quelques questions majeures subsistent pour accompagner ces transformations, notamment :
    – Comment opérationnaliser ces arbitrages ? 
    – À quelle échelle agir, et qui doit être impliqué dans ces décisions ?
    – Sur quels critères éthiques, sociaux, environnementaux, économiques, voire opérationnels, peut-on fonder ces choix ?

    Plusieurs individus et collectifs explorent ces questions essentielles, offrant des pistes de réflexion qui méritent que l’on s’y attarde. Bien sûr, aucun ne propose de solution prête à l’emploi, et c’est compréhensible : prioriser le numérique implique de le recontextualiser, de le repolitiser, et donc de nourrir des discussions et des choix collectifs. Parmi les initiatives notables, certains tentent de définir les contours d’un numérique alternatif, que ce soit à travers l’Alternumérisme radical ou le concept de Numérique d’Intérêt Général. Pour envisager une réelle redirection des systèmes techniques vers un cadre de soutenabilité non basé sur des formes de “technologies zombies”, Alexandre Monnin et ses collègues rappellent l’importance de cartographier nos attachements, qu’ils soient positifs ou contraignants. Mobilisant des approches prospectives et participatives, Chemins de transition explore les implications sociétales d’une convergence entre transition numérique et transition socio-écologique. Le groupement de recherche CNRS “Centre internet et société” propose des pistes de réflexion à travers son groupe de travail “Politiques environnementales du numérique”. Enfin, la conférence annuelle LIMITS rassemble des recherches qui esquissent un système d’information en phase avec un monde limité, qu’il s’agisse de réinterroger l’internet des objets avec le cadre des limites planétaires ou d’imaginer des approches de désescalade numérique.

    Vers le fini, et pas au-delà

    Adapter le numérique aux défis de demain exige de dépasser les défis technologiques et nous invite à nous engager dans une réflexion collective sur les modalités de son déploiement dans nos sociétés. Utiliser des critères éthiques, démocratiques, environnementaux et sociaux devient alors incontournable pour guider une redirection du numérique afin de le rendre compatible avec la transition vers des modes de vie plus soutenables. Il s’agit de décider collectivement de quel numérique nous voulons, de se donner les moyens de le faire advenir et de renoncer aux formes insoutenables.

    Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia,
    Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria

    [1] Quelques exemples d’initiatives en dehors de France :
    https://isit-ch.org
    https://isit-be.org
    https://w3c.github.io/sustyweb
    https://agitquebec.org
    https://cheminsdetransition.org/les-ressources/defi-numerique
    https://www.obvia.ca/recherche/axes/sobriete-numerique-et-transition-socio-ecologique
    https://www.linkedin.com/company/collectif-numerique-responsable-soutenable/posts
    https://ethique.gouv.qc.ca/media/wayd3cqj/cest_avis-sur-la-sobri%C3%A9t%C3%A9-num%C3%A9rique.pdf

    [2] Martin, J. et Durand Folco, J. (2023) Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle. Écosociété.

  • Cartographie des formations incluant la thématique de la sobriété numérique dans l’Enseignement Supérieur en France

    Pour comprendre comment améliorer notre sobriété numérique face au défi de préservation de la planète nous avons besoin de faits et d’information. Chiara Giraudo, Ingénieure Pédagogique au CNRS et Jean-Marc Pierson, Professeur en informatique et Directeur de l’IRIT, dans le cadre du programme Alt Impact, partagent ici, dans le cadre du programme Alt Impact [0] partage ici un état des lieux des diplômes et des formations délivrés dans l’ESR sur la sobriété numérique, afin de formaliser une cartographie mettant en lumière les éventuelles pénuries de diplômes selon les territoires, disciplines, et années d’étude. L’analyse de cette cartographie permet de définir une stratégie d’action de formation sur la thématique de la sobriété numérique dans l’ESR. 
    Bienvenue aux futurs étudiant·e·s, et aux futurs employeur·e·s. Et c’est aussi un bel exemple d’étude scientifique partagée de manière citoyenne avec le large public.  Benjamin Ninassi et Thierry Viéville.

    État des lieux et perspectives – mai 2024 

    Face aux enjeux environnementaux et sociaux, l’impact du numérique suscite une préoccupation croissante. Annuellement, l’impact environnemental du numérique est estimé à 2,5% de l’empreinte carbone de la France et correspond à près de 10% de sa consommation électrique[1]. Cet article vise à fournir des éléments de réflexion et des données concrètes pour mieux appréhender l’enjeu de la sobriété numérique dans l’enseignement supérieur et la recherche (ESR), un secteur clé dans la transition écologique. Ainsi, pour l’année universitaire 2023-2024, 2,92 millions d’étudiant.e.s se sont inscrit.e.s à un cursus de l’enseignement supérieur, soit près de 10% de la population active en France.

    Méthode

    Nous avons recensé les diplômes de l’enseignement supérieur via la base de données de France Compétences. Dans cette base de données, les diplômes et certifications sont classés en deux catégories : les fiches RNCP (Répertoire National des Certifications Professionnelles), qui valident la maîtrise de compétences spécifiques à un emploi-type, et les fiches RS (Répertoire Spécifique), qui concernent les habilitations et certifications attestant de compétences transversales. Nous avons focalisé notre recherche sur les fiches RNCP, afin de repérer la présence d’enseignements sur la sobriété numérique dans les certifications menant à un métier.

    Il est important de préciser que les fiches RNCP sont associées à des diplômes et certifications. Autrement dit, ce sont des documents répertoriant les compétences et activités acquises par les titulaires de cette certification. Les formations, quant à elles, sont des programmes organisés dans le temps et pour un certain nombre d’étudiant.es.  Les fiches RNCP sont composées d’un résumé de la certification, dans lequel les activités visées ainsi que les compétences attestées et compétences transversales sont explicitement citées. C’est spécifiquement dans ce résumé que nous avons recherché la présence de mots-clés en rapport avec la sobriété numérique. Pour concevoir cette liste de mots-clés, nous nous sommes appuyés sur le Formacode[2], ainsi que sur les sites de l’Onisep, de France Compétences, de France Travail, et sur la page Wikipédia dédiée à l’informatique durable.

    Résultats

    La base de données de l’ensemble des résultats est en consultation et téléchargement libre. Au 25 mai 2024, 108 fiches RNCP actives contiennent un mot-clé lié à la sobriété numérique. En recherchant chaque fiche sur le site de l’ONISEP, nous avons identifié un total de 531 formations associées, réparties en France Métropolitaine et dans les Départements et Régions d’Outre-Mer. 

    Répartition des diplômes et formations sur la sobriété numérique dans l’ESR par
     spécialité de formation
     (basé sur la NSF de l’INSEE)

    Nombre de diplômes Nombre de formations

    Nous observons que les disciplines offrant le plus grand nombre de diplômes et de formations en sobriété numérique sont l’informatique et l’industrie. En revanche, les cursus en droit, formation, et sciences humaines sont peu nombreux à intégrer des compétences liées à la sobriété numérique. Par exemple, le Master « Droit de l’Environnement » de l’Université de Montpellier mentionne dans sa fiche RNCP la compétence « Respecter les principes d’éthique, de déontologie et de responsabilité environnementale ». Cependant, la notion de sobriété numérique n’est pas explicitement mentionnée.

    Titre du diplôme

    Niveau de diplôme

    Nombre de diplômes

    Nombre de formations

    Baccalauréat, Titre professionnel

    4

    1

    20

    DEUG, BTS, DUT, DEUST

    5

    9

    44

    Licence, licence professionnelle, BUT

    6

    24

    181

    Master, diplôme d’ingénieur

    7

    74

    286

     

     Total

    108

    531

    Nombre de diplômes et de formations sur la sobriété numérique, par niveau et titre du diplôme

    Il apparaît ici que les enseignements sur la sobriété numérique se concentrent principalement sur les niveaux de diplôme 6 (Licences et BUT) et 7 (Masters et diplômes d’Ingénieurs). Sur un total de 108 diplômes liés à la sobriété numérique et délivrés en France, plus de 68% correspondent au niveau Master

     

    Répartition des effectifs étudiant.e.s et nombre de formations en sobriété numérique par Région, (2022-2023) (Carte interactive)

    Départements et Régions d’outre-mer

    Département

    Nombre de formations

    Guadeloupe

    1

    La Réunion

    5

    Mayotte

    1

    Nouvelle-Calédonie

    3

    Indication de lecture : La Région Île-de-France accueille 27% de l’effectif total de la population étudiante. On y recense 105 formations sur la sobriété numérique.

    Les Régions recensant le plus de formations en lien avec la sobriété numérique sont l’Île de France (105), l’Auvergne-Rhône-Alpes (84), suivis par l’Occitanie (53) et les Hauts-de-France (51). En comparant la répartition des étudiant.e.s et la répartition des formations par Région, il semble que la distribution des formations sur le territoire soit plutôt équilibrée.

    Nombre de formations sur la sobriété numérique dans l’ESR, par ville (Carte interactive)

     Départements et Régions d’outre-mer

    Nom de Département et n°

    Ville

    Nb. de formations

    Guadeloupe

    971

    Pointe-à-Pître

    1

    La Réunion

    974

    Le Port

    1

    974

    Le Tampon

    1

    974

    Saint-Joseph

    1

    974

    Saint-Pierre

    2

    Mayotte

    976

    Mamoudzou

    1

    Nouvelle-Calédonie

    988

    Nouméa

    3

     

    Les villes avec le plus grand nombre de formations sur la sobriété numérique sont Paris (35), Lyon (27 formations), Bordeaux (17), Lille (17), et Montpellier (15).

    Nuage de mots : Nombre de diplômes par mots-clés

    Le mot-clé dont l’occurrence est la plus élevée est « Ecoconception » (41 occurrences). Ensuite, l’expression « Responsabilité Sociétale des Entreprises » est apparue 23 fois, suivie de « Numérique Responsable » (18 occurrences) et de « Sobriété Numérique » (15 occurrences).

    DiscussionMéthode de recensement

    La méthode de recensement utilisée présente plusieurs limites. Tout d’abord, la liste des diplômes et formations n’est pas exhaustive : plusieurs mots-clés sont utilisés de façon disparate pour parler de sujets similaires. D’autre part, de nombreuses données sont manquantes : la date de création du diplôme et des formations, les volumes horaires rattachés aux enseignements, les intitulés d’Unité d’Enseignement et thématiques précises enseignées, le coût et accès à la formation, la qualité du contenu de formation et les méthodes pédagogiques mobilisées, le nom et statut des intervenant.es, les effectifs étudiant.e.s, le taux de réussite au diplôme, le taux d’insertion professionnelle des diplômé.es, ainsi que la satisfaction des étudiant.es. Malheureusement, il n’existe pas, à notre connaissance, de base de données libre d’accès qui rassemble toutes ces informations.

    Dans le cadre du Programme Alt-Impact, nous collaborons avec la Grande École du Numérique. Cet organisme a développé un outil de référencement automatique des formations, GEN_SCAN, qui opère en croisant différentes bases de données ; certaines en libre accès, et d’autres payantes. En configurant cet outil selon nos besoins, nous pourrions éclaircir de nombreux aspects de notre recherche.

    Discussion : Proposition d’une stratégie de déploiement de la formation

    Sensibiliser et former les enseignant.es-chercheurs

    Afin d’atteindre un large éventail de disciplines universitaires à tous les niveaux de diplômes, nous proposons de sensibiliser et former les enseignant·e·s-chercheur·e·s de toutes les disciplines à la sobriété numérique. L’objectif est qu’ils puissent promouvoir de manière pérenne cette approche au sein de leurs établissements. Nous recommandons d’identifier et de former, parmi le corps enseignant, un.e référent.e en Sobriété Numérique au sein chaque université française. Cette personne référente aura pour mission de diffuser cette démarche auprès de ses collègues. Enfin, pour équiper un maximum d’enseignant·e·s-chercheur·e·s, nous suggérons de créer et mettre à disposition des outils pédagogiques, tels que des capsules vidéo. Ces outils se concentreront sur deux aspects : les connaissances en sobriété numérique et les méthodes d’enseignement et d’accompagnement au changement appliquées à cette thématique.

    Diplôme et référentiel

    Nous avons concentré notre recherche sur les certifications inscrites au RNCP. Explorer la possibilité créer un titre RS sur la sobriété numérique permettrait de définir et d’instaurer un socle commun de compétences à maîtriser, pour chaque étudiant.e de l’Enseignement Supérieur. Dans le cadre du programme Alt-Impact, nous élaborons avec notre partenaire Pix un référentiel d’évaluation en sobriété numérique. Ce livrable servira de base afin de construire un référentiel complet d’activité, de compétences et d’évaluation, avec pour objectif final de déposer un futur titre au Répertoire Spécifique de France Compétences relatif à la sobriété numérique. De plus, ce dispositif certifiant nous permettra d’obtenir des statistiques pertinentes quant à la notation, au suivi et à la validation de ce référentiel.

    Offre de formation uniformisée pour les étudiant.es

    L’élaboration d’une offre de formation basée sur le référentiel évoqué précédemment permettrait de remédier à l’absence d’uniformité de diplômes et formation sur la Sobriété Numérique au sein l’enseignement supérieur, en termes d’utilisation de mots-clés, ainsi que de répartition dans les disciplines, territoires, et niveau de diplôme, comme nous l’avons constaté lors de notre étude. Ainsi, en termes de stratégie de déploiement de formation, nous préconisons que la validation du futur référentiel d’évaluation conçu par Pix soit largement intégrée aux cursus des Sciences Humaines et Sociales, du Droit, de l’Économie et de la Santé. En effet, l’effectif dans ces cursus représente près de 56% de l’ensemble des disciplines Universitaires, et elles disposent de peu d’offres de formations en sobriété numérique (12% des formations)

    Communication et valorisation

    En parallèle, afin de favoriser la visibilité de l’offre de formation et les opportunités professionnelles en lien avec la sobriété numérique, nous proposons de créer un podcast. Ce podcast mettra en lumière les diverses formations en donnant la parole aux étudiant.es, pour qu’ils puissent partager leur expérience d’apprenant.e. Les diplômé.e.s pourront également évoquer leur retour d’expérience et la façon dont ils appliquent la sobriété numérique en milieu professionnel. Enfin, les enseignant.es-chercheur.es et les membres des SUIO (Services Universitaires d’Information et d’Orientation) auront l’occasion de présenter brièvement les formations et expliquer leurs liens et objectifs.

    Conclusion

    Le présent état des lieux de l’offre de formations et de diplômes en sobriété numérique dans l’enseignement supérieur retranscrit une répartition inégale des formations à travers les disciplines et cursus, ainsi qu’une visibilité limitée des dispositifs de formation, de leur contenu et du volume horaire dédié à cette thématique. En ce qui concerne la méthode de recensement des formations, les perspectives mentionnées précédemment, telle que l’utilisation de l’outil GEN_SCAN, permettraient de clarifier, préciser et affiner l’offre de formation.

    Concernant la stratégie identifiée de déploiement de la Sobriété Numérique, le déploiement de la formation de « référent.es sobriété numérique » dans chaque établissement, accompagnée de la mise à disposition d’outils pédagogiques pour les enseignant.es-chercheur.es, permettraient de renforcer la portée de cette thématique au sein de l’Enseignement Supérieur. De plus, la conception d’un référentiel d’évaluation en partenariat avec Pix, suivie de l’élaboration d’une formation et d’une certification inscrite au Répertoire Spécifique permettrait d’atteindre un large nombre d’étudiant.es.

    Ces initiatives sont à mettre en perspective avec une offre de formation accessible et en libre accès pour tous les étudiant.es et futur.e.s professionnel.les. Enfin, il est essentiel d’intégrer la sobriété numérique dans les débats citoyens, afin d’ouvrir un espace de réflexion collective sur les enjeux environnementaux, sociaux, et sanitaires du numérique, et de favoriser une prise de conscience à l’échelle sociétale.

     Chiara Giraudo, Ingénieure Pédagogique au CNRS, dans le cadre du programme Alt Impact

    [0] Cet article a été rédigé dans le cadre du Programme Alt Impact, co-porté par l’ADEME, le CNRS et l’INRIA. Ce programme national a pour objectif de sensibiliser et former à la sobriété numérique, de déployer une base de données publique, et de développer la sobriété numérique dans les territoires.

    [1] NB : sont exclus de ce calcul la part de fabrication, de transport, d’usage et de traitement de fin de vie des réseaux et serveurs utilisés par les comme outil et domaine de recherche, contributions à la sobriété numériqueFrançais mais situés géographiquement en dehors du pays

    [2] Outil d’indexation de l’offre de formation et de certification 

  • Un référentiel de compétences pour former à la sobriété numérique

    Le numérique est omniprésent dans notre quotidien et le déploiement indifférencié de ses usages semble inéluctable. Or, ses impacts environnementaux sont déjà alarmants. En 2019, il était responsable de 4% des émissions mondiales de gaz à effet de serre et son empreinte carbone risque d’augmenter de 60% en France d’ici à 2040. Le sujet est d’autant plus préoccupant que les nouveaux déploiements massifs de technologies comme l’intelligence artificielle générative, la blockchain ou les objets connectés augmentent déjà considérablement la demande en équipements numériques et en énergie.

    Cette dernière devrait par exemple doubler en seulement 3 ans rien que pour alimenter les centres de données.

    IEA - Electricity 2024, Analysis and forecast to 2026
    IEA – Electricity 2024, Analysis and forecast to 2026

     

    Afin d’envisager d’infléchir la tendance et de se diriger collectivement vers un usage plus soutenable des technologies numériques, il apparait essentiel d’activer un maximum de leviers possible, comme par exemple :
    – accélérer la réduction de la consommation de ressources des produits et services numériques ;
    – repenser les usages des outils et services numériques aux différentes échelles, individuelles comme collectives.

    Le programme Alt Impact (https://altimpact.fr), coporté par l’ADEME, l’INRIA et le CNRS, a comme objectif de réduire les impacts environnementaux du numérique en France par le déploiement de la démarche de sobriété numérique. On définie celle-ci comme :

    « Dans un contexte où les limites planétaires sont dépassées, la sobriété numérique est une démarche indispensable qui consiste, dans le cadre d’une réflexion individuelle et collective, à questionner le besoin et l’usage des produits et services numériques dans un objectif d’équité et d’intérêt général. 
    Cette démarche vise à concevoir, fabriquer, utiliser et traiter la fin de vie des équipements et services numériques en tenant compte des besoins sociaux fondamentaux et des limites planétaires.

    Pour cela il est nécessaire d’opérer des changements de politiques publiques, d’organisation, des modes de production et de consommation et plus globalement de mode de vie.  

    La sobriété numérique est donc complémentaire à une démarche d’efficacité qui ne peut répondre à elle seule aux enjeux cités.  
    Son objectif est de réduire les impacts environnementaux du numérique, de façon absolue. »

    L’une des missions du programme Alt Impact est de déployer et de massifier la formation à la sobriété numérique, comme première étape essentielle du passage à l’action.

    Pour accompagner les créateurs de contenus de formations, nous avons réalisé dans le cadre du programme un référentiel de compétences accessible à tous, SOBRIÉTÉ NUMÉRIQUE : Référentiel de compétences socles pour tous, en milieu professionnel (https://hal.science/hal-04752687v1).

    Ce référentiel de compétences socles vise à recenser les savoirs et savoirs-faire à maîtriser en matière de sobriété numérique pour les professionnel.le.s de tous secteurs.

    Il propose une approche structurée en cinq blocs de compétences, qui reposent sur :
    – La capacité à situer les impacts du numérique dans une perspective systémique, en comprenant les enjeux environnementaux globaux liés au cycle de vie des équipements ;
    – La nécessité de savoir estimer les impacts de ses activités professionnelles sur l’environnement ;
    – L’importance de repenser ses usages et de mettre en place des actions concrètes de sobriété, que ce soit à l’échelle individuelle, collective ou organisationnelle.

    Ce référentiel de compétences a été pensé pour être un outil structurant, au service de l’émergence d’usages numériques respectant les limites planétaires. Ce cadre commun est important pour mettre en œuvre une transformation à l’échelle systémique, en permettant à tous les acteurs d’accompagner la mise en place d’une dynamique collective – qu’ils soient des professionnels du secteur, des entreprises, des administrations publiques ou des citoyens. La formation est en cela un levier incontournable pour outiller les individus et les organisations, en leur permettant notamment d’identifier les freins et les ressources mobilisables dans une perspective de sobriété numérique.

    Bonne lecture !

    Françoise Berthoud (CNRS), Lydie Bousseau (ADEME), Chiara Giraudo (CNRS), Nadège Macé (Inria), Dylan Marivain (ADEME), Benjamin Ninassi (Inria), Jean-Marc Pierson (IRIT, Universtié de Toulouse). 

  • Alerte : bientôt 10 ans après la COP 2015, où en est le numérique ?

    En 2015, Binaire publiait cet article annonçant la COP21 et la conférence sur le climat de 2015, qui a donné lieu à la signature de l’accord de Paris. Bientôt 10 ans après, l’heure du bilan ?

    Dans cet article on pouvait déjà y lire par exemple « Les transitions écologiques et numériques doivent apprendre à vivre ensemble. » ou encore « Nous avons pris de mauvaises habitudes qu’il est urgent de changer.« 

    Les principaux enjeux y étaient bien décrits : prolonger la durée de vie des équipements, diminuer la consommation énergétique associée au secteur… Pourtant, 9 ans après, on peut faire un constat d’échec. L’accord de Paris annoncé dans l’article a donné lieu à des trajectoires environnementales sectorielles, même si on regrette que celles-ci soient uniquement focalisées sur les émissions de gaz à effet de serre, sans se préoccuper des autres limites planétaires. La trajectoire associée au numérique, établie par l’Union Internationale des Télécommunications puis validée par la Science Based Target Initiative, vise une réduction de 45% des émissions de GES du secteur des Technologies de l’Information et de la Communication (TIC) d’ici 2030. La tendance actuelle, en France sur la même période est à une augmentation de 45% : c’est donc un véritable virage à 180° que le numérique doit prendre.
    Puisqu’il s’agissait déjà d’une urgence en 2015, quel qualificatif au-delà de l’urgence doit-on utiliser en 2024 alors que nos e-déchets battent tous les records et que la sobriété énergétique est plus que jamais indispensable ?
    Au-delà des progrès technologiques, il apparait nécessaire d’aller vers une priorisation et une hiérarchisation collective des usages, afin d’enclencher une réelle démarche de sobriété. Nos voisins Québecois, à travers le projet prospectif « Défi Numérique », proposent des pistes concrètes à suivre afin de faire converger pour de bon transitions numérique et écologique.

     

    Benjamin Ninassi, Adjoint au responsable du programme Numérique et Environnement d’Inria

  • Que sait-on des impacts environnementaux de la vidéo en ligne ? L’exemple de Netflix

    Le numérique, par sa matérialité (impacts directs) et ses effets sur nos modes de production et de consommation (impacts indirects), contribue au franchissement des limites planétaires. Aurélie Bugeau, Gaël Guennebaud et Benjamin Ninassi nous éclairent sur la contribution de la vidéo à la demande (VoD) aux impacts environnementaux du numérique. Antoine Rouseau, Serge Abiteboul. Article publié en collaboration avec theconversation.

    Au vu des efforts importants que le secteur des Technologies de l’Information et de la Communication (TIC) doit faire pour passer d’une tendance de forte croissance de ses émissions de Gaz à Effet de Serre (+45% d’ici 2030) à une trajectoire de réduction significative ( -45% sur la même période), tous les pans du numérique doivent nécessairement questionner leur contribution à cette tendance. En ce sens il est intéressant de cartographier et d’estimer leurs impacts environnementaux afin de construire une société soutenable.

    Comme le montre le graphique ci-dessous, la vidéo en ligne représente la majeure partie du trafic internet au niveau mondial.

    Principales catégories de contenu par volume de trafic
    Principales catégories de contenu par volume de trafic en download. Données issues du rapport 2024 Global Internet Phenomena Report par Sandvine.

     

    Pour la France, les hébergeurs de vidéos sont majoritairement à l’origine d’un trafic croissant vers les utilisateurs au niveau de l’interconnexion, avec une hausse de x2.4 de début 2020 à fin 2022.

    La vidéo est donc souvent pointée du doigt comme l’un des principaux responsables des impacts environnementaux du numérique et fait débat comme par exemple dans le rapport de The Shift Project de 2019 sur l’insoutenabilité de la vidéo en ligne. Mais au-delà des TVs et autres terminaux de visionnage, que sait-on de la matérialité qui se cache derrière le visionnage d’un film ou d’une série en vidéo à la demande (VoD) ? À quoi servent réellement ces équipements ?

    Peu d’informations publiques existent sur les architectures très complexes opérées par les fournisseurs de services de VoD et sur leur dimensionnement. Néanmoins nous avons tenté une ébauche d’analyse du service Netflix. Ce dernier est en effet l’un des plus utilisés et a le mérite de rendre quelques informations accessibles concernant son fonctionnement. Cette plateforme n’est ici qu’un exemple et le but n’est aucunement de cibler cette entreprise spécifiquement.

    À travers les informations rassemblées via différentes sources (rapports d’activités, vidéos de conférences techniques, articles de blogs), nous illustrons la difficulté à cartographier les différents pans de l’architecture d’un service de VoD, travail néanmoins indispensable avant de réaliser une quantification des impacts environnementaux d’un tel service.

    Bien que la consommation électrique n’englobe pas tous les impacts environnementaux, il s’agit d’une des informations rendues publiques par Netflix, comme le montre la figure ci-dessous. L’année 2019 est la seule pour laquelle une estimation de la consommation des serveurs opérés par des tiers est fournie.

    Consommation électrique annuelle de NetflixLe streaming vidéo, comment ça marche ?
    La partie la plus facile à expliquer de cette consommation concerne le Content Delivery Network (CDNs). Il s’agit d’une infrastructure comptant plusieurs dizaines de milliers de serveurs pour Netflix répartis dans le monde et hébergeant les titres les plus populaires du catalogue à proximité des utilisateurs. Certains de ces serveurs sont hébergés directement dans les centres de données des fournisseurs d’accès à internet (FAI) et échappent ainsi aux consommations électriques précises rapportées par Netflix.

    Les FAI possèdent en effet leurs propres centres de données, afin de permettre un acheminement du trafic internet de qualité tout en diminuant la pression sur les infrastructures réseaux.

    Ainsi quand un utilisateur accède à un contenu vidéo en ligne, c’est en réalité le plus souvent sur un CDN que ce contenu est hébergé. Ces données parcourent l’ensemble des infrastructures réseaux (câbles, antennes, équipements de routage, et.) nécessaires pour relier ce CDN à l’utilisateur, sans oublier sa box internet et potentiellement d’autres équipements (switch, répéteur WiFi, box TV, etc.) jusqu’au terminal où la vidéo est visionnée.

    Le voyage d'une vidéo en ligneLe reste de la consommation des serveurs tiers concerne l’usage d’Amazon Web Services (AWS) pour toutes les opérations en amont de la diffusion des contenus vidéos à proprement parler. Cela représente un usage constant de plusieurs centaines de milliers de machines virtuelles (plus de cent mille en 2016) en plus des besoins en stockage.

    En effet, une fois produite, une vidéo est tout d’abord stockée sous une forme brute, non compressée. Elle est ensuite encodée en une centaine de versions différentes de manière à offrir la meilleure qualité d’expérience utilisateur quelles que soient les caractéristiques du terminal et de son écran (plus de 1500 types d’équipements supportés), la qualité du réseau internet et du système d’exploitation utilisé. L’encodage de vidéos nécessite ainsi plusieurs centaines de milliers de CPUs en parallèle.

    Ces multiples versions sont dupliquées sur plusieurs serveurs au sein de centres de données localisés dans différentes zones géographiques (3 pour Netflix en 2016) pour des raisons de sécurité et de garantie d’accès au contenu à travers le monde.

    La face cachée de la VoD
    Les modèles d’affaire des plateformes de VoD sont basés sur la rétention d’attention et le nombre d’abonnés ou de visionnages. Avant de pouvoir visionner un contenu vidéo, l’utilisateur commence par naviguer sur la plateforme, depuis la page d’accueil jusqu’au choix du contenu. Cette navigation est personnalisée pour chaque utilisateur, et repose sur des mécanismes de captation et de rétention d’attention nécessitant la collecte, le stockage et le traitement de nombreuses données personnelles et d’usage. Toute une partie de l’infrastructure, et donc de l’empreinte environnementale, est ainsi liée non pas à la diffusion des vidéos, mais à la personnalisation de l’expérience utilisateur.

    L’ensemble des données permettant la mise en œuvre de ces mécanismes est couramment appelé « datahub ». Celui-ci est constitué à la fois de données collectées par la plateforme (données utilisateurs et données d’utilisation), agrégées avec des données issues d’autres sources dans la chaîne de valeur de Netflix : annonceurs, prestataires de paiement, fournisseurs de services, fournisseurs de mesure d’audience, critiques de contenus, réseaux sociaux… Netflix est par exemple membre de la Digital Advertising Alliance.

    Ce datahub est de taille conséquente, en 2016 pour 89 millions de comptes il contenait 60 Po (1 petaoctet = 1 million de Go) de données. Il n’est pas aberrant d’imaginer qu’il soit encore bien plus important de nos jours avec 260 millions d’abonnés en 2023.

    D’un autre côté, on estime la taille du catalogue de Netflix entre 50 000 et 60 000 heures de visionnage. Dans cet article, il est question de 470 Go par heure de vidéo brute, ce qui donne un catalogue non-encodé d’environ 25 Po, soit la moitié du datahub de 2016. Intuitivement, on s’attendrait pourtant à ce que le catalogue de vidéos brutes concentre une part des besoins en stockage plus importante que les données d’usage.

    À ce volume de données, s’ajoute les flux vidéos et de données produites en lien avec les tournages et montages par les studios de Netflix eux-même, qui représentent environ 100 Po par an.

    Pour soutenir leur modèle économique, le volume de productions originales est en forte croissance, de même que les impacts environnementaux associés, qui représente pour Netflix plus de la moitié de ses émissions de gaz à effet de serre.

    Evolution du catalogue des plateformes
    Source : Omdia 2023

    Au-delà du stockage, chaque action sur la plateforme (rechercher, cliquer sur lecture, etc.) génère un évènement traité par Netflix, il y en avait 500 milliards par jour en 2016. Cette captation de données sert par exemple à la génération d’une page d’accueil personnalisée pour chaque compte utilisateur. Cette dernière nécessiterait au total plus de 22 000 serveurs virtuels hébergés chez AWS, et le stockage de plus de 14,3 Po de données pour la gestion d’un cache dynamique appelé EVCache.

    Parmi les éléments de personnalisation de l’expérience utilisateur, il y a bien évidemment le contenu proposé mais également la manière dont il est présenté avec une personnalisation des vignettes utilisées, ou encore l’utilisation de « Dynamic Sizzles », génération de vidéos personnalisés agrégeant du contenu de plusieurs films ou série.

    Ces mécanismes de rétention d’attention reposent sur l’utilisation d’algorithmes d’apprentissage automatique en continu de plus en plus avancés, nécessitant à la fois de grandes quantités de données et de puissance de calcul. Pour des raisons évidentes de mise à jour, ces algorithmes sont entraînés de manière incrémentale. La généralisation de leur usage provoque nécessairement une croissance des données acquises, traitées et stockées, augmentant ainsi les impacts environnementaux associés.

    À toutes ces données il faut ajouter les politiques de sauvegarde nécessaires à la reprise d’activité en cas d’incident. Elles sont appliquées à chaque niveau de cette architecture, ce qui peut induire une duplication plus ou moins importante de l’ensemble de ces contenus. Notons que Netflix met également en œuvre des méthodologies sophistiquées d’épuration des données, tant au niveau du cache et du datahub que des données produites par les studios.

    « Juste » une vidéo ?
    Ainsi, visionner une vidéo en ligne implique beaucoup d’étapes et de données générées bien au-delà du contenu vidéo lui-même. L’optimisation de l’expérience utilisateur à l’extrême repose sur des ressources matérielles significatives par rapport au simple visionnage de vidéo. Le manque d’informations disponibles sur le fonctionnement complet des plateformes et les infrastructures associées rendent à ce stade hasardeux l’évaluation par un tiers indépendant des impacts environnementaux de leur activité au regard des limites planétaires.

    D’aucuns pourraient rétorquer que ces impacts ramenés au nombre d’abonnés seraient sans doute négligeables au regard de bien d’autres postes de consommation. Par exemple, pour 2019, la consommation électrique des serveurs utilisés par Netflix ne représente qu’environ 2,3 kWh/an par abonné. Ce chiffre peut paraître dérisoire, voire contradictoire avec les chiffres de la consommation énergétique des centres de données dans le monde de l’IEA qui représenterait environ la consommation électrique d’un pays comme l’Italie ou le Royaume-Uni. Cela illustre une difficulté avec les Technologies de l’Information et de la Communication (TIC) qui est un secteur composé d’une myriade de services, chacun en apparence insignifiant, mais dont la somme des impacts est préoccupante. Autrement dit, la réduction globale des impacts environnementaux des TIC passe nécessairement par une myriade de « petits gains ». Dans le contexte du streaming vidéo, Netflix n’est qu’un service de VoD parmi tout un ensemble de fournisseurs, et de nouveaux modes de partages de vidéos en pair à pair ou via les réseaux sociaux.

    La vidéo à la demande peut-elle devenir soutenable ?
    Afin de se conformer à une trajectoire de réduction des impacts environnementaux du secteur de la vidéo en ligne, on peut légitimement se demander à quoi ressemblerait une plateforme de VoD compatible avec une trajectoire environnementale soutenable. L’analyse précédente soulève au moins quatre axes principaux de réduction :

    • – le compromis à faire entre le poids (résolution maximale et nombre de variantes) des vidéos encodées (qui impacte à fois les besoins en calcul, stockage et transmission) et la qualité réellement perçue par les utilisateurs,
    • – la remise en question de la personnalisation de l’expérience à l’extrême,
    • – la nécessité de hautes performances (en termes de qualité de service, disponibilité, etc.) pour un service de divertissement,
    • – et enfin, le rythme de production de nouveaux contenus.

    Au-delà des enjeux environnementaux, les algorithmes de recommandations au cœur de ces plateformes de VoD posent aussi de nombreuses questions éthiques et démocratiques.

    Aurélie Bugeau, Professeur des Universités, Université de Bordeaux
    & Gaël Guennebaud, Chercheur Inria du centre de l’université de Bordeaux
    & Benjamin Ninassi, Adjoint au responsable du programme Numérique et Environnement d’Inria

     

  • Grandes Constellations de Satellites, deuxième partie

    Nous assistons au déploiement de constellations de satellites avec des
    dizaines de milliers de satellites en orbite basse. Les fonctionnalités
    de ces constellations sont essentiellement les télécommunications haut-débit,
    la géolocalisation et l’observation de la Terre. Quelles sont les avancées
    scientifiques et technologiques qui permettent ces développements ?
    Quels sont les enjeux économiques et géostratégiques associés ?
    Ces constellations conduisent à une densification de l’espace et à
    une multiplication des lancements et des débris. Elles ont un impact
    négatif sur sur l’observation astronomique dans le domaine optique et dans
    celui de la radioastronomie. Quels sont les dangers encourus avec la
    multiplication des débris en orbite basse ? Quel est l’impact des lancements
    sur la stratosphère et celui des rentrées de satellites dans l’atmosphère ?
    Un groupe de travail de l’Académie des sciences s’est penché sur le sujet,
    a auditionné de nombreux spécialistes, et publié un rapport en mars 2024,
    rédigé par François Baccelli, Sébastien Candel, Guy Perrin et Jean-Loup
    Puget.
    Les deux premiers auteurs nous éclairent sur le sujet. Serge Abiteboul (qui a
    participé au groupe de travail), voici la deuxième partie de ce partage, après la première.

    Impact sur l’astronomie

    Le lancement de milliers de satellites en orbite basse change fondamentalement l’accès de l’être humain au ciel nocturne. Ses effets se font déjà ressentir pour l’astronomie au sol dans un ensemble de domaines.

    Pour l’astronomie optique (incluant l’infrarouge proche et moyen), le problème principal est celui de la réflexion du flux solaire par les satellites défilant dans le champ de vision des télescopes avec des effets marqués au lever et au coucher du Soleil avec des effets marqués sur la prise d’images par les instruments à grand champ de vue. S’il y a une bonne coopération avec Starlink pour la réduction de la lumière solaire réfléchie par les satellites, le futur est loin d’être sous contrôle avec la multiplication des interlocuteurs et des constellations stratégiques et commerciales.

    Pour la radioastronomie, la perspective d’une perturbation permanente venant par le haut est préoccupante. La politique de sanctuaire radio local (qui consiste à ne pas émettre dans les régions qui hébergent les grands observatoires radio) acceptée par Starlink atténue les problèmes pour les fréquences adjacentes à celles des émissions des satellites. Mais les électroniques des satellites rayonnent aussi à basse fréquence et constituent une source de bruit pour les observations radio dans une autre gamme de fréquences même si les émissions de signaux de télécommunication des satellites sont momentanément interrompues. À cela s’ajoute des besoins de protection des observations en mode interférométrique qui impliquent des installations réparties sur plusieurs continents et nécessitent des actions coordonnées spécifiques.

    Les conséquences négatives pour l’astronomie d’une multiplication incontrôlée de ces constellations doivent impérativement être prises en compte et des mesures pour pallier ces problèmes doivent être mises en œuvre par leurs promoteurs.

    Exemple de traces produites en astronomie optique par 25 satellites Starlink en mai 2019 sur le groupe de galaxies NGC 5353/4. Crédits : V. Girgis/Lowell Observatory

    Impact sur l’environnement

    Dans un contexte de multiplication des lancements, il est important d’examiner la question de l’impact des émissions sur la haute atmosphère. Ces émissions dépendent du type de motorisation, de la masse au décollage et du nombre de lancements. C’est le lanceur Falcon de SpaceX qui réalise actuellement le plus grand nombre de lancements, plus d’une centaine en 2023.

    Les émissions correspondantes de 140 kilotonnes de carbone, de vapeur d’eau, d’hydrocarbures imbrûlés et de particules de suies sont en valeur absolue relativement faibles si on les compare à celles issues des transports mais elles sont cependant non-négligeables car ces émissions vont s’accumuler dans la haute atmosphère. C’est le cas notamment des particules de carbone, désignées sous le nom de “black carbon » (BC), qui sont nettement plus nombreuses par unité de masse de kérosène, dans les gaz éjectés par les moteurs du lanceur, et nettement plus importante que celles qui existent dans les jets des moteurs d’avion (le rapport serait de l’ordre de 104). Comme une partie de ces émissions est faite au-dessus de la tropopause, les aérosols formés par les particules BC peuvent s’accumuler pendant plusieurs années, interagir avec la couche d’ozone, modifier le bilan radiatif et changer la distribution de température. Il y a des incertitudes sur ces effets, car les niveaux d’émissions sont faibles, mais la question de l’impact sur la haute atmosphère mérite d’être approfondie. L’impact sur l’environnement des fins de vie opérationnelle des satellites est lui aussi à prendre en compte même si la masse associée au retour sur Terre de 2400 objets, d’une masse totale de 340 tonnes, reste finalement modérée par rapport aux 15 à 20000 tonnes de météorites qui pénètrent chaque année dans l’atmosphère terrestre.

    Un problème majeur est celui des débris spatiaux. Il y aurait déjà en orbite un demi-million à un million de débris de 1 à 10 cm et cent à cent trente millions de taille entre 1 mm et 1 cm selon l’ESA et la NASA. Sur les 14 000 satellites en orbite, environ 35% ont été lancés au cours de ces trois dernières années et 100 000 autres sont prévus dans la décennie à venir, toujours selon l’ONU. Ces données communiquées – récemment par l’AFP montrent la nécessité de la mise en place d’une régulation contraignante sur le contrôle des fins de vie opérationnelle des satellites.

    Objets catalogués de plus de 10 cm – NASA, 2022

    Nécessité d’un renforcement de la régulation internationale

    L’analyse des impacts négatifs fait apparaître un besoin de régulation internationale d’un domaine qui pour le moment se développe en l’absence de toute contrainte (si ce n’est celle du coût des lancements) et elle souligne la nécessité d’initiatives et d’actions engagées par les parties prenantes pour identifier des principes et des codes de bonnes pratiques qui puissent être adoptés par un nombre croissant de pays. Une autre question importante est celle des solutions techniques permettant de prendre en compte ces impacts négatifs et de se prémunir des scénarios les plus inquiétants. Les règles internationales se construisent par l’identification de principes et de codes de bonne pratique adoptés par un nombre croissant de pays. Plusieurs exemples d’efforts de ce type sont décrits dans le rapport. Il est essentiel que les États et les communautés scientifiques concernées contribuent à la formalisation de ces principes et codes dans le but d’obtenir rapidement une régulation internationale du secteur.

    Constat d’ensemble et perspectives

    Les constellations de satellites ouvrent des perspectives intéressantes, elles offrent des possibilités nouvelles pour les communications, l’observation de la Terre, la géolocalisation et la connectivité et cela, avec des capacités de résilience supérieures à celles des infrastructures terrestres. Sans pouvoir remplacer les réseaux actuels pour l’accès à internet, elles peuvent compléter ces réseaux et assurer une couverture des zones blanches dans lesquelles cet accès n’est pas disponible ou encore permettre des connexions lorsque ces infrastructures sont détruites à la suite de catastrophes naturelles ou de conflits armés. Les constellations de satellites font aussi apparaître des enjeux de souveraineté résultant de la dépendance et de la perte de contrôle induite par la prééminence de certains acteurs privés. L’expansion du nombre et de la taille des constellations pose aussi des questions majeures en matière d’impact sur l’environnement spatial par la densification en satellites et en débris, sur l’environnement atmosphérique par l’augmentation du nombre de lancements et par les retours sur Terre des satellites en fin de vie opérationnelle. Dans un contexte de croissance incontrôlée qui prévaut actuellement, l’augmentation du nombre d’objets en orbite fait que les manœuvres d’évitement deviennent de plus en plus fréquentes et elle conduit à une multiplication du nombre de collisions. L’impact des constellations sur l’astronomie est également préoccupant car il touche à la fois les observations optiques et infrarouges et celles qui sont réalisées dans le domaine radioélectrique. L’analyse des impacts négatifs fait apparaître un besoin de régulation internationale d’un domaine qui pour le moment évolue en l’absence de toute contrainte (si ce n’est celle du coût des lancements) et elle souligne la nécessité d’initiatives et d’actions engagées par les parties prenantes pour identifier des principes et des codes de bonnes pratiques qui puissent être adoptés par un nombre croissant de pays.

    François Baccelli, Inria et Télécom-Paris, membre de l’Académie des sciences et Sébastien Candel, Centrale Supélec, membre de l’Académie des sciences

  • Grandes Constellations de Satellites, première partie

    Nous assistons au déploiement de constellations de satellites avec des
    dizaines de milliers de satellites en orbite basse. Les fonctionnalités
    de ces constellations sont essentiellement les télécommunications haut-débit,
    la géolocalisation et l’observation de la Terre. Quelles sont les avancées
    scientifiques et technologiques qui permettent ces développements ?
    Quels sont les enjeux économiques et géostratégiques associés ?
    Ces constellations conduisent à une densification de l’espace et à
    une multiplication des lancements et des débris. Elles ont un impact
    négatif sur sur l’observation astronomique dans le domaine optique et dans
    celui de la radioastronomie. Quels sont les dangers encourus avec la
    multiplication des débris en orbite basse ? Quel est l’impact des lancements
    sur la stratosphère et celui des rentrées de satellites dans l’atmosphère ?
    Un groupe de travail de l’Académie des sciences s’est penché sur le sujet,
    a auditionné de nombreux spécialistes, et publié un rapport en mars 2024,
    rédigé par François Baccelli, Sébastien Candel, Guy Perrin et Jean-Loup
    Puget.
    Les deux premiers auteurs nous éclairent sur le sujet. Serge Abiteboul (qui a
    participé au groupe de travail) : voici la première partie de ce partage en deux parties.

    Introduction

    Cet article rassemble quelques points clés d’un rapport de l’Académie de sciences. Il traite d’abord des nouvelles fonctionnalités des constellations de satellites dans l’accès à l’Internet, l’observation de la Terre, la géolocalisation, l’interaction avec des objets connectés. Les principaux enjeux et l’évolution du domaine sont analysés dans un premier temps. Comme toute nouvelle avancée technologique, ces constellations soulèvent aussi, de nombreuses questions, et notamment celles relatives à l’encombrement de l’espace, avec l’augmentation du nombre d’objets satellisés et de débris issus de ces objets et de leur lancement, la croissance des collisions qui peut en résulter et d’autre part de l’impact sur les observations astronomiques dans les domaines optiques et radio. Ce rapport met ainsi en évidence un défi majeur, celui de la cohabitation d’une ceinture satellitaire sécurisée et durable évitant la pollution par ses débris et de l’accès au ciel de l’astronomie, la plus ancienne des sciences, celle qui a été à la source des connaissances et qui a encore beaucoup à nous apprendre. Avec la montée en puissance d’acteurs et investisseurs privés dans un domaine qui était initialement réservé aux États, ce rapport fait apparaître des enjeux géostratégiques et des enjeux de souveraineté. Il soutient la mise en place d’une régulation internationale du secteur mais souligne également la nécessité d’une participation de la France et de l’Europe à ces développements.

    Un utilisateur final (U) accède à une station d’ancrage du réseau internet (A) via des satellites

    Les fonctionnalités des constellations

    Les nouvelles constellations de satellites en orbite basse ou moyenne ouvrent des perspectives dans trois grands domaines qui sont les communications haut-débit, l’observation de la Terre et la géolocalisation. Les constellations offrant le haut-débit sont encore peu nombreuses mais elles impliquent, pour certaines, un très grand nombre de satellites. Les constellations destinées à l’observation de la Terre ou à la géolocalisation comportent un nombre plus réduit de satellites mais sont bien plus nombreuses. Il est à remarquer, cependant, qu’en ce qui concerne l’accès haut-débit à l’Internet, les réseaux à base de constellations ne pourront remplacer les réseaux terrestres mais qu’ils devraient plutôt offrir un complément notamment pour la couverture des zones blanches et des territoires enclavés ou encore pour la couverture haut-débit des navires et des avions.

    Des protocoles pour les communications entre satellites en orbites basses sont en cours de normalisation. Ceci pourrait conduire à terme à un cœur de réseau Internet spatial avec des fonctionnalités et des mécanismes de routage propres à la dynamique des constellations. Certaines fonctions qui sont actuellement celles des routeurs Internet et des stations de base de la 5G pourraient à terme devenir des fonctions embarquées dans les satellites de cet Internet spatial, comme par exemple le traitement du signal, le routage ou même le calcul en périphérie de réseaux (edge computing). Cet Internet spatial a cependant des limites associées à la puissance électrique disponible à bord des satellites, qui est elle-même fonction de la surface des panneaux solaires qui peuvent être embarqués sur lanceurs et déployés dans l’espace.

    Enjeux

    Une question clé, dans le domaine des télécommunications, est celle du contrôle de ces nouvelles classes de réseaux. On note par exemple que les réseaux de communications fondés sur des flottes de satellites, s’affranchissent de fait, sinon de droit, de toutes les règles qui sont imposées par les États aux opérateurs des réseaux terrestres offrant des services sur leur sol. Cette perte de contrôle concerne tous les aspects les plus fondamentaux : les mécanismes d’attribution des fréquences, les règles de confidentialité sur les conversations ou les données transmises, les règles de localisation des cœurs de réseaux, etc. Dès aujourd’hui, ces réseaux peuvent se passer complètement de stations d’ancrage dans les pays qu’ils couvrent. Le déploiement de ces réseaux dans leurs formes actuelles (typiquement celle de la constellation Starlink) induit une perte de souveraineté directe des États sur ce secteur.

    Une seconde question a trait au modèle économique des grandes constellations destinées à la couverture internet haut-débit. On sait, en effet, que les entreprises qui se sont engagées dans la mise en place des premières constellations de ce type ont toutes fait faillite et il n’est pas certain que les constellations déployées aujourd’hui puissent atteindre l’équilibre économique et devenir viables à long terme. La réponse à cette seconde question dépendra sans doute des résultats de la course actuelle à l’occupation de l’espace ainsi que de la nature des interactions et accords entre ces réseaux satellitaires et les réseaux terrestres de type 5G. Elle dépendra aussi de l’évolution de la taille et du prix des antennes permettant à un utilisateur final muni d’un téléphone portable de communiquer efficacement avec un satellite.

    Les enjeux en termes de souveraineté apparaissent ainsi comme les raisons les plus fortes pour le développement de ces constellations car ces dernières procurent à ceux qui les contrôlent un moyen de communication haut-débit sécurisé à faible latence qui est aussi caractérisé par sa résilience. Cette résilience vient du fait que les flottes de satellites restent en grande partie fonctionnelles en cas de catastrophe naturelle et de destruction des réseaux terrestres. Elles sont par ailleurs difficiles à détruire puisque constituées de nombreuses plateformes en mouvement rapide dans des flottes organisées de façon fortement redondante. La latence faible des constellations en orbite basse joue un rôle central dans le contexte du temps réel critique car leur couverture universelle permet l’observation instantanée d’événements survenant en tout point de la planète et elle offre de nouveaux moyens d’interaction.

    Évolution dans le temps du nombre des satellites en fonction de l’altitude entre 200 et 2000 km (CNES).

    Évolution du domaine

    Le domaine dans son ensemble est dans une phase très dynamique avec beaucoup d’innovations dans le domaine industriel, une expansion rapide du NewSpace aux États-Unis, une volonté au niveau de la Commission Européenne de lancer une constellation, l’émergence de nouveaux États spatiaux et d’acteurs privés, de nouveaux formats de lanceurs (petits lanceurs, lanceurs réutilisables), une réduction des coûts de lancement associée notamment à la réutilisation. Il en résulte une multiplication des projets de constellations et une explosion du nombre des satellites en orbite basse ou moyenne.

    Cette dynamique repose sur des progrès scientifiques et des innovations technologiques dans le domaine des télécommunications, de l’informatique du traitement de l’information, de la focalisation dynamique, de l’électromagnétisme et des communications radio, des systèmes de communication optiques inter-satellites, de la miniaturisation de l’électronique embarquée, des systèmes de propulsion à bord des satellites (propulsion plasmique) ainsi que sur des avancées dans l’accès à l’espace, les télécommunications et l’informatique. Cette dynamique exploite les résultats des recherches dans le domaine des communications portant notamment sur (i) la théorie de l’information multi-utilisateurs, sur le codage pour la maîtrise de liens radio avec les satellites, avec des questions nouvelles comme par exemple celle de la focalisation adaptative des antennes (MIMO massif et dynamique) ou encore celle du contrôle des interférences ; (ii) la définition de nouveaux protocoles de routage adaptés à la dynamique très rapide du graphe des satellites et des stations d’ancrages ; (iii) l’identification d’architectures optimales pour les fonctionnalités de haut débit ou d’observation dans un ensemble de régions donné de la Terre.

    François Baccelli, Inria et Télécom-Paris, membre de l’Académie des sciences et Sébastien Candel, Centrale Supélec, membre de l’Académie des sciences

  • Ce qu’on sait et ce qu’on ne sait pas sur les effets environnementaux de la numérisation

    Gauthier Roussilhe (RMIT)

    Gauthier Roussilhe est doctorant au RMIT. Il étudie la façon dont nos pratiques numériques se modifient dans le cadre de la crise environnementale planétaire en proposant une vision systémique, de l’extraction des matières à la fin de vie, et des infrastructures à l’usage des services numériques.  Antoine Rousseau & Ikram Chraibi Kaadoud 

    On pourrait penser que les conséquences environnementales de la numérisation est un sujet récent , or cela fait bientôt 30 ans qu’on se demande quel est son poids environnemental et si numériser aide à la transition écologique. En 1996, l’Information Society Forum fait le constat suivant : « La plupart des experts ne pensent pas que le développement durable soit réalisable sans les technologies de l’information, mais ils ne sont pas non plus sûrs qu’il soit garanti avec elles. […] Il existe un risque d’effet « rebond » par lequel ils pourraient stimuler de nouvelles demandes de consommation matérielle » (ISF, 1996, 30). 26 ans plus tard, en 2022, le 3e groupe de GIEC proposait une synthèse peu encourageante : « Pour le moment, la compréhension des impacts directs et indirects de la numérisation sur la consommation d’énergie, les émissions de carbone et le potentiel d’atténuation est limité » (IPCC, 2022, 132). Est-ce que cela veut dire pour autant que nous n’avons pas progressé sur le sujet depuis 30 ans ? Loin de là, revenons ensemble sur l’état de l’art de la recherche scientifique sur les deux questions principales de ce champ : l’empreinte environnementale du secteur et les effets environnementaux de la numérisation dans les autres secteurs.

    L’empreinte carbone du secteur numérique
    La production des savoirs scientifiques dans ce domaine s’est concentrée principalement sur l’empreinte environnementale du secteur numérique, c’est-à-dire le poids écologique lié à la fabrication, l’usage et la fin de vie de tous les équipements et services qui composent ce secteur. Il y a assez peu d’articles de recherche qui se sont aventurés dans l’estimation mondiale du secteur. Ces dernières il y a trois estimations concurrentes (Andrae & Edler, 2015 (remplacé par Andrae 2020) ; Malmodin & Lundén, 2018 ; Belkhir & Elmeligi, 2018). Freitag et al ont proposé une analyse de ces travaux proposant que les émissions du secteur numérique représentaient en 2020 entre 2,1 et 3,9% des émissions mondiales (1,2-2,2 Gt eq-CO2). Le plus important ici n’est pas forcément cette estimation mais la tendance de ces émissions, or, depuis juin 2023, la communauté scientifique sur ce sujet est plus ou moins arrivé à un consensus : les émissions du secteur augmentent. Ce n’est pas une croissance exponentielle mais l’arrivée massive de nouveaux types d’équipements comme les objets connectés donne à voir plutôt une augmentation annuelle constante. Et nous n’avons pas mis à jour nos projections avec le nouveau marché de l’IA, d’autant plus que les premiers travaux d’estimation semblent inquiétants. Concernant les autres facteurs environnementaux, épuisement de ressources minérales, utilisation d’eau, pollutions des sols et des eaux, etc nous ne disposons aujourd’hui d’aucune estimation d’envergure ni de vision claire même si de nombreux projets de recherche avancent sur ces questions.

    Les centres de données
    Dans le travail de modélisation, nous privilégions pour l’instant la découpe du secteur en trois tiers : les centres de données, les réseaux et les équipements utilisateurs. Chacun de ces tiers poursuit sa propre trajectoire qu’il est nécessaire d’aborder. En premier lieu, les centres de données ont fait l’objet de travaux de fond sur leur consommation électrique pour ensuite obtenir des émissions carbone. Deux estimations font référence, celle de Masanet et al (2018) à 205 TWh de consommation électrique mondiale et celle de l’Institut Borderstep à 400 TWh. L’Agence Internationale de l’Énergie (IEA) a utilisé la première estimation pendant quelques années mais a revu ses travaux récemment et propose plutôt une fourchette entre 220 et 320 TWh (cela exclut la consommation électrique des cryptomonnaies qui est comptée à part par l’IEA). Il existe bien aussi un consensus sur l’augmentation croissante de la consommation électrique des centres de données mais les opérateurs misent sur l’achat ou la production d’énergie bas carbone pour décorreler consommation d’électricité et émissions de carbone avec plus ou moins de succès. Encore une fois ces chiffres ne prennent en compte que l’usage des centres de données et n’intégrent pas les impacts environnementaux liés à la fabrication des serveurs et autres équipements. Au-delà de la consommation électrique c’est plutôt le poids local de ces infrastructures qui devient de plus en plus problématique autant pour la disponibilité électrique que pour l’accès à l’eau. De nombreux conflits locaux se développent : Irlande, Espagne, Chili, Amsterdam, Francfort, Londres, États-Unis. À l’échelle française, L’Île-de-France héberge la plupart des centres de données français et fait face à de nombreuses problématiques qui invite à une réflexion et une planification profonde comme très bien démontré par l’étude récente de l’Institut Paris Région.

    Les réseaux de télécommunication
    Les réseaux de télécommunications comprennent tous les réseaux d’accès fixes (ADSL, Fibre), les réseaux d’accès mobile (2G/3G/4G/5G) et les réseaux coeurs. En 2015, Malmodin & Lundén (2018) estimaient la consommation électrique mondiale des réseaux à 242 TWh et l’empreinte carbone à 169 Mt eq-CO2. Depuis peu de travaux se sont réessayés à l’exercice. Coroama (2021) a proposé une estimation à 340 TWh pour les réseaux en 2020 et aujourd’hui l’IEA estime la consommation électrique en 260 et 340 TWh (IEA). L’empreinte carbone des réseaux, autant au niveau de la fabrication du matériel que de l’usage reste à mieux définir mais implique aussi de redoubler d’efforts sur de nombreux angles morts : le déploiement (génie civil, etc.) et la maintenance sont des parts significatives de l’empreinte des réseaux qui n’ont quasiment pas été comptées jusque là. De même, les satellites de télécommunication devraient faire partie du périmètre des réseaux mais leur impact avait été considéré comme minime. Toutefois, le déploiement massif de constellation avec des satellites d’une durée de vie de 5 ans implique une attention renouvelée.

    Les équipements utilisateurs
    Finalement, le dernier tiers, celui des équipements utilisateurs, inclut à la fois les équipements personnels (smartphone, portable, tablette, ordinateurs, écrans, etc) et professionnels. Certains segments connaissent une contraction depuis quelques années : le vente d’ordinateurs fixes chute (sauf pour le gaming), de même que les livraisons de smartphones. De l’autre, de nouveaux segments apparaissent comme les objets connectés grand public (enceinte, caméra, etc.). C’est l’arrivée de ces derniers qui est profondément inquiétante si les projections de marché se maintiennent car elle suggère le déploiement massif d’objets de qualité variable, à faible durée de vie et donc à fort taux de renouvellement (Pirson et Bol, 2021). En descendant d’un niveau, à l’échelle des composants clés, nous voyons une augmentation de l’empreinte de fabrication des circuits intégrés les plus avancés (<10nm) (Pirson et al, 2022), c’est-à-dire les nouveaux processeurs (Apple série M) ou dans les puces de calcul graphique (produits Nvidia par exemple) aujourd’hui très recherchées pour l’entrainement d’IA génératives.

    Les services numériques
    À cela s’ajoute une inconnue évidente : l’évolution des services numériques. Les équipes de recherche ne peuvent pas prévoir l’apparition de nouveaux usages dans leur estimation, or les usages se sont plutôt stabilisés depuis quelques années. Le passage en force du Métaverse consistant à créer de nouveaux usages, de nouveaux services et de nouveaux équipements dédiés à échouer. Le dernier grand changement date d’un alignement des planètes entre 2010 et 2012 avec le déploiement massif de smartphones, la mise en route des réseaux 4G et la massification de l’offre vidéo en ligne. Aujourd’hui, les services grand public supportés par l’IA proposent une nouvelle évolution des usages mais, au-delà des discours mercantiles et/ou prophétiques, la tendance est encore loin d’être claire.
    Malgré les immenses zones d’ombre qui restent encore à éclairer la connaissance de l’empreinte carbone du secteur numérique commence à se stabiliser. Les tendances futures montrent plutôt une augmentation globale de l’impact et une tension locale de plus en plus accrue. Face à cela, une question demeure, est-ce que l’augmentation de cette empreinte permet de réduire celles des autres secteurs ? En somme, est-ce que la numérisation est un « investissement environnemental » cohérent. Voyons cela ensemble dans la deuxième partie.

    Les effets sur les émissions de carbone dans les autres secteurs
    Comme vu au début de cet article, la question des effets environnementaux de la numérisation dans les autres secteurs, que ces effets soient positifs ou/et négatifs, s’est posée d’emblée, toutefois, elle a été bien moins traitée que la question de l’empreinte du secteur. Au même titre que les économistes ont de nombreuses difficultés à isoler la contribution de la numérisation au PIB ou à la productivité, les chercheurs en sciences environnementales font face au même défi. Dans un premier temps, les effets environnementaux liés à des services numériques ont dû faire l’objet d’une classification qui commence doucement à se stabiliser aujourd’hui : les effets de second ordre (gain d’efficacité, substitution, effet rebond direct) et de plus grande ordre (effets rebonds indirects, rebond macro-économique, induction, etc.) (Hilty et al, 2006 ; Hilty et Aebischer, 2015 ; Horner et al, 2016). Si un gain d’efficacité est simple à comprendre la question des effets rebonds poursuit le secteur numérique depuis 30 ans. Un effet rebond peut être simplement défini comme un gain d’efficacité ou une optimisation qui conduit à une augmentation de la production ou de la demande, contrecarrant ainsi une partie, voire tous les gains obtenus. C’est un principe économique qui est
    théorisé depuis un siècle et demi, historiquement associé avec la question énergétique, qui est particulièrement pertinent dans le phénomène de numérisation à cause des effets macro et microéconomiques de ce dernier.

    Les études industrielles
    On distingue trois types de littérature sur ce sujet : la production industrielle (rapport, livre blanc, etc), la production scientifique (articles de recherche, etc), et la littérature institutionnelle qui pioche dans les deux. La littérature industrielle a une tendance farouche à se concentrer que sur la modélisation des effets positifs (efficacité, optimisation) en mettant systématiquement de côté les effets négatifs (effets rebonds, induction, etc.). Deux rapports industriels ont été particulièrement diffusés et cités : le rapport SMARTer2030 de GeSI (un groupe de réflexion des entreprises de la tech sur la question environnementale) qui estime que la numérisation peut réduire les émissions mondiales de 20% d’ici 2030, et le rapport ‘Enablement Effect’ de GSMA (l’organisation mondiale des opérateurs télécom) qui estime que les technologies mobiles ont permis d’éviter 2,1 Gt eq-CO2 en 2018. Ces rapports visent à promouvoir l’idée d’un effet d’abattement (enablement effect), c’est-à-dire, un 1g d’eqCO2 émis par le secteur numérique pourrait permettre d’éviter 10g d’eqCO2 dans les autres secteurs. Ces affirmations ont eu une grande popularité au sein des entreprises du secteur et dans le monde institutionnel. Dans la communauté scientifique, aucune équipe s’est aventurée dans de tels travaux tant les difficultés méthodologiques sont nombreuses. Il est en fait bien connu parmi les scientifiques spécialisés que ces affirmations sont notoirement douteuses et les défauts méthodologiques de ces rapports trop nombreux pour qu’ils soient utilisés pour orienter la prise de décision publique ou privée (Malmodin et al, 2014 ; Malmodin et Coroama, 2016 ; Bieser et Hilty, 2018 ; Coroama et al, 2020 ; Bergmark et al, 2020 ; Rasoldier et al, 2022 ; Bieser et al, 2023). Leurs principaux défauts sont des extrapolations globales à partir d’études de cas ou d’échantillons très réduits, la représentativité de ces mêmes échantillons, l’omission des effets directs des solutions étudiées (l’empreinte environnementale) et des effets rebonds, et de tous les effets structuraux dont dépendent le succès ou l’échec d’une solution numérique.

    La complexité du problème
    Les chercheurs qui travaillent sur ces sujets savent que les effets environnementaux d’une solution numérique dépendent bien plus de facteurs contextuels que de ses capacités propres : politiques publiques, prix, culture, infrastructures disponibles, contexte commerciale, etc. Par exemple, une application de partage de vélo a bien moins de chances de produire des effets positifs dans une ville sans infrastructure vélo développée, ou un système intelligent de gestion du chauffage sera bien mieux efficace dans une maison isolée. Cela ne veut pas dire pour autant que la numérisation de certaines activités permet effectivement d’éviter des émissions mais ce qui est observable à petite échelle peine à se réaliser à plus grande échelle. Par exemple, il est évident aujourd’hui que le télétravail permet d’éviter à court terme des trajets en voitures individuelles. Toutefois, pris sur une période de temps plus longue et à une échelle nationale, les choses se compliquent. Caldarola et Sorrell (2022) ont publié un article pour répondre à une question fondamentale : est-ce que les télétravailleurs voyagent moins ? Pour ce faire ils se sont appuyés sur des données longitudinales d’un échantillon randomisé de 13 000 foyers anglais de 2005 à 2019. Ils ont observé que le groupe de télétravailleurs faisaient moins de trajets que le groupe de non-télétravailleurs mais que les deux groupes parcouraient un nombre similaire de kilomètres à l’année. Cela est du à plusieurs effets adverses : l’éloignement croissant entre foyer et lieu de travail, voyages plus loin le week-end, modes de transport, trajets non évitables, etc. Néanmoins, les auteurs notent qu’à partir de trois jours et plus de télétravail, les télétravailleurs commencent à parcourir moins de kilomètres que l’autre groupe. Cet exemple donne à voir à quel point il est complexe d’inférer qu’un effet positif observé à petite échelle se maintienne en toutes conditions à l’échelle d’un pays car de nombreux autres effets, notamment différents types d’effets rebonds et d’induction, peuvent compenser les gains bruts.

    Savoir où chercher
    Savoir si la numérisation a un potentiel pour aider à la décarbonation d’une économie n’est pas la question, tout le monde reconnaît ce potentiel. Par contre, ce potentiel ne semble pas s’être manifesté structurellement au sein des économies les plus numérisées de la planète. Nous disposons de nombreuses études de cas qui montrent des solutions numériques avec des effets encourageants dans certains contextes, mais le problème est que même si nous pouvons déployer massivement ces solutions nous ne pouvons pas répliquer les contextes d’application et surtout les répliquer à plus grande échelle. Cela implique que certaines voies de numérisation ne sont pas
    compatibles avec la décarbonation. Premièrement, les solutions numériques qui rendent plus efficaces l’extraction d’énergies fossiles : en 2019, Microsoft mettait en avant que leurs solutions numériques pour Exxon permettraient d’augmenter la production journalière de barils de 50 000 d’ici 2025 (pour l’instant personne ne s’est donné la peine d’estimer toutes les émissions ajoutées de la numérisation dans le secteur des énergies fossiles). Deuxièmement, certaines solutions numériques proposent plutôt un statu quo qu’un réel gain, ici les solutions de smart home démontre une grande ambivalence entre gain de confort supposé (automatisation et programmation des fonctions d’une maison), ajout de nouvelles options de divertissement (enceintes, etc.) et économies d’énergie (Sovacool et al, 2020). Prises ensemble, toutes ces promesses tendent à se contrecarrer et à maintenir un statu quo. De façon générale, les solutions numériques qui misent la plupart de leurs gains potentiels sur des changements de comportement individuel constants et stables dans le temps présentent un plus grand risque. Les solutions numériques pouvant avoir le plus d’effets positifs sont généralement celles qui s’appuient sur un financement stable et pérenne, qui évoluent dans des univers assez contrôlés où le comportement humain est moins central et qui sont appliqués sur des infrastructures déjà établies à grande échelle (ou en passe de l’être). Toutefois, il faudra encore de nombreuses années de recherche pour comprendre ces dynamiques et arriver à une vue stratégique plus fine et surtout moins biaisée par les intérêts industriels.

    Ce que permet et ne permettra pas la numérisation
    Se poser sérieusement la question de la contribution de la numérisation à la transition écologique d’un pays implique de se décentrer d’une vue mono-solution où on infère des effets à partir d’une étude de cas mené à un instant t, qui est généralement celle des entreprises ou des industries numériques. La planification écologique d’un pays comme la France requiert d’identifier les leviers les plus importants au niveau de leur effet à grande échelle, et de la stabilité de leur effet dans le temps, dans les secteurs les plus urgents à décarboner. Ces leviers sont rarement les solutions les plus faciles et les moins chères, ce sont généralement des politiques publiques qui essayent de modifier en profondeur des modes de vie. Les solutions numériques ont encore une place indéterminée dans cette réflexion. Un problème central pour les solutions numériques est la persistance des effets. Pour reprendre le cas du télétravail, si aujourd’hui cela évite un trajet en voiture individuelle essence ou diesel, les trajectoires de décarbonation de la France laissent imaginer que le télétravail évitera en 2030 un trajet à pied ou à vélo, ou un trajet en voiture ou en transport en commun électrique. Cela implique que l’effet positif sera forcément à rendement décroissant et constitue plutôt un levier à court-terme, moins structurant pour une planification écologique. La logique peut aussi s’inverser : on observe généralement que des économies d’énergie liées à un système de chauffage plus intelligent sont généralement réinvesties par une augmentation de la température de chauffe du logement et donc un gain de confort (Belaïd et al, 2020), ce qui est un effet rebond direct classique. Toutefois, en pleine crise du coût de la vie et avec un prix du kWh plus élevé, il y a de fortes chances que cet effet rebond disparaisse à cause de budgets bien plus serrés dans les foyers. C’est cette grande ambivalence et cette grande exposition aux facteurs « contextuels » qui maintient en partie la numérisation comme un impensé de la transition écologique et explique la prudence du GIEC dans l’extrait cité en introduction. Ces grands chantiers de recherche ne font encore que commencer.

    Gauthier Roussilhe, doctorant RMIT / page web perso

    Bibliographie complète à télécharger ici

  • Les Metavers peuvent-il se mettre au vert ?

    Loin d’être immatériel, le numérique est par nature ambivalent vis à vis des enjeux environnementaux. Il incarne d’un côté la promesse de catalyser des solutions pour réduire les pollutions d’autres secteurs (agriculture, énergie, mobilité, bâtiment, etc.), mais d’un autre côté il est également lui même source d’externalités négatives directes et indirectes. Benjamin Ninassi et Marie Véronique Gauduchon nous détaillent cette dualité. Pascal Guitton, Serge Abiteboul.

    Réalisée avec Midjourney

    Le secrétaire général adjoint de l’Union Internationale des Télécommunications l’a rappelé en septembre 2023  : pour tenir l’Accord de Paris sur le climat, le numérique doit réduire de 45% ses émissions de Gaz à Effet de Serre d’ici 2030, et les diviser par 10 d’ici 2050, conformément à la trajectoire Science Based Target Initiative (SBTi). Il a également rappelé que cette réduction doit se faire tout en permettant l’émergence et le déploiement de solutions en faveur de la décarbonation d’autres secteurs.

    Or la tendance actuelle en France, d’après l’étude ADEME/ARCEP de début 2023, est à une augmentation de 45% des émissions liées à nos usages numériques d’ici 2030.

    Des scénarios incompatibles

    Cette incompatibilité entre la trajectoire cible et de la tendance actuelle en matière de lutte contre le réchauffement climatique apparaît comme un enjeu majeur de la transition environnementale du secteur. A noter qu’en plus de participer à l’émission de GES, le numérique contribue à dépasser d’autres limites planétaires, à travers par exemple l’activité extractive nécessaire à la production des métaux qui composent les équipements. D’ailleurs, indépendamment des enjeux environnementaux, se pose une question de disponibilité de certaines ressources métalliques critiques dont la plupart sont en concurrence avec d’autres transitions comme la production d’énergie décarbonée ou l’électrification de la mobilité.

    Derrière la notion de Métavers, il y a surtout une agrégation de technologies qui sert une finalité, un usage. La question pour demain n’est pas tant de savoir s’il faut aller ou pas vers le Métavers, mais de définir quels usages du numérique sont compatibles avec la trajectoire environnementale cible, quels usages peuvent réellement contribuer à réduire les impacts environnementaux d’autres secteurs, en se substituant par exemple à des usages plus carbonés. Cette évaluation des gains doit se faire dans un cadre méthodologique standardisé, systémique, intégrant les effets rebonds et allant au delà des effets d’annonce.

    Une nécessaire planification de la décroissance des impacts

    Pour tenir un budget, afin d’éviter les crises, il est nécessaire de planifier en amont ses dépenses. Cette planification se fait en deux phases : une phase de priorisation pour hiérarchiser les dépenses selon leur importance, et une phase de quantification afin de ne pas finir en négatif.  Ainsi, le budget devient le cadre d’opération. Comme dit plus haut, le cadre environnemental pour le secteur du numérique, c’est une réduction de -45% de ses émissions de GES d’ici 2030, et une division par 10 d’ici 2050.

    Heureusement, plusieurs leviers sont activables pour réduire les impacts du numérique, à commencer par poursuivre et accélérer les travaux de recherche et leur déploiement dans l’industrie sur la frugalité des algorithmes, l’écoconception logicielle, l’amélioration du refroidissement et la réduction de la consommation énergétique des centres de données. Mais malgré ces travaux en cours depuis de nombreuses années maintenant, la tendance actuelle le prouve : optimiser une partie du système ne suffit pas dans un contexte de croissance des usages et du nombre d’utilisateurs au niveau mondial. Pour limiter les effets rebonds, il apparaît nécessaire de combiner ces gains d’efficacité à une indispensable sobriété numérique, en agissant aussi sur les usages.

    Le Secrétariat Général à la Planification Écologique a d’ailleurs courageusement entamé cet exercice. Dans un rapport sur la planification écologique dans l’énergie on peut y voir une proposition de hiérarchisation des usages de la biomasse locale avec une liste d’usages considérés comme prioritaires, d’usages à interroger (parmi lesquels figure par exemple le trafic aérien), et enfin une liste d’usages à réduire.

    Le numérique a besoin de la même démarche, afin de pouvoir planifier et organiser sa décarbonation, en hiérarchisant ses usages.

    Comme pour les autres secteurs, il ne s’agit pas de faire ces choix à un niveau technologique, et d’opposer l’Intelligence Artificielle à l’Internet des Objets ou aux technologies immersives : c’est au niveau des usages, des fournisseurs de services numériques et de plateformes que les enjeux de régulation se situent et que cette priorisation doit intervenir.

    Ne plus confondre la fin et les moyens : revenir à l’usage, au service rendu

    Cette nécessité se retrouve d’ailleurs dans le Référentiel Général de l’Écoconception des Services Numériques, ouvert jusque fin novembre 2023 à la consultation publique, et qui pourrait être un levier activable d’une stratégie de décarbonation du secteur. Son premier critère est rédigé ainsi : « Le service numérique a-t-il été évalué favorablement en termes d’utilité en tenant compte de ses impacts environnementaux ? »

    Une fois qu’on aura priorisé ces usages et permis de questionner l’utilité, il apparaît nécessaire d’être en mesure d’évaluer les impacts, toujours dans cette logique budgétaire. Concernant les Métavers et le secteur de la culture numérique, des travaux sont en cours, d’ailleurs en partie financés par le ministère de la Culture. Parmi ces initiatives on retrouve par exemple le calculateur carbone Jyros pour le secteur des jeux vidéo, ou le projet CEPIR qui produit les premières données d’impacts environnementaux d’œuvres immersives. Améliorer la fiabilité de ces évaluations nécessite de poursuivre et même d’accélérer ces travaux dans une optique de standardisation méthodologique.

    Aucun scénario prospectif compatible avec l’Accord de Paris n’envisage à ce stade un déploiement massif dans tous les foyers de nouveaux équipements connectés qui s’additionneraient à l’existant, comme les smartphones se sont ajoutés aux télévisions, aux ordinateurs, aux tablettes, et dont les cycles d’évolution technologique sont très courts, ce qui est le cas des casques de réalité virtuelle. Un numérique résilient et durable est un numérique qui stabilise et réduit le renouvellement des équipements, qui permet la substitution et non l’empilement. Le secteur du numérique, comme les autres secteurs, a besoin de faire preuve de techno-discernement. Cette approche consiste à imaginer, construire, déployer les services, outils et plateformes numériques de demain, qui fonctionnent au maximum avec les infrastructures et les équipements d’aujourd’hui voire d’hier. Cette approche, qui peut s’apparenter à une approche low-tech pour le numérique, est à développer aussi bien via des travaux de recherche multidisciplinaires que via l’émergence de solutions industrielles innovantes. Elle nécessite de s’intéresser tout autant aux usages qu’aux technologies et aux infrastructures sur lesquelles elles s’appuient.

    Mais d’ailleurs, peut-il exister des Métavers low-tech ?

    Réalisée avec Midjourney

    Malgré ces constats, certains usages des technologies immersives pourraient être compatibles avec la trajectoire SBTi, par exemple en réduisant l’impact de la mobilité en se substituant à des déplacements nécessairement carbonés.

    Un exemple qui va dans le sens du low-tech, c’est de miser sur des technologies déjà massivement déployées, à l’image de workadventure . Cette solution open source permet de contrôler un avatar dans un environnement virtuel en 2D à travers un simple navigateur web, et d’interagir via les périphériques (caméra, micro, etc.) du terminal avec les autres avatars à proximité. Le renforcement de la co-présence et de l’immersion par rapport à la visioconférence classique, sans introduire de nouveaux équipements, est un enjeu environnemental important pour réduire l’impact de la mobilité professionnelle.

    Mutualiser et partager, justice climatique et justice numérique

    Une autre forme de Métavers à faible impact serait basée sur la mutualisation d’équipements immersifs via les centres culturels comme des médiathèques par exemple, à l’image d’une des propositions du rapport exploratoire sur le Métavers, permettant la visite de sites culturels inaccessibles via une mobilité bas carbone. Un avantage majeur de mutualiser l’accès est de rendre caduque la captation de données personnelles, et le développement d’une économie de l’attention basée sur le traitement et la collecte de ces données. En effet, la collecte, le stockage et le traitement de données personnelles et d’usage des plateformes nécessitent d’importantes quantités de ressources matérielles et d’énergie. Ces dépenses servent directement certains modèles économiques (économie de l’attention, ciblage publicitaire) et non pas le service final rendu aux usagers.

    En augmentant exponentiellement les possibilités d’interaction, les Métavers permettraient de capter des quantités d’autant plus astronomiques de données.

    Il y a donc un enjeu environnemental important à réguler les usages pour ne pas permettre à ce type de modèle économique d’être transposé dans de futurs mondes immersifs.

    Réalisée avec Midjourney

    Enfin, à une échelle mondiale une question d’équité majeure se pose. Dans le cadre d’un budget environnemental compatible avec l’Accord de Paris, il est donc nécessaire d’opérer des arbitrages. Peut-on raisonnablement à la fois envisager envoyer dans des Métavers high-tech une population déjà par ailleurs largement connectée et outillée numériquement, tout en ayant les ressources nécessaires pour déployer les infrastructures réseaux, les centres de données et les deux ou trois milliards de terminaux permettant de connecter à internet les 33% de la population mondiale qui ne l’est toujours pas en 2023 ?

    Benjamin Ninassi, Adjoint au responsable du programme Numérique et Environnement d’Inria
    & Marie Véronique Gauduchon, Conseillère impact environnemental VR – CEPIR (Cas d’études pour un immersif responsable).

  • Urgence d’Agir : le sommet de la finance durable et accélération des objectifs par l’IA

    Patricia Gautrin,  doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, aborde ici, d’un point de vue québecois, le concept de finance durable, et comment l’IA peut aider à cela. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères au lien suivant. Ikram Chraibi Kaadoud  et Thierry Viéville.

    Au-delà du Net zéro : la finance sera-t-elle le catalyseur du changement? C’est la grande question posée au Sommet de la finance durable mené par Finance Montréal, les 18 et 19 mai derniers. Les banques, comme le Mouvement Desjardins, sont à la table!

    Il faut savoir qu’à la Conférence de Glasgow sur les changements climatiques, les banques des pays signataires se sont effectivement engagées pour le « Pacte de Glasgow pour le climat » envers la neutralité carbone. Avec tous types d’institutions financières (assureurs, fonds de pension, gestionnaires d’actifs), elles ont fait un choix vert. Mais comment se manifeste cet engagement de la part de la Finance? À quoi renvoie ce qu’on nomme l’investissement durable?

    Sommet de la finance durable 2022

    Florian Roulle, suivi de Guy Cormier, président et chef de la direction du Mouvement Desjardins, pour une discussion sur la terrasse du Centre PHI

    Selon Florian Roulle, directeur principal, stratégie et partenariats et responsable finance durable chez Finance Montréal, « alors que les défis mondiaux de la durabilité deviennent de plus en plus interconnectés, la finance est dans une position unique pour agir en tant que catalyseur du changement systémique. »

    LA CARBONEUTRALITÉ, LE NET ZÉRO, LE ZEN, ET LA DÉCARBONATION

    Une carboneutralité signifie une économie qui n’émet pas de gaz à effet de serre. C’est l’équivalent du Net zéro et du Zen. La « décarbonation » est l’action de limiter ces gaz. Pour nuancer son obligation, la carboneutralité admet une certaine compensation carbone qui consiste soit en des mesures physiques, comme la plantation d’arbres, soit technologiques permettant la réduction des émissions.

    « Nous devons passer d’un comportement négatif envers la nature, à un comportement positif. »  Elizabeth Maruma Mrema, secrétaire exécutive à la Convention des Nations Unies sur la diversité biologique

    Or, la neutralité carbone paraît encore floue car elle est définie de plusieurs manières, avec différentes balises et peut laisser place à l’écoblanchiment. De plus, la neutralité carbone renvoie à des réalités plutôt disparates, selon les pays et les industries.

    Sommet de la finance durable

    Elizabeth Maruma Mrema, secrétaire exécutive à la Convention des Nations Unies sur la diversité biologique, au centre et Hugo Lacroix, surintendant, marchés de valeurs, Autorité des marchés financiers, à droite.

    La neutralité carbone n’a véritablement de sens qu’à l’échelle de la planète, c’est la raison pour laquelle le milieu de la finance élabore des cadres internationaux afin d’orienter l’investissement en faveur d’une économie durable. Le GIEC (Groupe intergouvernemental d’experts sur l’évolution du climat), par exemple, fournit des évaluations quant aux changements climatiques.

    De plus, « les grandes chaleurs vécues au Soudan, ces jours-ci, s’ajoutent à la crise du blé et affichent l’urgence planétaire d’agir pour le climat », précise Nisreen Elsaim, présidente du Groupe consultatif des jeunes sur le changement climatique au Cabinet du Secrétariat général de l’ONU.

    Par ailleurs, Elizabeth Maruma Mrema, nous rappelle les enjeux majeurs de la biodiversité et la nécessité d’agir sur plusieurs fronts en matière d’écologie. Il faut prendre en compte 4 secteurs majeurs (la terre, la mer, l’atmosphère et l’eau potable) pour répondre aux enjeux critiques et complexes de la nature.

    NORMES COMPTABLES INTERNATIONALES

    L’IFRS (International Financial Reporting Standards) qui impose une transparence dans la divulgation a mis en place l’ISSB (International Sustainability Standards Board) afin de mesurer les résultats de la finance durable sur une base commune et de lutter contre l’écoblanchiment. D’ailleurs, Montréal accueillera prochainement un bureau de l’ISSB.

    « La route est longue, mais nous avons les standards ! » – Hugo Lacroix, surintendant, marchés de valeurs, Autorité des marchés financiers

    Sommet de la finance durable 2022

    Centre PHI, Sommet de la finance durable 2022

    Hugo Lacroix énonce alors les 3 principes clés, en faveur de l’intégration de ces normes, dans les plans de transition :

        • Identifier l’engagement commun
        • Calculer les impacts de la transition
        • Se conformer aux normes canadiennes et internationales

    En Europe, l’EFRAG (European Financial Reporting Advisory Group), est un autre régulateur possédant ses propres standards.

    LES CRITÈRES ESG

    Or, l’ISSB n’est pas le seul cadre commun auquel les institutions financières doivent se plier, les critères ESG font également office de régulation.

    « Le secteur financier doit se mobiliser bien au-delà du Net zéro. » – Florian Roulle, Finance Montréal

    En effet, le secteur financier doit mesurer l’impact des activités d’une entreprise, non seulement sur l’Environnement, mais aussi sur la Société et la Gouvernance, tel que le recommande les critères financiers ESG. La finance responsable, devient la finance durable à travers ces critères.

    Sommet de la finance durable au Centre PHI

    Sommet de la finance durable au Centre PHI

    Or, en investissant selon des normes ESG, les entreprises font face à de nouveaux risques. De surcroît, les PME ont de la difficulté à estimer ce qui sera demandé par les acteurs financiers. La plupart voient les nouvelles normes comme des contraintes additionnelles et ne sont pas en mesure d’en évaluer les bénéfices. Très peu d’entreprises sont en mesure de fournir un plan de décarbonation et même une comptabilisation de l’empreinte carbone. Or, elles manquent ainsi des opportunités d’affaires.

    Alexandre Bernhardt, responsable mondial de la recherche sur le développement durable chez BNP Paribas, conseille alors d’éviter de recourir à la diversification des portefeuilles, afin de miser davantage sur l’engagement des tiers parties. Ceci permettra de faciliter l’intégration des PME.

    Il faut établir un chemin clair et crédible avec des cibles basées sur la science et des données fiables et accessibles.

    LA SCIENCE DES DONNÉES ET L’IA

    Les données ESG sont considérées comme des données extrafinancières, mais elles sont de plus en plus recueillies par les investisseurs. Les grands groupes financiers fournissent désormais des données ESG, en plus des données financières traditionnelles.

    De plus, les investisseurs calculent de plus en plus l’E-réputation grâce à une analyse globale des données, sur les réseaux sociaux par exemple. Grâce aux données extrafinancières, on peut mesurer la notoriété publique des investissements. On procède ici à une analyse des propos sur les réseaux sociaux.

    Au niveau de l’empreinte carbone, peu d’outils numériques existent actuellement. Aussi, les PME ont de la difficulté à évaluer le bien-fondé de nouveaux outils. Certaines entreprises font appel à un service-conseil. D’autres s’inspirent des normes IASB. Par ailleurs, certaines données sont structurées, tandis que d’autres ne le sont pas.

    LE FLOU ENTOURANT LE SCOPE 3

    « 90% du carbone provient des compagnies en Scope 3. » – Alexandre Bernhardt, responsable mondial de la recherche sur le développement durable chez BNP Paribas.

    Le plus grand défi de la transition écologique pour les investisseurs est l’ajout du Scope 3, un périmètre de calcul supplémentaire, établi dans la méthodologie internationale de comptabilité carbone GHG Protocol. En bref:

      1. 1. Scope 1 = calcul des émissions directes de gaz à effet de serre
      2. 2. Scope 2 = calcul des émissions indirectes liées à l’énergie
      3. 3. Scope 3 = calcul des autres émissions dîtes indirectes

     

    Si les entreprises en Scope 3 sont les plus polluantes, elles sont aussi celles qui divulguent le moins l’impact environnemental et social de leurs activités.

    De plus, la distinction entre fonds ESG et fonds à impact social n’est toujours pas claire. Alors que certains investisseurs utilisent l’ESG comme outil de gestion du risque, d’autres l’utilisent pour améliorer leur position sur la finance durable afin de s’aligner sur les questions de société et d’impact.

    Isabelle Laprise, vice-présidente, stratégie d’investissement durable, et gestionnaire de portefeuille institutionnel chez Jarislowsky Fraser, rappelle l’importance de la Déclaration de la place financière durable et de la Déclaration de l’investissement canadien pour le changement climatique qui rassemblent autour des mêmes objectifs.

    Par ailleurs, Guy Cormier, président et chef de la direction du Mouvement Desjardins, affirme que l’écosystème québécois est petit, en matière de finance, mais très agile !

     

    Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.

  • L’IA contre l’inaction climatique et pour activer la transition énergétique

     Patricia Gautrin , doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA,   nous présente et discute ici le rôle potentiel de l’IA pour l’inaction climatique et comment cet outil peut aider à activer la transition énergétique. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères sur le lien suivant. Ikram Chraibi Kaadoud et Thierry Viéville.

    Grâce à l’explosion des données sur le climat, l’IA offre des possibilités de visualisation de scénarios nous permettant de prendre conscience de notre inaction climatique. Elle déploie également l’étude des changements climatiques et facilite une transition efficace vers des énergies propres.

    Rappelez-vous de la marche de Montréal pour le climat du 27 septembre 2019, avec Greta Thunberg, de la ferveur des militants rassemblés près du monument George-Étienne Cartier, sur l’avenue du Parc… Mises au pied du mur, nos sociétés réagissent et emboîtent nécessairement le pas vers la transition énergétique. Or, comment atteindre plus rapidement nos objectifs de décarbonation? Comment changer drastiquement nos habitudes et ne plus dépendre des énergies non renouvelables?

    « Prendre d’urgence des mesures pour lutter contre les changements climatiques et leurs répercussions. »– Objectif 13 des Nations Unies

    CONSTAT ALARMANT ET INACTION CLIMATIQUE

    Année après année, nous ne pouvons que constater les effets dévastateurs des changements climatiques. Désormais, ils affectent tous les pays du monde, en perturbant les vies et les économies nationales. Selon le rapport 2021 du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC): « la température de la planète devrait augmenter de 1,5°C dès 2030, soit dix ans plus tôt que la précédente prévision du GIEC. Le GIEC étudie cinq scénarios et le plus pessimiste prévoit un réchauffement compris entre 3,3 et 5,7°C

    « Le niveau des océans s’est élevé de 20 cm depuis un siècle, et le rythme de cette hausse s’est accéléré durant la dernière décennie avec la fonte des calottes glaciaires. D’après les prévisions, la mer pourrait gagner 1 mètre d’ici 2100 et 2 mètres d’ici 2300

    Le GIEC montre que la concentration de gaz carbonique (CO2) dans l’atmosphère depuis 2011 est en moyenne de 410 ppm (parties par million), un niveau jamais atteint depuis 2 millions d’années. Sachons que le CO2 est le principal agent des gaz à effet de serre à l’origine du réchauffement climatique. De plus, les émissions de CO2 sont dues aux énergies fossiles. D’après la NASA, « 19 des années les plus chaudes se sont produites depuis 2000, à l’exception de 1998.»

    « Toute la planète chauffe et certaines régions plus que d’autres. Selon les experts, la fonte des calottes glaciaires constitue un point de rupture. Elle aura des conséquences dévastatrices, radicales et même irréversibles pour la planète et l’humanité », confirme le GIEC. L’inaction climatique finira par nous coûter bien plus que de s’engager dans la transition énergétique. Cependant, réduire les émissions de gaz à effet de serre, tout en renforçant la résilience climatique, ne peut que créer prospérité et vie meilleure.

    L’IA POUR VISUALISER LES IMPACTS DU CLIMAT

    L’apprentissage automatique permet de scénariser et d’amplifier nos gestes pour voir où nous mènerait l’inaction climatique. Alors, pour visualiser l’effet des changements climatiques sur une zone donnée, une équipe de recherche en intelligence artificielle du Mila a développé un site Web. Le site Ce climat n’existe pas génère un filtre réaliste de l’effet des changements climatiques à partir de Google Street View.

    Cette expérience nous permet de voir les scénarios envisageables si l’inaction climatique demeure le réflexe global. Conçu par une classe d’algorithmes d’apprentissage automatique, ce projet a mobilisé des spécialistes et de collaborateurs sous la direction de Yoshua Bengio.

    L’IA AMASSE DES DONNÉES SUR LE CLIMAT

    Les données amassées sur le climat sont de plus en plus nombreuses et leur variété de même que leur hétérogénéité s’amplifient. Or, les méthodes de traitement et d’analyse deviennent de plus en plus complexes.

    Grâce à de nouveaux capteurs, nous avons accès aux données satellitaires, aux stations météorologiques et aux simulations qui nous permettent de faire des observations climatiques sans pareil. De surcroît, les données de production et de consommation d’énergie sont de plus en plus accessibles. Cependant, de grands défis persistent quant à l’extraction de ces données et à leur analyse. L’apprentissage statistique offre alors de bons outils de calcul.

    L’IA POUR ANALYSER LE CLIMAT

    Bien que nous soyons souvent témoin de prévisions météorologiques fautives, les estimations sur les variations climatiques sont beaucoup plus fiables, car elles reposent sur des données stables, comme les saisons ou la géographie.

    « On peut prévoir le climat alors même qu’on ne sait pas prévoir la météo au-delà de quelques jours.» – Olivier Talagrand, directeur de recherche émérite CNRS au Laboratoire de Météorologie Dynamique.

    L’IA engendre une approche pilotée par les données, pour extraire les caractéristiques primordiales du climat. Ce qui permet de procéder à la classification :

        • des régimes météorologiques ;
        • des modes de variabilité climatique ;
        • des chaînes de causalité.

    ANALYSE DE CAS EXTREMES

    L’IA offre également la possibilité d’analyser et de simuler des cas extrêmes, parfois très impactants. Elle permet de déceler ces conditions climatiques extrêmes et leurs changements, et ensuite de modéliser les relations entre extrêmes météorologiques. Enfin, l’analyse peut montrer les impacts potentiels sur les sociétés ou sur les écosystèmes de ces situations extrêmes. On procède alors à une analyse de la chaîne de causalité de ces extrêmes.

    LA MODELISATION CLIMATIQUE

    L’IA permet l’élaboration de paramètres physiques, comme la convection, le rayonnement ou encore la micro-physique, pour produire des modèles climatiques. Ces modèles sont alors fondés sur des méthodes d’apprentissage de type physics-inspired AI (IA inspirée par la physique).

    En effet, une intelligence artificielle pure, ou sans contrainte physique, n’est pas pertinente dans le cas des changements climatiques et ne fournit pas de bonnes extrapolations ou généralisations. Elle doit être alimentée par des données physiques.

    L’IA POUR ACTIVER LA TRANSITION ÉNERGÉTIQUE

    Tout d’abord, il faut comprendre que les données climatiques seraient inexploitables sans l’intelligence artificielle. Puis, sachons que l’IA est en mesure de développer des scénarios de transition énergétique.

    « L’IA sera utilisée dans la supervision et le contrôle du trafic des véhicules autonomes dans le but de réduire l’empreinte énergétique et environnementale des transports.» – Institut EuropIA

    Les actions concrètes permises par l’IA:

        • Modélisation de la topologie des réseaux
        • Gestion de contraintes comme l’intermittence
        • Modélisation du comportement des consommateurs et des producteurs
        • Estimation des modèles prédictifs profonds de séries temporelles
        • Identification des ressources renouvelables
        • Gestion du réseau pour assurer son équilibre optimal, sa résilience et sa flexibilité

    Comment une entreprise peut-elle lutter contre les changements climatiques avec l’IA ?

    Les entreprises peuvent faire partie de la solution en s’engageant à décarboner leurs activités et chaînes d’approvisionnement. Pour ce faire, elles peuvent :

        • améliorer leur efficacité énergétique par des calculs prévisionnels ;
        • réduire l’empreinte carbone de leurs produits, services et processus grâce aux données recueillies et aux analyses ;
        • fixer des objectifs de réduction des émissions en phase avec les recommandations des spécialistes du climat ;
        • augmenter leurs investissements dans le développement de produits, services et solutions sobres en carbone ;
        • automatiser la chaîne d’approvisionnement.

     

    En somme, l’IA transforme complètement le monde de l’énergie et de l’environnement, grâce aux performances de l’apprentissage et aux capacités phénoménales de traitement massif de données. La mobilité change grâce à la conduite autonome. La gestion globale de la demande énergétique et des systèmes complexes, comme la production décentralisée d’énergie renouvelable ou l’optimisation de procédés industriels, ce fera grâce à l’IA.

    « L’électrification croissante du mix énergétique et la diversification des sources de production, intermittentes, variables, distribuées, les multiples techniques algorithmiques incluant l’IA engendrent un formidable potentiel de nouvelles fonctionnalités au service des secteurs de l’énergie, de la mobilité et de l’environnement grâce à des moyens de communication autorisant des transferts massifs de données et à l’augmentation phénoménale des puissances de calcul », selon l’Institut EuropIA.

    L’intelligence artificielle est source d’innovation. Elle attire le monde des start-ups et transforme radicalement « tant l’offre d’énergie que le rapport du citoyen à son usage de l’énergie. »

    Autres articles sur le même thème :

     

    Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.

     

  • Agriculture : biens privés d’aujourd’hui et communs de demain

     Un nouvel « Entretien autour de l’informatique ». Christian Huyghe, chercheur en agronomie, est Directeur scientifique « Agriculture » de l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae). Il nous explique la place des communs dans son domaine. Une particularité est, qu’en agriculture, la tension autour des communs cristallise dans le temps entre les biens privés d’aujourd’hui et les communs de demain.

    Christian Huyghe, www.academie-agriculture.fr

    Binaire : Pourriez-vous retracer votre carrière qui vous a amené à devenir Directeur scientifique de l’Inrae ?

    CH : Je suis rentré très jeune à l’Inrae et j’y ai fait toute ma carrière. J’ai commencé par une thèse sur « La polyembryonie haploïde diploïde chez le lin », un processus physiologique permettant de créer des méthodes de sélection pour avoir de nouvelles lignées en une seule génération. J’ai fait un post-doc sur les croisements interspécifiques du pois chiche, en Grande Bretagne comme volontaire scientifique du service national. J’ai participé ensuite à des programmes de recherche sur le lupin blanc, la luzerne, et les espèces fourragères. Puis, j’ai gravi les échelons jusqu’à devenir en 2016 Directeur scientifique « Agriculture », à l’Inrae. C’est un des trois piliers de l’institut, le pilier historique.

    A côté de ça, j’ai d’autres activités, je préside un certain nombre de structures partenariales de l’Inrae, en particulier le Comité scientifique et technique de l’ACTA[1]. Dans le cadre des politiques publiques, je m’occupe de variétés et de semences dans un Groupement d’Intérêt Public, le GEVS, et de la protection des cultures et sur les pesticides. Il faut rajouter à cela des activités européennes. Je préside, entre autres, une alliance européenne de recherche sur les pesticides. Mon travail tourne très souvent autour des pesticides, un sujet évidemment très important. L’intensification des cultures a conduit à utiliser de plus en plus de pesticides, les systèmes agricoles se sont progressivement « verrouillés » autour de l’utilisation de ces intrants. Cela cause des problèmes de résistance à ces pesticides et de dégradation de l’environnement.

    B : Les personnes que nous avons déjà interrogées sur les communs nous en donnent souvent des visions assez différentes. Que représentent les communs pour vous et en agriculture en particulier ?

    CH : Je suis arrivé à me préoccuper des communs en agriculture par une voie détournée, en réalisant que la difficulté de la transition en agriculture aujourd’hui est de concilier d’une part les fonctions productives des biens alimentaires, et d’autre part, la préservation de l’environnement. L’intensification de l’agriculture avec plus d’intrants s’est réalisée au détriment de la question environnementale, qui est juste corrigée par des contraintes réglementaires. Il s’agit bien là d’une tension entre biens privés et biens publics ou biens communs. Passer du terme public au terme commun a évidemment un sens, les biens communs étant des biens rivaux, i.e. s’ils sont consommés par quelqu’un, ils ne sont pas disponibles pour d’autres. Quand on en discute avec l’ensemble des acteurs concernés, le terme de bien commun a beaucoup de sens.

    Une particularité de l’agriculture est que la tension se passe souvent entre aujourd’hui et demain, un bien privé d’aujourd’hui en tension avec un bien commun de demain.

    Le monde agricole tient assez peu compte de la dimension patrimoniale, c’est-à-dire du monde que nous lèguerons à nos descendants. On a souvent tendance en agriculture à s’appuyer sur le « Quoi qu’il en coûte pour demain ». Si un agriculteur a besoin pour résoudre un problème immédiat d’utiliser une solution qui a des effets négatifs à long terme, il va sans doute le faire. Mais est-ce particulier à l’agriculture ?

    B : Pouvez-vous nous en donner un exemple ?

    CH : Dans les pesticides très problématiques, il y a le Phosmet[2] qui est un insecticide très efficace. C’est le dernier organo-phosphoré de la pharmacopée et il est classé CMR (Cancérigène, Mutagène, Reprotoxique). Il produit notamment un effondrement de la fertilité masculine. Personne ne devrait raisonnablement utiliser un produit pareil. D’ailleurs, en 2017, il n’a même pas été évalué par anticipation parce qu’il n’était plus utilisé. Mais comme d’autres insecticides ont perdu en efficacité (pyréthrénoïdes) ou ont été interdits (néonicotinoïdes) et que celui-ci ne l’était pas, les agriculteurs se sont remis à l’utiliser. Sur plus de 50% des surfaces de colza en 2021 ! Les agriculteurs ont un problème d’insectes (grosse altise, charançon des tiges) sur leurs champs de colza et la seule solution simple est le Phosmet. Alors, tant pis pour les communs de demain !

    B : Quelle est votre expérience personnelle sur les communs ?

    CH : Je les ai beaucoup côtoyés avec la science ouverte, les livings labs et les territoires d’innovation. Il s’agit d’innover ensemble, de co-concevoir, de co-construire dans ces dispositifs. Les « territoires d’innovation » ont été lancés en 2019 sur différents domaines. Il y a dix territoires d’innovation en agriculture. Ce sont de gros dispositifs soutenus financièrement par la puissance publique avec un fort investissement des collectifs locaux, des acteurs économiques et des ONG. Il y a par exemple le LIT Ouesterel sur le bien-être animal, dans les régions d’élevage de l’Ouest. Ces Territoires d’Innovation en agriculture mettent tous en scène la recherche d’options pour résoudre la tension entre bien privés et bien communs.

    On s’est notamment rendu compte que, dans ce cadre, un levier essentiel était le partage d’informations, ce qui conduit à donner une place particulière à la question des données et du numérique, comme levier du partage d’information. La combinaison de performance productive et performance environnementale conduit naturellement à la nécessité d’ouvrir les données, à considérer les données comme des communs numériques. Cela conduit également à regarder les données comme un bien commun. On a cherché à comprendre pourquoi les personnes avaient autant de réticence à ouvrir leurs données.

    B : L’Inrae est souvent à la pointe de l’ouverture des données. Comment l’expliquez-vous ?

    CH : Cela tient beaucoup à la personne et l’action de François Houlier, un ancien PDG de l’Inrae. Il a réalisé en 2016 un rapport commandé par Najat Vallaud-Belkacem (ministère de l’Éducation nationale) et Thierry Mandon (ministère de l’Enseignement supérieur et de la Recherche) sur « Les Sciences participatives en France ». Il présentait une autre façon de faire de la recherche. Cela a eu au début assez peu d’incidence sur la maison. Et puis, la science ouverte est devenue un vrai levier de la recherche à l’Inrae.

    En particulier, on a compris l’importance d’impliquer le plus de monde possible à la création de connaissances, en particulier des non-scientifiques. A l’Inrae, nous avons énormément de contacts avec des partenaires, comme des acteurs économiques (coopératives, instituts techniques agricoles) et avec des ONG (des secteurs de l’environnement ou de l’alimentation). Ceux-ci apportent toute leur énergie à la science ouverte. Cela n’est pas toujours confortable pour les chercheurs qui aiment bien expliquer ou décider a priori là où il faut aller. C’est beaucoup moins confortable de le faire avec les autres. Mais, très souvent, cela conduit à beaucoup de créativité au-delà de la simple définition des défis, des enjeux. Le recherche et l’innovation ouverte impliquent des façons de faire nouvelles, conduisent à des connaissances originales. Ce qui est particulièrement intéressant c’est que tous ceux qui ont participé aux travaux sont concernés, impliqués dans l’appropriation des résultats.

    B : C’est vrai pour la recherche en général. Mais pour l’agriculture ?

    CH : Une particularité en agriculture est que la tension entre fonction productive et protection environnementale, que je mentionnais plus haut, est très dépendante des conditions locales. Les milieux locaux physiques, climatiques, économiques, culturels, tiennent des places essentielles. La science et l’innovation ouvertes sont donc bien adaptées au sujet de l’agriculture parce qu’on peut avoir accès à des savoir-faire locaux et à des données locales.

    B : Au milieu de tout ça, quelle est la position de l’agriculteur moyen ?

    CH : Le monde des agriculteurs est très hétérogène, par exemple, dans leur rapport à l’innovation. Donc parler d’agriculteur moyen n’est pas vraiment approprié. Comme dans la plupart des secteurs économiques, vous avez des créatifs, des adoptants précoces, des adoptants tardifs, et au bout les trainards. On dirait laggards en anglais pour reprendre les termes de E. Rogers qui a le premier analysé cette situation. On a une courbe de distribution assez classique. Pour booster l’innovation en agriculture, on s’appuie sur les leaders qui sont typiquement des adoptants précoces. Ce n’est pas forcément le rôle du syndicat agricole, qui est là pour protéger la majorité, qui est plutôt du côté des adoptants tardifs. Ce n’est pas une critique des agriculteurs et de leurs syndicats : ils ont des risques à gérer, une activité économique à protéger. Il faut garder tout le monde à bord. C’est essentiel.

    Prenez les chambres d’agriculture qui sont des lieux de tension forte. Elles jouent un double rôle : le développement de l’agriculture et la protection des agriculteurs, mais les deux rôles proposent des réponses souvent contradictoires, en particulier quand les temps courts (biens privés et productifs) et temps longs (biens environnementaux communs) ne sont pas en syzygie. Cette situation est assez récente. L’inconfort des chambres d’agriculture et plus largement des acteurs du développement agricoles résulte de leur mise en place à la fin de la seconde guerre mondiale. Le cœur des biens communs alors, au moment où tout se met en place, c’est la sécurité alimentaire, puisque le France et l’Europe sont très loin de l’autosuffisance alimentaire. Les intérêts des biens communs et des biens privés étaient alors bien alignés sur ce même sujet de sécurité alimentaire. Aujourd’hui, ils ne sont plus alignés. D’où la difficulté aujourd’hui pour ces opérateurs.

    De nombreux agriculteurs ont une énorme appétence pour l’innovation. Mais collectivement, il ne faut pas que cela aille trop vite, d’où la résistance au changement pour protéger la masse des agriculteurs.

    B : Est-ce que les pouvoirs publics peuvent réduire la tension ? Peuvent-ils faire bouger les lignes ?

    CH : Ils peuvent le faire sans aucun doute. La question, c’est comment ? Il faut que cela se passe à l’échelle européenne. Les biens environnementaux sont communs à l’humanité et on ne peut pas les protéger chacun dans son petit coin. Notre chance, c’est l’Union européenne, qui a proposé avec le Green Deal[3] des objectifs ambitieux en donnant des horizons et des objectifs partagés par tous les pays. Jusqu’à présent, on a cherché à produire au plus faible coût économique. On se met à considérer le coût environnemental. Cela donne du sens aux politiques qu’on suit.

    Il faut réaliser ce Green Deal qui est une chance pour l’humanité. Mais on voit que toutes les excuses sont bonnes pour tergiverser : le Covid, la crise en Ukraine… On voit bien qu’on cherche à traiter les questions d’aujourd’hui avant celles du demain. Il faut un courage politique considérable pour porter les visions politiques à très long terme. Le Green Deal comme des plans américains discutés aujourd’hui font partie de ces grands choix politiques majeurs qu’on doit être capable de porter. Dans ce cadre, la Politique Agricole Commune est en deçà de ce qu’il faudrait faire, comme le souligne son analyse par le Parlement Européen.

    B : Est-ce que le secteur privé a aussi une place ?

    CH : Le secteur privé a bien sûr son rôle à jouer. On voit de très grands groupes qui prennent conscience de la nécessité de changer de route. Cela tient du choix de dirigeants ou de prises de considérations collectives à long terme. Pour prendre un exemple encore avec les pesticides, le groupe Kronenbourg, qui fait partie du groupe Carlsberg, a annoncé au début du mois de juin, une initiative importante. L’orge de brasserie contient des résidus de pesticides, le houblon est utilisé en moins grande quantité mais en contient beaucoup, et l’eau en contient également. Le groupe a choisi une voie très intéressante. Il s’est associé avec de gros producteurs de malt et de houblon pour accompagner, c’est-à-dire financer, une transition vers la réduction massive des pesticides chez les agriculteurs producteurs d’orge et de houblon. Un des plus grands groupes de brasserie au monde s’empare ainsi du sujet, décide d’être responsable, anticipe la réglementation. Logique publique et logique privée, il n’y a pas nécessairement d’opposition. Il faut aller dans le même sens.

    B : Un mot pour conclure ?

    CH : Le vrai sujet des communs est celui de la responsabilité de nos actions. Nous sommes responsables du monde que nous laisserons à nos enfants. Pour moi, les acteurs de la recherche publique ont une responsabilité particulière, celle d’imaginer des horizons lointains, d’accompagner la transition, d’encourager le développement des communs, mais aussi de montrer le chemin.

    Serge Abiteboul, Inria et ENS Paris, François Bancilhon, serial entrepreneur

    [1] Le Réseau des instituts techniques agricoles est un lieu d’échange et de partage, à la confluence de l’intérêt général et de missions d’intérêts spécifiques aux filières agricole, forestière et agro-industrielle. C’est une association unique en Europe pilotée par les agriculteurs depuis plus de 60 ans.

    [2] Le phosmet est un insecticide organophosphoré non-systémique, dérivé du phtalimide, utilisé sur les plantes et les animaux.

    [3] Le Green Deal Européen, ou Pacte vert européen, constitue un ensemble de mesures visant à faire de l’Europe un continent « climatiquement neutre » d’ici 2050.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

    https://binaire.socinfo.fr/2021/09/28/les-communs-numeriques/

  • L’agriculture numérique ou comment tirer le meilleur du numérique pour une transition vers des systèmes alimentaires durables

    Forts de leurs collaborations fructueuses, INRAE et Inria ont publié un livre blanc intitulé Agriculture & Numérique à l’occasion du dernier salon de l’agriculture qui s’est déroulé en mars. Sous la houlette de  cinq éditeurs, ce document a été élaboré de façon collaborative en impliquant des expert.e.s de ces deux instituts de recherche. Ils ont accepté de rédiger un billet dans binaire pour nous expliquer ce qu’on peut trouver dans ce livre blanc consacré à des sujets fondamentaux pour notre avenir. Pascal Guitton

    La sécurité alimentaire d’une population toujours plus nombreuse, première préoccupation mondiale, s’accompagne aujourd’hui d’exigences fortes sur les modes de production – pour les rendre plus durables et plus respectueux du bien-être animal et de l’environnement – ainsi que sur le maintien d’un tissu rural vivant, autour d’une agriculture familiale attractive. Pour y répondre, l’agriculture s’engage dans une transition agroécologique soutenue par les scientifiques, les politiques, et plus généralement la société. L’agroécologie est un ensemble de pratiques qui s’appuient sur des processus écologiques, interactions et synergies entre les composantes de l’agroécosystème pour améliorer les productions agricoles (réduction de l’empreinte environnementale, bien-être des animaux et de l’agriculteur, résilience…) ; dans son acception la plus large, l’agroécologie peut aller jusqu’à reconcevoir le système alimentaire. L’un des leviers pour accélérer cette transition vertueuse vers l’agroécologie est d’aller vers une agriculture  numérique. L’agriculture numérique définit une agriculture qui utilise les sciences et technologies du numérique, et en particulier quatre leviers, à mobiliser conjointement : (1) l’abondance des données, due au développement des capteurs (du nanocapteur au satellite) et aux facilités accrues de communication et stockage, (2) les capacités de calcul, rendant possible de nouveaux modes de modélisation, (3) les systèmes d’échange d’information et (4) l’automatisation et la robotisation.

    Le numérique est souvent perçu comme une opportunité à saisir pour contribuer à la transition vers l’agroécologie, au bénéfice des agriculteurs, des consommateurs et plus généralement de la société. Qu’en est–il ? Quels sont les risques à anticiper ? Quelles voies de recherche pour développer un numérique responsable, utile et utilisé?

    Des opportunités pour l’agroécologie et une alimentation durable

    De nombreuses opportunités sont données par le numérique « orienté agroécologie »: l’accompagnement à la décision et l’action sur l’exploitation agricole, une meilleure inscription des agriculteurs dans les écosystèmes horizontaux (territorial) ou verticaux (amont-aval) et l’accroissement des compétences des agriculteurs.

    À la ferme, les outils numériques permettent de mieux observer, mieux comprendre, mieux diagnostiquer et donc de mieux agir pour une réduction des intrants (antibiotiques, fertilisants, pesticides…) et un usage raisonné des ressources naturelles (eau, sol). En effet, les dispositifs numériques peuvent contribuer à un « agriculteur augmenté », assisté sur les plans sensoriel (capteurs), cognitif (aide à la décision) et physique (machines), qui pourra mieux surveiller la santé des plantes et des animaux – de l’échelle de l’individu ou de la parcelle à celle du cheptel ou de l’exploitation- et qui pourra aussi mettre en œuvre – à grande échelle – les procédés plus complexes de l’agroécologie (associations de cultures, collectes sélectives…), via l’automatisation et la robotique. Celle-ci réduit aussi la pénibilité du travail et l’astreinte. Au-delà de l’itinéraire technique, de nouveaux systèmes d’aide à la décision pourront accompagner la reconception des systèmes de production. Le numérique renouvellera aussi le mode de construction des connaissances, indispensables sur ces nouveaux systèmes, diversifiés et complexes, en bénéficiant de trois leviers interconnectés: (i) modéliser ces systèmes complexes ; (ii) collecter massivement des données hétérogènes (iii) formaliser et partager la connaissance.

    Au-delà de la ferme, il s’agit de valoriser la donnée produite, auprès de tous les acteurs des chaînes de valeurs, des producteurs aux consommateurs en passant par les fournisseurs et fabricants de machines agricoles – comme vecteur de transparence – ou dans les territoires (adaptation aux particularités locales, économie circulaire), pour constituer un capital informationnel. La dimension « réseau social » rapproche les individus, crée des communautés d’échange entre producteurs et consommateurs, entre agriculteurs et facilite la médiation et la décision collective. Le savoir (y compris traditionnel) est capitalisé et échangé entre pairs, directement ou via des processus collectifs participatifs, où le numérique a sa place d’outil facilitateur.

    Dans les pays du Sud, le numérique est également perçu comme une source de transformation majeure pouvant diversifier l’économie des services, accélérer les transformations structurelles de l’agriculture et renforcer son attractivité envers les jeunes, améliorer les chaînes de valeur et contribuer à construire le capital informationnel des territoires.

    Des risques identifiés qu’il s’agira d’éviter

    Comme pour toute innovation, le numérique en agriculture s’accompagne de risques. Certaines formes d’agricultures, surtout les exploitations de petite taille, pourraient se retrouver exclues si le numérique renforce les trajectoires d’industrialisation, avec des unités toujours plus grandes. Les difficultés d’accès aux technologies numériques (précarité financière, manque de compétences, manque d’infrastructures numériques) seraient aussi facteur d’exclusion. Les outils d’aide à la décision, s’ils sont trop génériques ou prescriptifs, pourrait menacer l’autonomie de décision des agriculteurs voire sur le sens qu’ils donnent à leur métier. Une autre interrogation porte sur l’évolution des rapports de force entre les agriculteurs et ses secteurs d’amont et d’aval: risque de dépendance à l’amont (maîtrise et maintenance des agroéquipements) ou de pilotage par l’aval de la chaîne de valeur.

    Un autre risque serait de limiter la transition vers l’agro-écologie à la réduction des intrants rendue possible par l’agriculture de précision, ce qui créerait un verrouillage technologique neutralisant la reconception des systèmes agricoles. D’autre part, le numérique a une empreinte écologique  encore mal connue, qu’il faudra intégrer. Enfin, l’utilisation généralisée d’interfaces numériques entre l’agriculteur et les animaux ou les plantes risque de distordre le lien à la nature ou Homme-Animal.

    Le partage des données agricoles doit aussi être organisé pour empêcher l’apparition d’acteurs monopolistiques et la gouvernance de ces données doit être clarifiée pour assurer notre souveraineté numérique et alimentaire. Enfin, les risques liés à la cybersécurité sont à considérer : attaques des systèmes, piratage (vol, altération, destruction) de données agricoles. Relativement épargnés aujourd’hui, nos systèmes alimentaires sont d’une importance vitale, ce qui pourrait à l’avenir les transformer en cibles potentielles.

    Les défis pour le développement d’un numérique au service des agricultures de demain

    En confrontant opportunités et risques, nous avons pu identifier de nouveaux défis de recherche.

    1) quel numérique pour faciliter la création et le partage de nouvelles connaissances en agroécologie ? Il s’agira de partager des données de plus en plus nombreuses et hétérogènes de façon sécurisée et fiable avec chacun des acteurs, d’assurer la qualité des connaissances créées ainsi qu’un usage équitable, sans monopolisation par certains acteurs. L’inférence de connaissances à partir de données et leur hybridation aux connaissances existantes (dont celles de l’agriculteur) est aussi un enjeu de recherche.

    2) quel numérique pour assister l’agriculteur dans la conduite individuelle de son exploitation ? Ceci nécessite de construire des capteurs précis, frugaux, moins chers et simples d’entretien pour détecter au plus tôt les dysfonctionnements, mais aussi des systèmes d’aide à la décision personnalisés pour la gestion tactique mais aussi stratégique de la ferme, et des robots travaillant en coordination ou capables de se reconfigurer en fonction des environnements.

    3) quel numérique pour faciliter la gestion collective à l’échelle du territoire ?

    L’agroécologie dépasse les limites de la ferme et se réfléchit à l’échelle des territoires. Gérer les ressources – comme l’eau, les terres – de manière plus participative nécessite de mieux connaître les territoires agricoles. Comment collecter et mettre en lien des données d’intérêt pour une gestion partagée, à partir de sources diverses ? Comment créer des informations pertinentes et les transmettre sous une forme compréhensible par les acteurs des territoires ? Quels outils numériques de médiation pour faciliter la gestion participative ?

    4) quel numérique pour rééquilibrer les pouvoirs dans les chaînes de valeurs amont-aval ? À l’amont, certains services comme le conseil ou l’assurance auront besoin de modélisation. À l’aval, la recherche devra concevoir des dispositifs numériques pour accompagner les processus de vente directe (en B2C ou en B2B), en facilitant la planification – y compris collective – des productions et la logistique et pour assurer la transparence sur les productions dans les chaines longues (blockchain).

    Messages

    Le développement d’un numérique en soutien à l’agroécologie est un sujet encore peu travaillé qui génère des questions de recherches originales pour les sciences du numérique, mais aussi les sciences humaines et sociales, l’économie et la gestion, les sciences politiques. En effet, les verrous à lever sont techniques, mais aussi organisationnels, économiques, politiques. Les recherches doivent se fonder sur une vision systémique, qui est aussi une caractéristique de l’agroécologie et les modèles d’aide à la gestion doivent être revisités, pour passer de la recherche d’un optimum à celle d’une résilience. La question de la sécurité des données, de la confidentialité et de leur gouvernance est essentielle. Enfin, la recherche de la frugalité – énergétique, mais aussi matérielle, organisationnelle, cognitive – devient un impératif.  Pour terminer, rappelons qu’il y a plusieurs modèles d’agricultures et il y aura donc plusieurs types de numérique, avec un besoin de R&D spécifique sur l’agroécologie. Les démarches de recherche se devront d’être très inclusives, interdisciplinaires et suivre les principes de la recherche et de l’innovation responsable.

    Véronique Bellon-Maurel (INRAE Montpellier), Ludovic Brossard (INRAE Rennes), Frédérik Garcia (INRAE Toulouse), Nathalie Mitton (Inria Lille) et Alexandre Termier (Inria Rennes)

  • Le métavers, quels métavers ? (2/2)

    En octobre 2021, Facebook a annoncé le développement d’un nouvel environnement virtuel baptisé Metaverse. Cette information a entrainé de très nombreuses réactions tant sous la forme de commentaires dans les médias que de déclarations d’intention dans les entreprises. Comme souvent face à une innovation technologique, les réactions sont très contrastées : enfer annoncé pour certains, paradis pour d’autres. Qu’en penser ? C’est pour contribuer à cette réflexion que nous donnons la parole à Pascal Guitton et Nicolas Roussel. Dans un premier article, ils nous expliquaient de quoi il s’agit et dans celui-ci ils présentent des utilisations potentielles sans oublier de dresser une liste de questions à se poser.
    Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation 

    Pourquoi et pour quoi des métavers ?

    Comme souvent dans le domaine des technologies numériques, on entend dans les discussions sur les métavers des affirmations comme « il ne faudrait pas rater le coche » (ou le train, la course, le virage, le tournant). Il faudrait donc se lancer dans le métavers uniquement parce que d’autres l’ont fait ? Et s’ils s’y étaient lancés pour de mauvaises raisons, nous les suivrions aveuglément ? On pourrait aussi se demander si la direction qu’ils ont prise est la bonne. Autre interrogation plus ou moins avouée, mais bien présente dans beaucoup d’esprits : qu’adviendrait-il de nous si nous ne suivions pas le mouvement ? Finalement, est-ce que la principale raison qui fait démarrer le train n’est pas la peur de certains acteurs de le rater ?

    Pourquoi (pour quelles raisons) et pour quoi (dans quels buts) des métavers ? Les motivations actuelles sont pour nous liées à différents espoirs.

    Le métavers, c’est l’espoir pour certains que la réalité virtuelle trouve enfin son application phare grand public, que ce qu’elle permet aujourd’hui dans des contextes particuliers devienne possible à grande échelle, dans des contextes plus variés : l’appréhension de situations complexes, l’immersion dans une tâche, l’entrainement sans conséquence sur le monde réel (apprendre à tailler ses rosiers dans le métavers comme on apprend à poser un avion dans un simulateur), la préparation d’actions à venir dans le monde réel (préparation d’une visite dans un musée), etc.

    C’est l’espoir pour d’autres d’une diversification des interactions sociales en ligne (au-delà des jeux vidéo, réseaux sociaux et outils collaboratifs actuels), de leur passage à une plus grande échelle, de leur intégration dans un environnement fédérateur. C’est l’espoir que ces nouvelles interactions permettront de (re)créer du lien avec des personnes aujourd’hui isolées pour des raisons diverses : maladie ou handicap (sensoriel, moteur et/ou cognitif), par exemple. Des personnes éprouvant des difficultés avec leur apparence extérieure dans le monde réel pourraient peut-être s’exprimer plus librement via un avatar configuré à leur goût. Imaginez un entretien pour une embauche ou une location dans lequel il vous serait dans un premier temps possible de ne pas dévoiler votre apparence physique.

    C’est aussi l’espoir d’un nouveau web construit aussi par et pour le bénéfice de ses utilisateurs, et non pas seulement celui des plateformes commerciales. Au début du web, personne ne savait que vous étiez un chien. Sur le web d’aujourd’hui, les plateformes savent quelles sont vos croquettes préférées et combien vous en mangez par jour. Dans le métavers imaginé par certains, personne ne saura que vous n’êtes pas un chien (forme choisie pour votre avatar) et c’est vous qui vendrez les croquettes.

    C’est enfin — et probablement surtout, pour ses promoteurs actuels — l’espoir de l’émergence de nouveaux comportements économiques, l’espoir d’une révolution du commerce en ligne (dans le métavers, et dans le monde réel à travers lui), l’espoir d’importants résultats financiers dans le monde réel.

    Tous ces espoirs ne sont évidemment pas nécessairement portés par les mêmes personnes, et tous ne se réaliseront sans doute pas, mais leur conjonction permet à un grand nombre d’acteurs de se projeter dans un espace configuré à leur mesure, d’où l’expression d’auberge espagnole qu’utilisent certains pour qualifier les métavers

    Qu’allons-nous faire dans ces métavers ?

    « La prédiction est très difficile, surtout lorsqu’il s’agit de l’avenir ». A quoi servira le métavers ? Des communautés spirituelles prévoient déjà de s’y rassembler. On peut parier qu’il ne faudra pas longtemps pour que des services pour adultes s’y développent  ; on sait bien qu’« Internet est fait pour le porno », et la partie réservée aux adultes de Second Life était encore récemment active, semble-t-il. Au-delà de ces paris sans risque, essayons d’imaginer ce que pourraient permettre les métavers…

    Imaginez un centre-ville ou un centre commercial virtuel dont les boutiques vous permettraient d’accéder à des biens et services du monde virtuel et du monde réel. Dans une de ces boutiques, vous pourriez par exemple acheter une tenue pour votre avatar (comme un tee-shirt de l’UBB Rugby), qu’il pourrait dès lors porter dans toutes les activités possibles dans le métavers (rencontres entre amis, activités sportives ou culturelles, mais aussi réunions professionnelles). Dans une autre boutique, vous pourriez choisir et personnaliser une vraie paire de chaussures qui vous serait ensuite livrée à domicile dans le monde réel.

    Quelle différence avec les achats en ligne d’aujourd’hui ? Vous pourriez être assistés dans les boutiques du métavers par des personnages virtuels, avatars d’êtres humains ou d’intelligences artificielles. Vous pourriez vous y rendre accompagnés, pour faire du shopping à plusieurs ou vous faire conseiller par des proches. Vous pourriez aussi demander conseil à d’autres « clients » de la boutique qui la visiteraient en même temps que vous. Dans les boutiques où en passant de l’une à l’autre, il vous serait possible de croiser des personnes de votre connaissance (du monde réel ou virtuel) et interagir avec elles.

    Le centre commercial évoqué proposerait les grandes enseignes habituelles, mais vous auriez la possibilité de le personnaliser en y intégrant vos artisans et petits commerçants préférés, comme cette brasserie artisanale découverte sur un marché il y a quelque temps. Quel intérêt pour vous et pour elle ? La boutique dans le métavers serait un lieu de rencontre, d’échanges et de commerce, au même titre qu’un étal sur un marché, mais sans les contraintes de jour et d’heure, sans les contraintes logistiques, sans la météo capricieuse, etc. Il y a bien sur de nombreuses choses du monde réel qu’on préfèrera voir, goûter ou essayer avant d’acheter. Il y en a aussi de nombreuses qu’on peut acheter sans discuter, « les yeux fermés », ce qui fait le succès des courses en ligne livrées en drive ou à domicile. Mais pour certaines choses, le métavers pourrait offrir une expérience plus riche que le commerce en ligne actuel et moins contraignante que les formes de commerce physiques.

    Le métavers pourrait vous offrir la possibilité d’organiser vous-même vos activités collectives. Vous voulez revoir vos oncles, tantes, cousins et cousines perdus de vue depuis des lustres ? Vous ne voulez pas faire le tour de France et ne pouvez pas loger tout ce monde ? Organisez la rencontre dans le métavers, et profitez des reconstitutions de grands lieux touristiques ! Envie de voir avec eux les calanques de Marseille ou Venise ? L’expérience ne sera évidemment pas la même que dans le monde réel, mais vous pourrez avoir ces lieux rien que pour vous et vos proches, et vous pourrez les visiter de manière inédite, en les survolant par exemple. L’agence de voyage du métavers vous proposera peut-être de compléter l’expérience en dégustant un plat typique (livré chez vous et vos proches) dans une ambiance visuelle et sonore reconstituée. Alors les cousins : supions à la provençale sur le vieux port, ou cicchetti sur la place Saint-Marc ?

    Photo Helena Lopez – Pexels

    Comme certains jeux vidéo actuels, le metavers permettra sans doute la pratique de différents sports, seul ou à plusieurs. L’hiver, avec votre club de cyclisme, vous pourrez vous entraîner sur des parcours virtuels (avec un vrai vélo comme interface, si vous le souhaitez). Envie de lâcher le vélo pour un parcours de randonnée au départ du village dans lequel vous venez d’arriver ? Pas de problème : le métavers est un monde dans lequel on peut basculer facilement d’une activité à l’autre. De nouveaux sports pourraient être inventés par les utilisateurs du métavers, au sens « activités nécessitant un entraînement et s’exerçant suivant des règles, sur un mode coopératif ou compétitif ». La pratique d’un sport virtuel vous amènera peut-être à constituer avec d’autres une équipe, un club. Pour vous entraîner, quel que soit votre niveau, vous devriez sans problème trouver dans le métavers d’autres personnes de niveau similaire ou à peine supérieur, pour peu que les clubs se regroupent en fédérations. Le métavers pourrait aussi changer votre expérience de spectateur de compétitions sportives. Pourquoi ne pas vivre le prochain match de votre équipe de football préférée dans le métavers du point de vue de l’avatar de son avant-centre plutôt que depuis les tribunes virtuelles ?

    Photo Rodnae – Pexels

    Le métavers pourrait fournir l’occasion et les moyens de reconsidérer la manière dont nous organisons le travail de bureau. Un bureau virtuel peut facilement être agrandi pour accueillir une nouvelle personne, si besoin. Un étage de bureaux virtuel peut facilement placer à proximité des personnes qui travaillent dans un même service mais qui sont géographiquement réparties dans le monde réel. En combinant l’organisation spatiale de l’activité permise par le métavers avec des outils que nous utilisons déjà (messageries instantanées, suites bureautiques partagées en ligne, outils de visioconférence, etc.), peut-être pourra-t-on proposer de nouveaux environnements de travail collaboratifs permettant de (re)créer du lien entre des personnes travaillant à distance, quelle qu’en soit la raison ? Il ne s’agit pas seulement ici d’améliorer la manière dont on peut tenir des réunions. Le métavers pourrait aussi permettre des rencontres fortuites et des échanges spontanés et informels entre des personnes, à travers des espaces collectifs (couloirs entre les bureaux, salles de détente) ou des événements (afterwork virtuel).

    On pourrait voir des usages du métavers se développer dans le domaine de la santé. La réalité virtuelle est déjà utilisée depuis de nombreuses années pour traiter des cas de phobie (animaux, altitude, relations sociales, etc.) et de stress post-traumatiques (accidents, agressions, guerres, etc.). Ces thérapies reposent sur une exposition graduelle et maîtrisée par un soignant à une représentation numérique de l’objet engendrant la phobie. Le fait d’agir dans un environnement virtuel, d’en maîtriser tous les paramètres et de pouvoir rapidement et facilement stopper l’exposition ont contribué au succès de ces approches, qu’on imagine facilement transposables dans un métavers où elles pourraient être complétées par d’autres activités. Les simulateurs actuellement utilisés pour la formation de professionnels de santé ou les agents conversationnels animés développés ces dernières années pour le diagnostic ou le suivi médical pourraient aussi être intégrés au métavers. De nouveaux services de téléconsultation pourraient aussi être proposés.

    Le métavers pourrait servir de plateforme d’accès à des services publics. La municipalité de Séoul a ainsi annoncé qu’elle souhaitait ouvrir en 2023 une plateforme de type métavers pour « s’affranchir des contraintes spatiales, temporelles ou linguistiques ». Cette plateforme intègrera des reconstitutions des principaux sites touristiques de la ville actuelle, mais aussi des reconstitutions d’éléments architecturaux disparus. Les habitants pourront interagir avec des agents municipaux via leurs avatars et pourront ainsi accéder à une variété de services publics (économiques, culturels, touristiques, éducatifs, civils) dont certains nécessitaient jusqu’ici de se rendre en mairie. Des manifestations réelles seront dupliquées dans le métavers afin de permettre à des utilisateurs du monde entier de les suivre.

    Questions ouvertes

    Le métavers, par son organisation spatiale et sa dimension sociale, sera l’opportunité de développer des communautés, pratiques et cultures. Ce qui en sortira dépendra beaucoup de la capacité de ses utilisateurs à se l’approprier. Le métavers pose toutefois dès aujourd’hui un certain nombre de questions.

    Qui pourra réellement y accéder ? Il faudra sans aucun doute une « bonne » connexion réseau et un terminal performant, mais au-delà, les différences entre le métavers et le web n’introduiront-elles pas de nouvelles barrières à l’entrée, ou de nouveaux freins ? Le World Wide Web Consortium (W3C) a établi pour celui-ci des règles pour l’accessibilité des contenus à l’ensemble des utilisateurs, y compris les personnes en situation de handicap (WCAG). Combien de temps faudra-t-il pour que des règles similaires soient définies et appliquées dans le métavers ? Sur le web, il n’y a pas d’emplacement privilégié pour un site, la notion d’emplacement n’ayant pas de sens. Dans un monde virtuel en partie fondé sur une métaphore spatiale, la localisation aura de l’importance. On voit déjà de grandes enseignes se précipiter pour acquérir des espaces dans les proto-métavers, et des individus payant à prix d’or des « habitations » voisines de celles de stars. Qui pourra dans le futur se payer un bon emplacement pour sa boutique virtuelle ?

    Le métavers, comme nous l’avons expliqué, c’est la combinaison de la réalité virtuelle, des jeux vidéo, des réseaux sociaux et des cryptomonnaies, propices à la spéculation. En termes de risques de comportements addictifs, c’est un cocktail explosif ! L’immersion, la déconnexion du réel, l’envie de ne pas finir sur un échec ou de prolonger sa chance au jeu, la nouveauté permanente, la peur de passer à côté de quelque chose « d’important » pendant qu’on est déconnecté et l’appât du gain risquent fort de générer des comportements toxiques pour les utilisateurs du métavers et pour leur entourage. En France, l’ANSES — qui étudie depuis plusieurs années l’impact des technologies numériques sur la santé[1] — risque d’avoir du travail. De nouvelles formes de harcèlement ont aussi été signalées dans des métavers, particulièrement violentes du fait de leur caractère immersif et temps réel. En réponse, Meta a récemment mis en place dans Horizon World et Horizon Venues une mesure de protection qui empêche les avatars de s’approcher à moins d’un mètre de distance. D’autres mesures et réglementations devront-elles être mises en place ?

    On a vu se développer sur le web et les réseaux sociaux des mécanismes de collecte de données personnelles, de marketing ciblé, de manipulation de contenus, de désinformation, etc.  S’il devient le lieu privilégié de nos activités en ligne et que celles-ci se diversifient, ne risquons-nous pas d’exposer une part encore plus importante de nous-même ? Si ces activités sont de plus en plus sociales, regroupées dans un univers unique et matérialisées (si on peut dire) à travers nos avatars, ne seront-elles pas observables par un plus grand nombre d’acteurs ? Faudra-t-il jongler entre différents avatars pour que nos collègues de travail ne nous reconnaissent pas lors de nos activités nocturnes ? Pourra-t-on se payer différents avatars ? Quel sera l’équivalent des contenus publicitaires aujourd’hui poussés sur le web ? Des modifications significatives et contraignantes de l’environnement virtuel ? « Ce raccourci vers votre groupe d’amis vous permettant d’échapper à un tunnel de panneaux publicitaires vous est proposé par Pizza Mario, la pizza qu’il vous faut » Les technologies chaîne de blocs (blockchain en anglais) permettront-elles au contraire de certifier l’authenticité de messages ou d’expériences et d’empêcher leur altération ?

    Lors de la rédaction de ce texte, nous avons souvent hésité entre « le métavers » et « les métavers ». Dans la littérature comme dans la vidéo d’annonce de Facebook/Meta, le concept est présenté comme un objet unique en son genre, mais on imagine assez facilement des scénarios alternatifs, trois au moins, sans compter des formes hybrides. Le premier est celui d’une diversité de métavers sans passerelle entre eux et dont aucun ne s’imposera vraiment parce qu’ils occuperont des marchés différents. C’est la situation du web actuel (Google, Meta, Twitter, Tik Tok et autres sont plus complémentaires que concurrents), qui motive en partie les promoteurs du Web3. Le deuxième scénario est celui d’un métavers dominant largement les autres. Celui-ci semble peu probable à l’échelle planétaire, ne serait-ce qu’à cause de la confrontation USA – Chine (– Europe ?). Le troisième scénario est celui d’une diversité de métavers avec un certain niveau d’interopérabilité technique et existant en bonne harmonie. Il n’est pas certain que ce soit le plus probable : l’interopérabilité est souhaitable mais sera difficile à atteindre. Nous pensons plutôt que c’est le premier scénario qui s’imposera. La diversité, donc le choix entre différents métavers, est une condition nécessaire tant à l’auto-détermination individuelle qu’à la souveraineté collective.

    Qui va réguler les métavers ? Dans le monde du numérique, les normes prennent parfois du temps à s’établir et n’évoluent pas nécessairement très vite. Quand il s’agit de normes techniques, ce n’est pas un problème : le protocole HTTP est resté figé à la version 1.1 de 1999 à 2014, et cela n’a pas empêché le développement du web. Quand il s’agit de réguler les usages, les comportements, ce peut être plus problématique. Jusqu’ici, on peut s’en réjouir ou s’en désoler, le secteur du web a été peu régulé. Ceux qui définissent les règles sont souvent les premiers joueurs, qui sont en fait les premiers possédant les moyens de jouer, c’est à dire les grands acteurs du web aujourd’hui. Si demain, une partie de nos activités personnelles et professionnelles se déroule dans des métavers créés par eux sur la base d’infrastructures matérielles et logicielles extra-européennes, quels seront le rôle et la pertinence dans ces mondes des états européens ? Si ces mondes sont créés par des collectifs transcontinentaux et autogérés par des individus, la situation sera-t-elle plus favorables à ces états ?

    Enfin, mais ce n’est pas le moins important, d’un point de vue beaucoup plus pragmatique et à plus court terme, on peut s’interroger sur la pertinence de se lancer dans le développement de métavers au moment où nous sommes déjà tous confrontés aux conséquences de nos activités sur l’environnement. Le tourisme virtuel aidera peut-être à réduire notre empreinte carbone, mais le coût écologique lié à la mise en œuvre des métavers (réalité virtuelle, réseaux haut-débit, chaîne de blocs, etc.) ne sera-t-il pas supérieur aux économies générées ? Le bilan devra bien sur tenir compte des usages effectifs des métavers, de leur utilité et de leur impact positif sur la société.

    Pour conclure

    Ni enfer, ni paradis par construction, les métavers présentent des facettes tant positives que négatives, à l’image de beaucoup d’autres innovations technologiques (comme l’intelligence artificielle, par exemple). Nous avons tendance à surestimer l’impact des nouvelles technologies à court-terme et à sous-estimer leur impact à long-terme, c’est la loi d’Amara. Les métavers tels qu’on nous les décrits seront sans doute difficiles à mettre en œuvre. Rien ne dit que ceux qui essaieront y arriveront, que les environnements produits seront massivement utilisés, qu’ils le resteront dans la durée ou que nous pourrons nous le permettre (pour des raisons environnementales, par exemple). Les choses étant de toute manière lancées et les investissements annoncés se chiffrant en milliards d’euros, on peut au minimum espérer que des choses intéressantes résulteront de ces efforts et que nous saurons leur trouver une utilité.

    Alors que faire ? Rester passifs, observer les tentatives de mise en œuvre de métavers par des acteurs extra-européens, puis les utiliser tels qu’ils seront peut-être livrés un jour ? S’y opposer dès à présent en considérant que les bénéfices potentiels sont bien inférieurs aux risques ? Nous proposons une voie alternative consistant à développer les réflexions sur ce sujet et à explorer de façon maîtrisée les possibles ouverts par les technologies sous-jacentes, en d’autres termes, à jouer un rôle actif pour tenter de construire des approches vertueuses, quitte à les abandonner – en expliquant publiquement pourquoi – si elles ne répondent pas à nos attentes. Nous sommes persuadés qu’une exploration menée de façon rigoureuse pour évaluer des risques et des bénéfices est nettement préférable à un rejet a priori non étayé.

    Pascal Guitton (Université de Bordeaux & Inria) & Nicolas Roussel (Inria)

    [1] Voir par exemple son avis récent sur les expositions aux technologies de réalité virtuelle et/ou augmentée

    Références additionnelles (*)

    Quelques émissions, interviews ou textes récents :

     

    Deux articles de recherche illustrant des approches très différentes des environnements virtuels collaboratifs :

     

    • Solipsis: a decentralized architecture for virtual environments (D. Frey et al., 05/11/2008)
      https://hal.archives-ouvertes.fr/inria-00337057
    • Re-place-ing space: the roles of place and space in collaborative systems (S. Harrison & P. Dourish, 03/12/96)
      https://www.dourish.com/publications/1996/cscw96-place.pdf

    Deux fictions dans lesquelles on parle d’onirochrone et de cyberespace :

     

    Et aussi : https://estcequecestlanneedelavr.com

    (*) en plus de celles pointées par des liens dans le texte de l’article

  • Le plus gros bug de l’histoire !

    Un bug ne se manifeste pas nécessairement dès l’instant où il est dans un système. Les bugs les plus discrets sont d’ailleurs souvent les plus dangereux. Quand ils surgissent, la catastrophe peut être terrible comme celle d’Ariane 5 en 1996, qu’on a qualifiée de bug le plus cher de l’histoire. Plus rares, il y a des bugs dont l’effet nuisible n’apparaît que lentement et progressivement, sans qu’on ose ou puisse les corriger et dont les conséquences désastreuses s’empirent jusqu’à devenir gravissimes. Celui dont nous parle ici Jean-Paul Delahaye est de ce type. Serge Abiteboul, Thierry Viéville.

    Il s’agit du bug dans le protocole de distribution de l’incitation du réseau Bitcoin, la fameuse cryptomonnaie. On va voir qu’il est bien pire que celui d’Ariane 5.

    Pour que le réseau Bitcoin fonctionne et fasse circuler en toute sécurité l’argent auquel il donne vie, il faut que des volontaires acceptent de participer à sa surveillance et à la gestion des informations importantes qu’il gère et qui s’inscrivent sur une « chaîne de pages », ou « blo

    Explosion du vol 501 d’Ariane V du à un bug informatique ©ESA.int

    ckchain ». Une rémunération a donc été prévue pour récompenser ces volontaires, appelés validateurs. Elle provient de nouveaux Bitcoins créés ex-nihilo et est distribuée toutes les 10 minutes environ à un et un seul des validateurs. Qu’il n’y en ait qu’un à chaque fois n’est pas grave car dix minutes est un intervalle court et donc la récompense est distribuée un grand nombre de fois — plus de 50000 fois par an. Reste que distribuer cette incitation pose un problème quand les ordinateurs ne sont pas obligés d’indiquer qui les contrôle, ce qui est le cas du réseau Bitcoin où tout le monde peut agir anonymement en utilisant des pseudonymes ou ce qui revient au même un simple numéro de compte.

    Distribuer l’incitation par un choix au hasard qui donne la même chance à chaque validateur d’être retenu serait une solution parfaite si tout le monde était honnête. Ce n’est pas le cas bien sûr, et un validateur pourrait apparaître sous plusieurs pseudonymes différents pour augmenter la part de l’incitation qu’il recevrait avec un tel système. Avec k pseudonymes un validateur tricheur toucherait l’incitation k fois plus souvent que les validateurs honnêtes. S’il apparaît sous mille pseudonymes différents, il toucherait donc mille fois plus qu’un validateur honnête… qui ne le resterait peut-être pas. Le réseau serait en danger. En langage informatique, on appelle cela une « attaque Sybil » du nom d’une patiente en psychiatrie qui était atteinte du trouble des personnalités multiples ou trouble dissociatif de l’identité. Plusieurs solutions sont possibles pour empêcher ces attaques, et le créateur du protocole Bitcoin dont on ne connait d’ailleurs que le pseudonyme, Satoshi Nakamoto, en a introduite une dans son système qu’au départ on a jugée merveilleuse, mais dont on a compris trop tard les conséquences désastreuses. Ces conséquences sont si graves qu’on peut affirmer que le choix de la méthode retenue et programmée par Nakamoto pour contrer les attaques Sybil est un bug.

    Sa solution est « la preuve de travail » (« Proof of work » en anglais). L’idée est simple : on demande aux validateurs du réseau de résoudre un problème arithmétique nouveau toutes les dix minutes. La résolution du problème exige un certain temps de calcul avec une machine de puissance moyenne, et elle ne s’obtient qu’en cherchant au hasard comme quand on tente d’obtenir un double 6 en jetant de manière répétée deux dés. Le premier des validateurs qui résout le problème gagne l’incitation pour la période concernée. Toutes les dix minutes un nouveau problème est posé permettant à un validateur de gagner l’incitation.

    Si tous les validateurs ont une machine de même puissance les gains sont répartis équitablement entre eux, du moins sur le long terme. Si un validateur utilise deux machines au lieu d’une seule pour résoudre les problèmes posés, il gagnera deux fois plus souvent car avec ses deux machines c’est comme s’il lançait deux fois plus souvent les dés que les autres. Cependant c’est acceptable car il aura dû investir deux fois plus que les autres pour participer ; son gain sera proportionné à son investissement. Il pourrait gagner plus souvent encore en achetant plus de machines, mais ce coût pour multiplier ses chances de gagner l’incitation impose une limite. On considère que ce contrôle des attaques Sybil est satisfaisant du fait que les gains d’un validateur sont fixés par son investissement. Il faut noter que celui qui apparaît avec k pseudonymes différents ne gagne rien de plus que s’il apparait sous un seul, car les chances de gagner sont proportionnelles à la puissance cumulée des machines qu’il engage. Qu’il engage sa puissance de calcul sous un seul nom ou sous plusieurs ne change rien pour lui. Avec la preuve de travail, il semble que la répartition des gains ne peut pas être trop injuste car si on peut améliorer ses chances de gagner à chaque période de dix minutes, cela à un coût et se fait proportionnellement à l’investissement consenti.

    Une usine de minage de bitcoin avec ces immense salles remplies d’unités de calcul ©AndreyRudakov/Bloomberg

    Le réseau bitcoin fonctionne selon le principe de la preuve de travail. Au départ tout allait bien, les validateurs se partageaient les bitcoins créés et mis en circulation à l’occasion de chaque période, sans que cela pose le moindre problème puisque leurs machines avaient des puissances comparables et que personne n’en utilisait plusieurs pour augmenter ses chance de gagner. La raison principale à cette situation est qu’en 2009 quand le réseau a été mis en marche, un bitcoin ne valait rien, pas même un centime de dollar. Investir pour gagner un peu plus de bitcoins n’avait pas d’intérêt. Cependant, petit à petit, les choses ont mal tourné car le bitcoin a pris de la valeur. Il est alors devenu intéressant pour un validateur de se procurer du matériel pour gagner plus souvent les concours de calcul que les autres. Plus la valeur du bitcoin montait plus il était intéressant de mettre en marche de nombreuses machines pour augmenter ses gains en gagnant une plus grande proportion des concours de calcul. Une augmentation de la capacité globale de calcul du réseau s’est alors produite. Elle n’a pas fait diminuer le temps nécessaire pour résoudre le problème posé chaque dix minutes, car Nakamoto, très malin, avait prévu un mécanisme qui fait que la difficulté des problèmes soumis s’ajuste automatiquement à la puissance totale du réseau. Depuis 2009, il faut dix minutes environ pour qu’un des ordinateurs du réseau résolve le problème posé et gagne l’incitation, et cette durée n’a jamais changée car le réseau est conçu pour cela.

    Du bitcoin à la blockchain : dans ce double podcast Jean-Paul prend le temps d’expliquer comment ça marche aux élève de l’enseignement SNT en seconde et au delà.

    Les validateurs associés parfois avec d’autres acteurs spécialisés dans la résolution des problèmes posés par le réseau — et pas du tout dans la validation — ont accru leurs capacités de calcul. La puissance cumulée de calcul du réseau a en gros été multipliée par dix tous les ans entre 2010 et maintenant. C’est énorme !

    Les spécialistes de la résolution des problèmes posés par le réseau sont ce qu’on nomme aujourd’hui les « mineurs » : ils travaillent pour gagner des bitcoins comme des mineurs avec leurs pioches tirent du minerai du sous sol. Il faut soigneusement distinguer leur travail de celui des validateurs : les validateurs gèrent vraiment le réseau et lui permettent de fonctionner, les mineurs calculent pour aider les validateurs à gagner l’incitation. Si parfois des validateurs sont aussi mineurs, il faut bien comprendre que deux type différents de calculs sont faits : il y a le travail de validation et le travail de minage.

    Entre 2010 et maintenant, la puissance du réseau des mineurs a été multipliée par 1011, soit 100 milliards. L’unité de calcul pour mesurer ce que font les mineurs est le « hash ». En janvier 2022, on est arrivé à 200×1018 hashs pas seconde, soit 200 milliards de milliards de hashs par seconde, un nombre colossal.

    Bien sûr les machines utilisées ont été améliorées et on a même fabriqué des circuits électroniques pour calculer rapidement des hashs, et on les perfectionne d’année en année. Cependant, et c’est là que le bug est devenu grave, même en dépensant de moins en moins d’électricité pour chaque hash calculé, on en a dépensée de plus en plus, vraiment de plus en plus ! La logique économique est simple : plus le cours du bitcoin est élevé —il s’échange aujourd’hui à plus de 30 000 euros— plus il vaut la peine d’investir dans des machines et d’acheter de l’électricité dans le but de miner car cela permet de gagner plus fréquemment le concours renouvelé toutes les dix minutes, et cela rentabilise les investissements et dépenses courantes du minage.

    Une concurrence féroce entre les mineurs s’est créée, pour arriver en 2022 à une consommation électrique des mineurs qu’on évalue à plus de 100 TWh/an. La valeur 50 TWh est un minimum absolument certain, mais 100 TWh/an ou plus est très probable. Sachant qu’un réacteur nucléaire de puissance moyenne produit 8 TWh/an, il y a donc l’équivalent de plus de 12 réacteurs nucléaires dans le monde qui travaillent pour produire de l’électricité servant à organiser un concours de calcul qui fixe toutes les dix minutes quel est le validateur qui gagne l’incitation. Je me permets d’insister : l’électricité n’est pas dépensée pour le fonctionnement en propre du réseau, mais uniquement pour désigner le validateur gagnant. Quand on étudie le fonctionnement du réseau bitcoin, on découvre qu’il y a au moins mille fois plus d’électricité dépensée par le réseau pour choisir le gagnant toutes les dix minutes, que pour son fonctionnement propre. S’il dépense beaucoup, c’est donc à cause de la preuve de travail, pas à cause de sa conception comme réseau distribué et bien sécurisé permettant la circulation des bitcoins.

    Est-ce que cette situation justifie vraiment de parler de bug ? Oui, car il existe d’autres solutions que la preuve de travail et ces autres solutions n’engendrent pas cette dépense folle d’électricité. La solution alternative la plus populaire dont de multiples variantes ont été proposées et mises en fonctionnement sur des réseaux concurrents du bitcoin se nomme « la preuve d’enjeu ». Son principe ressemble un peu à celui de la preuve de travail. Les validateurs qui veulent avoir une chance de se voir attribuer l’incitation distribuée périodiquement, engage une somme d’argent en la mettant sous séquestre sur le réseau où elle se trouve donc bloquée temporairement. Plus la somme mise sous séquestre est grande plus la probabilité de gagner à chaque période est grande. Comme pour la preuve de travail, avec la preuve d’enjeu il ne sert à rien de multiplier les pseudonymes car votre probabilité de gagner l’incitation sera proportionnelle à la somme que vous engagerez. Que vous le fassiez en vous cachant derrière un seul pseudonyme, ou derrière plusieurs ne change pas cette probabilité. Quand un validateur souhaite se retirer, il récupère les sommes qu’il a engagées ; ce qu’il a gagné n’est donc pas amputé par des achats de machines et d’électricité.

    Cette méthode ne provoque pas de dépenses folles en électricité et achats de matériels, car il n’y en a pas ! Avec des configurations équivalentes de décentralisation et de sécurisation un réseau de cryptomonnaie utilisant la preuve d’enjeu dépensera mille fois moins d’électricité qu’un réseau utilisant la preuve de travail. Il y a une façon simple d’interpréter les choses. La preuve d’enjeu et la preuve de travail limitent toutes les deux les effets des attaques Sybil en distribuant l’incitation proportionnellement aux engagements de chaque validateur —soit du matériel de calcul et de l’électricité, soit un dépôt d’argent —. Cependant la preuve d’enjeu rend son engagement au validateur quand il cesse de participer, et donc rien n’est dépensé pour participer, alors que la preuve de travail consomme définitivement l’électricité utilisée et une partie de la valeur des matériels impliqués. En un mot, la preuve de travail est une preuve d’enjeu qui confisque une partie des sommes engagées et les brûle.

    Avoir utilisé la preuve de travail, avec les conséquences qu’on observe aujourd’hui est de toute évidence une erreur de programmation dans le protocole du réseau du bitcoin. Le bug n’est apparu que progressivement mais il est maintenant là, gravissime. Le plus terrible, c’est qu’une fois engagé avec la preuve de travail le réseau bitcoin est devenu incapable de revenir en arrière. Corriger le bug alors que le réseau est en fonctionnement est quasiment impossible.

    En effet, le pouvoir pour faire évoluer la façon dont fonctionne du réseau, ce qu’on appelle sa gouvernance, est aux mains de ceux qui disposent de la puissance de calcul pour le minage. Ils ont acheté du matériel, installé leurs usines, appris à se procurer de l’électricité bon marché, ils ne souhaitent pas du tout que la valeur de leurs investissements tombe à zéro. Ils ne souhaitent donc pas passer à la preuve d’enjeu. La correction du bug est donc devenue très improbable. Aujourd’hui le réseau Ethereum qui est le second en importance dans cette catégorie essaie malgré tout de passer de la preuve de travail à la preuve d’enjeu. Il a beaucoup de mal à le faire et il n’est pas certain qu’il y arrive. Du côté du bitcoin rien n’est tenté. Sans interventions extérieures, le bug du bitcoin va donc continuer à provoquer ses effets absurdes.

    Est-ce le plus gros bug de l’histoire ? Celui d’Ariane 5 a été évalué à environ 5 millions de dollars. Si on considère, ce qui semble logique, que tout l’argent dépensé en minage représente le coût du bug du bitcoin alors c’est beaucoup plus, puisqu’en ordre de grandeur le minage depuis 2009 a coûté entre 5 et 10 milliards de dollars et peut-être plus. Le piège économique qui est résulté du bug est d’une perversité peut-être jamais rencontrée.

    Jean-Paul Delahaye,  Professeur d’informatique à l’université Lille-I

    Au delà :

    + La preuve de travail a d’autres inconvénients que celui mentionné ici de dépenser inutilement en électricité la production d’une dizaine de réacteurs nucléaires. Ces autres inconvénients sont présentés dans un document qui peut être vu comme un complément à ce texte :
    Jean-Paul Delahaye, Les arguments en faveur de la preuve d’enjeu contre la preuve de travail pour les chaines de bloc, Institut Rousseau, février 2022.

    Une tribune intitulée «Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie » portant sur le problème de la régulation des cryptoactifs a été publiée par Le Monde le jeudi 10 février 2022. Vous pouvez en voir le texte avec la liste des signataires et éventuellement ajouter votre signature en allant en : https://institut-rousseau.fr/liste-des-signataires-tribune-regulation-cryptoactifs/

     

     

  • Impacts environnementaux du numérique : le Mooc

    Impact Num est un MOOC pour se questionner sur les impacts environnementaux du numérique, apprendre à mesurer, décrypter et agir, pour trouver sa place de citoyen dans un monde numérique.

    Ce MOOC  se donne pour objectif d’aborder l’impact du numérique sur l’environnement, ses effets positifs et négatifs, les phénomènes observables aujourd’hui et les projections que nous sommes en mesure de faire pour l’avenir. Il est à destination des médiateurs éducatifs et plus largement du grand public.

    Co-produit par Inria et Class’Code avec le soutien du Ministère de l’éducation nationale, de la jeunesse et des sports et d’Unit, ce cours a ouvert le 22 novembre 2021 ; vous pouvez dès à présent vous inscrire sur la plateforme FUN.

    Ce MOOC, c’est une trentaine d’experts du domaine, des vidéos didactiques et ludiques pour poser les enjeux, des activités interactives pour analyser, mesurer et agir, des fiches concept pour approfondir les notions.

    L’équipe de Class’Code

    Repris de https://pixees.fr/impacts-environnementaux-du-numerique-un-mooc-pour-se-questionner/

  • Odyssée urbaine autour de la transition numérique

    Nous vous invitons à partager les réflexions déambulatoires de Sylvain Petitjean et Samuel Nowakowski à l’occasion de la parution du livre « Demain est-il ailleurs ? Odyssée urbaine autour de la transition numérique ». La qualité de leurs échanges et de leurs questionnements sur l’impact du numérique dans notre société nous ont donné envie de les partager sur binaire. Avec l’aimable autorisation des auteurs et du site Pixees, nous republions l’intégralité de l’article. Marie-Agnès Enard et Thierry Vieville.

    Couverture du livre Demain est-il ailleurs ?

    Ce texte est un échange épistolaire qui s’est installé suite à la parution du livre «Demain est-il ailleurs ? Odyssée urbaine autour de la transition numérique» co-écrit par Bruno Cohen, scénographe, réalisateur et metteur en scène, et Samuel Nowakowski, maître de conférences à l’université de Lorraine et chercheur au LORIA.

    Paru en octobre 2020 chez FYP Editions, ce livre rassemble les rencontres avec celles et ceux qui vivent aujourd’hui cette transformation radicale. Au cours d’une déambulation de 24 heures dans la ville, les personnes rencontrées abordent les notions de temps, parlent du déséquilibre, de leurs incertitudes et du mal-être, mais aussi de leurs émerveillements et de leurs rêves. Elles questionnent des thèmes centraux de notre société que sont la surveillance, le contrôle, le développement d’un capitalisme numérique prédateur. Elles parlent aussi de cet ailleurs des pionniers qui s’est matérialisé dans nos sociétés en réseau, traversées par les nécessaires réflexions à mener sur l’éthique, l’écologie, l’apprentissage, la transmission et le rapport au savoir. Arpentant l’univers de la ville à la recherche de la transition, nous découvrons petit à petit qu’elle s’incarne sous différentes formes chez les uns ou les autres, dans l’espace public et privé, et dans tous les milieux au sein desquels nous évoluons — naturels, sociaux, politiques, éducatifs, technologiques…

    Sylvain Petitjean est l’une de ces personnes rencontrées. Sylvain est chercheur au centre Inria à Nancy. Il est également président du Comité opérationnel d’évaluation des risques légaux et éthiques (Coerle) chez Inria.

    Sylvain et Samuel ont souhaité poursuivre la conversation entamée dans le livre, ouvrant ainsi d’autres champs de réflexion. Cet échange s’est étalé sur plusieurs semaines, sous forme épistolaire, dans des conditions temporelles à rebours de l’urgence et de l’immédiateté ambiante. En voici le contenu.

    Samuel : L’éthique kantienne sur laquelle notre société moderne s’est construite, s’énonce ainsi : « Agis de telle sorte que tu puisses également vouloir que ta maxime devienne loi universelle ». Or aujourd’hui, au vu des enjeux, des transitions multiples auxquelles nous faisons face, ne sommes-nous pas devant un besoin de disposer d’une éthique basée sur le principe de responsabilité à l’égard des générations futures et de notre environnement. Hans Jonas énonce le Principe responsabilité : « Agis de telle façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur Terre ». Ce qui implique que le nouveau type de l’agir humain consiste à prendre en considération davantage que le seul intérêt « de l’homme » et que notre devoir s’étend plus loin et que la limitation anthropocentrique de toute éthique du passé ne vaut plus ?

    Dans le cadre du numérique, et de tout ce qui se présente à nous aujourd’hui en termes d’avancées scientifiques, dans le domaine qui est le nôtre, ne devons-nous pas repenser ce rapport au vivant et nos pratiques ?

     

    Sylvain : Il est vrai qu’il n’est plus possible de considérer que les interventions techniques de l’humain sur son environnement sont superficielles et sans danger, et que la nature trouvera toujours comment rétablir elle-même ses équilibres fondamentaux. La crise écologique et les menaces pesant sur l’humanité et la planète impliquent quasi naturellement, pour Jonas et d’autres, d’orienter l’agir vers le bien commun en accord avec notre sentiment de responsabilité. D’où la proposition de refonder l’éthique comme une éthique de la responsabilité et du commun capable d’affronter l’ampleur des problèmes auxquels fait face la civilisation technologique, pour le bien-être et la survie des générations futures.

    Les technologies du numérique présentent par ailleurs un autre défi de taille, probablement inédit, du point de vue de l’éthique. Cela a notamment trait à la logique grégaire associée à l’usage des services Internet : plus un service est utilisé par d’autres usagers, plus chacun trouve intéressant de l’utiliser parce qu’il peut en obtenir davantage d’informations et de contacts, créant un effet boule de neige. Cet «effet de multitude», comme l’ont baptisé les économistes, transforme en effet l’étendue et la nature des enjeux éthiques. Alors que l’éthique est usuellement un sujet qui arrive a posteriori du progrès, dès lors que des dérives sont constatées, il sera de plus en plus difficile, avec la démultiplication des possibilités et le changement d’échelle, d’être avec le numérique dans la réaction face à un problème éthique. En d’autres termes, les problématiques éthiques et juridiques vont devenir insolubles si on ne les traite pas en amont de la conception des technologies numériques (ethics by design). Cela dessine les contours d’une éthique plus proactive, en mesure d’accompagner de façon positive le développement et l’innovation.

    Malheureusement, nous n’en sommes vraisemblablement qu’aux balbutiements de l’étude et de la maîtrise de ces questions dans le domaine du numérique. Il suffit de faire un pas de côté en direction de la biomédecine et des biotechnologies et de mesurer le chemin parcouru autour des lois de bioéthique pour s’en convaincre. Or le temps presse…

     

    Samuel : Imprégnés de l’actualité qui est la nôtre, et en paraphrasant Tocqueville, « on ne saurait douter [qu’aujourd’hui] l’instruction du peuple serve puissamment [à la compréhension des enjeux de notre temps qu’ils soient politiques, technologiques, écologiques]. [N’en sera-t-il pas] ainsi partout où l’on ne séparera point l’instruction qui éclaire l’esprit de l’éducation qui règle les mœurs ? » La maîtrise de toutes ces questions ne doit-elle pas passer par cette nécessaire instruction du plus grand nombre ? Comment nous préserver du fossé qui risque de se creuser entre ceux qui sont instruits de ces enjeux et ceux qui n’y ont pas accès parce qu’ils font face à un horizon scolaire et social bouché ? Or, la méthode la plus efficace que les humains ont trouvée pour comprendre le monde (la science) et la meilleure façon qu’ils ont trouvée afin d’organiser le processus de décision collective (les modes démocratiques) ont de nombreux points communs : la tolérance, le débat, la rationalité, la recherche d’idées communes, l’apprentissage, l’écoute du point de vue opposé, la conscience de la relativité de sa place dans le monde. La règle centrale est d’avoir conscience que nous pouvons nous tromper, de conserver la possibilité de changer d’avis lorsque nous sommes convaincus par un argument, et de reconnaître que des vues opposées aux nôtres pourraient l’emporter.

    Malheureusement, à l’école, les sciences sont souvent enseignées comme une liste de « faits établis » et de « lois », ou comme un entraînement à la résolution de problèmes. Cette façon d’enseigner s’oppose à la nature même de la pensée scientifique. Alors qu’enseigner, c’est enseigner l’esprit critique, et non le respect des manuels ; c’est inviter les étudiants à mettre en doute les idées reçues et les professeurs, et non à les croire aveuglément.

    Aujourd’hui, et encore plus en ces temps troublés, le niveau des inégalités et des injustices s’est intensifié comme jamais. Les certitudes religieuses, les théories du complot, la remise en cause de la science et de la démocratie s’amplifient et séparent encore plus les humains. Or, l’instruction, la science et la pensée doivent nous pousser à reconnaître notre ignorance, que chez « l’autre » il y a plus à apprendre qu’à redouter et que la vérité est à rechercher dans un processus d’échange, et non dans les certitudes ou dans la conviction si commune que « nous sommes les meilleurs ».

    L’enseignement pour permettre [la compréhension des enjeux de notre temps qu’ils soient politiques, technologiques, écologiques] doit donc être l’enseignement du doute et de l’émerveillement, de la subversion, du questionnement, de l’ouverture à la différence, du rejet des certitudes, de l’ouverture à l’autre, de la complexité, et par là de l’élaboration de la pensée qui invente et qui s’invente perpétuellement. L’école se caractérise ainsi à la fois par la permanence et l’impermanence. La permanence dans le renouvellement des générations, le « devenir humain », l’approche du monde et de sa complexité par l’étudiant sur son parcours personnel et professionnel. L’impermanence, dans les multiples manières de « faire humain »… et donc dans les multiples manières d’enseigner et d’apprendre. Entre permanence et impermanence, la transition ?

     

    Sylvain : En matière d’acculturation au numérique et plus globalement d’autonomisation (empowerment) face à une société qui se technologise à grande vitesse, il faut jouer à la fois sur le temps court et le temps long. Le temps court pour agir, pour prendre en main, pour ne pas rester à l’écart ; le temps long pour réfléchir et comprendre, pour prendre du recul, pour faire des choix plus éclairés.

    Daniel Blake, ce menuisier du film éponyme de Ken Loach victime d’un accident cardiaque, se retrouve désemparé, humilié face à un simple ordinateur, point de passage obligé pour faire valoir ses droits à une allocation de chômage. Où cliquer ? Comment déplacer la souris ? Comment apprivoiser le clavier ? Ces questions qui semblent évidentes à beaucoup le sont beaucoup moins pour d’autres. La dématérialisation de la société est loin d’être une aubaine pour tous. Prenons garde à ce qu’elle ne se transforme pas en machine à exclure. L’administration — dans le film — fait peu de cas de ceux qui sont démunis face à la machine ; on peut même se demander si ça ne l’arrange pas, s’il n’y a pas une volonté plus ou moins consciente d’enfoncer ceux qui ont déjà un genou à terre tout en se parant d’équité via l’outil numérique. Daniel Blake, lui, veut juste pouvoir exercer ses droits de citoyen et entend ne pas se voir nier sa dignité d’être humain. De la fable contemporaine à la réalité de nos sociétés il n’y a qu’un pas. Réduire la fameuse fracture numérique, qui porte aujourd’hui encore beaucoup sur les usages, doit continuer d’être une priorité qui nécessite de faire feu de tout bois et à tous les niveaux. Et il faut absolument s’attacher à y remettre de l’humain.

    Mais ce n’est pas suffisant. Les politiques d’e-inclusion doivent aussi travailler en profondeur et dans le temps long. De même que l’on associe au vivant une science qui s’appelle la biologie (qui donne un fil conducteur permettant d’en comprendre les enjeux et les questions de société liées, et de structurer un enseignement), on associe au numérique une science qui est l’informatique. Pour être un citoyen éclairé à l’ère du numérique et être maître de son destin numérique, il faut pouvoir s’approprier les fondements de l’informatique, pas uniquement ses usages. « Il faut piger pourquoi on clique » disait Gérard Berry. Car si les technologies du numérique évoluent très vite, ces fondements et les concepts sur lesquels ils s’appuient ont eux une durée de vie beaucoup plus grande. Les maîtriser aujourd’hui, c’est s’assurer d’appréhender non seulement le monde numérique actuel mais aussi celui de demain. Y parvenir massivement et collectivement prendra du temps. Le décalage entre la culture informatique commune de nos contemporains et ce que nécessiteraient les enjeux actuels est profond et, franchement, assez inquiétant, mais sans surprise : la révolution numérique a été abrupte, l’informatique est une science jeune, il faut former les formateurs, etc.

    Conquérir le cyberespace passe aussi par le fait de remettre à l’honneur l’enseignement des sciences et des techniques, à l’image du renouveau dans les années cinquante impulsé par les pays occidentaux confrontés à la « crise du Spoutnik » et à la peur d’être distancés par les Soviétiques dans la conquête spatiale, comme le rappelle Gilles Dowek. Or la révolution scientifique et technologique que nous vivons est bien plus profonde que celle d’alors. Et il importe de commencer à se construire une culture scientifique dès le plus jeune âge, à apprendre à séparer le fait de l’opinion, à se former au doute et à la remise en cause permanente. « C’est dès la plus tendre enfance que se préparent les chercheurs de demain. Au lieu de boucher l’horizon des enfants par un enseignement dogmatique où la curiosité naturelle ne trouve plus sa nourriture, il nous faut familiariser nos élèves avec la recherche et l’expérimentation. Il nous faut leur donner le besoin et le sens scientifiques. […] La formation scientifique est — comme toute formation d’ailleurs, mais plus exclusivement peut-être — à base d’expériences personnelles effectives avec leur part d’inconnues et donc leurs risques d’échecs et d’erreurs ; elle est une attitude de l’esprit fondée sur ce sentiment devenu règle de vie de la perméabilité à l’expérience, élément déterminant de l’intelligence, et moteur de la recherche indéfinie au service du progrès. » Ces mots datent de 1957, au moment de la crise du Spoutnik ; ils sont du pédagogue Célestin Freinet qui concevait l’éducation comme un moyen d’autonomisation et d’émancipation politique et civique. Ils n’ont pas pris une ride. Continuité des idées, des besoins, des enjeux ; renouvellement des moyens, des approches, des savoirs à acquérir. Permanence et impermanence…

     

    Samuel : Tant d’années ! Tant de nouveaux territoires du savoir dévoilés ! Et toujours les mêmes questions, toujours le même rocher à hisser au sommet de la même montagne !

    Qu’avons-nous foiré ou que n’avons-nous pas su faire ? Ou plutôt, quelles questions n’avons-nous pas ou mal posées ?

    « S’il y a une chose qui rend les jeunes êtres humains allergiques à l’imagination, c’est manifestement l’école » ont écrit Eric Liu et Scott Noppe-Brando dans Imagination first. Alors que se passerait-il si l’école devenait pour les jeunes êtres humains une expérience vivante et valorisante ? Et si nous étions là pour les accompagner vers l’idée qu’il n’existe pas qu’une seule réponse, une seule manière d’être dans le monde, une seule voie à suivre ? Que faut-il faire pour que les jeunes êtres humains aient la conviction que tout est possible et qu’ils peuvent réaliser tout ce dont ils se sentent capables ?

    A quoi ressemblerait la société ?

    Alors, à rebours de l’imaginaire populaire dans lequel on imagine l’immuabilité des lieux et des choix effectués, comment agir pour favoriser l’émergence d’« agencements » comme chez Deleuze, ou encore d’« assemblages » suivant la notion empruntée à Bruno Latour ? Non pas une matrice dans laquelle nous viendrions tous nous insérer, mais en tant qu’acteurs ne cessant de se réinventer dans une création continue d’associations et de liens dans un « lieu où tout deviendrait rythme, paysage mélodique, motifs et contrepoints, matière à expression ». Chaque fois que nous re-dessinons le monde, nous changeons la grammaire même de nos pensées, le cadre de notre représentation de la réalité. En fait, avec Rutger Bregmann, « l’incapacité d’imaginer un monde où les choses seraient différentes n’indique qu’un défaut d’imagination, pas l’impossibilité du changement ».  Nos avenirs nous appartiennent, il nous faut juste les imaginer et les rendre contagieux. Nos transitions ne seraient-elles pas prendre déjà conscience que « si nous attendons le bon vouloir des gouvernements, il sera trop tard. Si nous agissons en qualité d’individu, ça sera trop peu. Mais si nous agissons en tant que communautés, il se pourrait que ce soit juste assez, juste à temps ».

    Pour cela, il nous faudra explorer la manière dont les acteurs créent ces liens, et définissent ce que doit être la société. Et la société est d’autant plus inventive que les agencements qu’elle fait émerger sont inventifs dans l’invention d’eux-mêmes.

    Des avenirs s’ouvrent peut-être, par une voie difficile et complexe nécessitant de traverser la zone, les ruines, les turbulences et les rêves. Nous pourrions imaginer essaimer l’essence vitale de cette planète, en proie à des destructions physiques et métaphysiques, pour faire renaître l’humanité, la vie, la flore et la faune dans les étoiles. Nous pourrions, avec d’autres, former le projet de partir à bord d’un vaisseau emportant dans ses flancs, outre des embryons humains et animaux, un chargement de graines, spécimens, outils, matériel scientifique, et de fichiers informatiques contenant toute la mémoire du monde et, plus lourd encore, le « poids considérable des rêves et des espoirs ».

    Ou alors nous pourrions tout simplement former un projet non pas de « revenir à l’âge de pierre [un projet] pas réactionnaire ni même conservateur, mais simplement subversif parce qu’il semble que l’imagination utopique soit piégée […] dans un futur unique où il n’est question que de croissance ». Ce projet que nous pourrions essayer de mener à bien « c’est d’essayer de faire dérailler la machine ». Ces quelques mots d’Ursula Le Guin nous rappellent que nos avenirs nous appartiennent et que nous avons le pouvoir d’imaginer, d’expérimenter de construire à notre guise et de jouer avec nos avenirs communs et individuels afin de commencer à désincarcérer le futur.

     

    Sylvain : Comment panser l’avant et penser l’après, alors que toutes les menaces semblent s’accélérer, alors que tous les risques semblent se confirmer ? Comment essayer de réinventer un futur véritablement soutenable ?

    Certains ingrédients sont connus : décroitre, renforcer la justice sociale, déglobaliser, réduire la pression sur les ressources naturelles, développer l’économie circulaire, etc. Je voudrais ici en évoquer deux autres, sous la forme d’un devoir et d’un écueil.

    Le devoir consiste à se dépouiller de cet « humanisme dévergondé » (C. Lévi-Strauss) issu de la tradition judéo-chrétienne et, plus près de nous, de la Renaissance et du cartésianisme, « qui fait de l’homme un maître, un seigneur absolu de la création », agissant envers plantes ou animaux « avec une irresponsabilité, une désinvolture totales » qui ont conduit à mettre la nature en coupe réglée et, en particulier, à la barbarie de l’élevage industriel. Quelque chose d’absolument irremplaçable a disparu nous dit Lévi-Strauss, ce profond respect pour la vie animale et végétale qu’ont les peuples dits « primitifs » qui permet de maintenir un équilibre naturel entre l’homme et le milieu qu’il exploite. Or « se préoccuper de l’homme sans se préoccuper en même temps, de façon solidaire, de toutes les autres manifestations de la vie, c’est, qu’on le veuille ou non, conduire l’humanité à s’opprimer elle-même, lui ouvrir le chemin de l’auto-oppression et de l’auto-exploitation. » L’ethnologue pose le principe d’une éthique qui ne prend pas sa source dans la nature humaine ethnocentrée mais dans ce qu’il appelle « l’humilité principielle » : « l’homme, commençant par respecter toutes les formes de vie en dehors de la sienne, se mettrait à l’abri du risque de ne pas respecter toutes les formes de vie au sein de l’humanité même ». Cette vision des droits dus à la personne humaine comme cas particulier des droits qu’il nous faut reconnaître aux entités vivantes, cet humanisme moral inclusif nous ramène immanquablement à notre point de départ, et à Jonas.

    L’écueil consiste à systématiquement réduire chaque problème humain (politique, social, environnemental) à une question technique à laquelle la technologie numérique apporte une solution, en traitant les effets des problèmes sans jamais s’intéresser à leurs causes et en négligeant les possibles déterminismes et biais qui la composent. « Si nous nous y prenons bien, je pense que nous pouvons réparer tous les problèmes du monde » fanfaronnait Eric Schmidt, président exécutif de Google, en 2012. Diminuer le CO2 ? Il y a une application pour ça ! E. Morozov montre bien les limites et effets pervers de cette idéologie qu’il appelle le « solutionnisme technologique », qui s’accompagne d’un affaiblissement du jeu démocratique et aboutit au triomphe de l’individualisme et de la marchandisation. « Révolutionnaires en théorie, [les technologies intelligentes] sont souvent réactionnaires en pratique. » Et elles s’attaquent bien souvent à des problèmes artificiels à force de simplification. « Ce qui est irréaliste, dit Naomi Klein, est de penser que nous allons pouvoir faire face à ces crises mondiales avec quelques minuscules ajustements de la loi du marché. C’est ça qui est utopique. Croire qu’il va y avoir une baguette magique technologique est ridicule. Cela relève de la pensée magique, portée par ceux qui ont un intérêt économique à maintenir le statu quo. » Il ne s’agit bien sûr pas d’éliminer la technologie de la boîte à outils de la résolution de problème. Il importe en revanche de dépasser l’optimisme béat et la quasi-piété en ses pouvoirs et de comprendre qu’elle n’est qu’un levier qui n’a du sens qu’en conjonction d’autres (Ethan Zuckerman). Il est urgent, au fond, de réhabiliter la nuance, la pluralité et la complexité dans le débat et de trouver une voie pour traiter les problèmes difficiles avec des solutions nouvelles selon une approche systémique.

    Demain est peut-être ailleurs, mais si l’humanité veut tenter un nouveau départ, les premiers pas vers le renouveau doivent être effectués ici et maintenant.

  • 5G : du côté des usages


    Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils considéraient les aspects techniques. Dans un deuxième, ils traitaient des craintes autour de la 5G. Dans ce dernier, ils adressent la question des applications de cette technologie.
    Cet article est en collaboration avec Theconversation France. Toute la série.

     

    Comme c’est souvent le cas avec l’arrivée d’une nouvelle technologie, comme ça a été souvent  le cas pour les générations de téléphonie cellulaire précédente, il est difficile de savoir quels seront les usages dominants, les “killer apps”. Pour le grand public et à court terme, la 5G servira surtout à éviter la saturation des réseaux 4G. Ce qui changera surtout ce sera l’arrivée d’applications autour de la vidéo et des jeux en réseaux s’appuyant sur des débits plus importants et une faible latence. La différence ne sera pas si évidente. C’est principalement le débit qui s’exprime dans ce contexte avec la 5G en 3.5 GHz.

    Mais la 5G c’est aussi une plus faible latence (en particulier, avec la 26 GHz) et des garanties de service. Nous pensons que les usages les plus disruptifs seront plus que pour les générations précédentes à chercher du côté professionnel, notamment du côté des usines.

    L’usine connectée, Source Arcep

    L’usine connectée. Un plateau de fabrication consiste aujourd’hui en des machines connectées par des kilomètres de câble. La moindre transformation d’une chaîne de production demande de repenser la connectique, une complexité qui disparaît avec la 5G. La maintenance, notamment prédictive, et la logistique, sont également simplifiées parce que le suivi des machines et de la production se font beaucoup plus simplement avec des garanties de latence satisfaisante. La 5G est au cœur de l’industrie 4.0.

    Bien sûr, elle a des concurrents comme le Wifi. Mais la plus grande latence, la moins bonne fiabilité (l’absence de garantie de service) du Wifi même de dernière génération fait souvent pencher la balance en faveur de la 5G dans un cadre industriel. Une différence, même réduite en apparence, peut conduire à l’accident industriel.

    En France, l’usage de la 5G pour les usines a été expérimenté sur le site de Schneider Electric du Vaudreuil, dans l’Eure.

    Logistique. La 5G est aussi un élément essentiel d’une logistique plus automatisée dans l’industrie ou dans les territoires. Le premier enjeu est celui de l’optimisation et du suivi du transport des matières premières comme des produits fabriqués utilisant toutes les possibilités des objets connectés et de l’informatique. La 5G devrait permettre de mieux gérer les flux, les performances (délais de livraisons) tout comme l’impact environnemental (émissions de gaz à effet de serre).

    Le port du Havre a été le premier port français complètement connecté en 5G. La 5G permet une gestion fine des bateaux qui entrent ou sortent du port, en communication permanente. Il devrait aussi permettre un suivi en temps réel des cargaisons. La 5G ouvre toute une gamme d’applications comme le pilotage en temps réel d’un robot connecté qui nettoie les déchets marins en surface.

    Les territoires connectés. L’enjeu principal de la ville ou du territoire connecté est l’acquisition de données en temps réel via des réseaux de capteurs (comme de détecter l’arrivée d’une personne de nuit dans une rue mal éclairée), et la commande d’actionneurs (allumer les lampadaires de cette rue). Donc le territoire intelligent est informé et piloté avec la 5G. On imagine bien le déploiement massif d’objets connectés. Mais pour quoi faire ? Gérer les réseaux de distribution (eau, électricité, etc.), surveiller la pollution, détecter rapidement divers types d’alertes, améliorer le transport, etc. Le territoire intelligent peut aussi s’appuyer sur la 5G pour une télésurveillance de masse, mais ça, ça ne fait pas rêver.

    Avec la 5G, une question qui se pose très vite est celle de la rapidité d’adoption de la nouvelle technologie. Pour ce qui est de son déploiement dans des territoires intelligents, les deux auteurs ne partagent pas le même point de vue. Pour l’un, cela va arriver très vite, quand l’autre en doute. Les deux tombent d’accord pour dire qu’on ne sait pas trop et que cela dépendra en particulier de la maîtrise des aspects sécurité.

    Une agronome utilisant un ordinateur dans un champ de maïs.
    Crédit : ©adobestock via Arcep

    L’agriculture connectée. Les performances de la 5G en termes de densité d’objets connectés pourraient s’avérer très utiles dans l’agriculture.  Le succès n’est pas garanti. Dans de nombreux cas comme celui des capteurs de l’hydrologie de champs, les constantes de temps sont souvent importantes, deux ou trois fois par jour. Les acteurs semblent parfois préférer des solutions 0G comme Sigfox ou Lora. C’est moins vrai pour l’élevage et la situation pourrait changer avec le contrôle de robots qui débarqueraient massivement dans les campagnes. La sécurité est également dans ce domaine une question critique qui pourrait ralentir le déploiement de la 5G en agriculture.

    Médecine connectée. C’est souvent proposé comme un domaine d’application phare de la 5G. On n’est bien au-delà de la téléconsultation pour laquelle la 4G suffit souvent. L’hôpital, un lieu complexe et bourré de machines hyper-sophistiquées, est évidemment en première ligne. On a aussi assisté à des opérations chirurgicales à distance, par exemple, en 2019, sur une tumeur intestinale au Mobile World Congress à Barcelone. Le débit plus important et la faible latence rendent possibles de telles réalisations. Pourtant, dans le cadre de la chirurgie, une connexion filaire semble plus appropriée quand elle est présente.  Le diagnostic appuyé sur de la réalité virtuelle et augmentée pourrait être une belle application de la 5G, tout comme le suivi de patients utilisant des objets connectés comme les pompes à insuline ou les pacemakers. On voit bien que la fiabilité des communications et leur sécurité sont essentielles dans ce contexte.

    On trouve deux projets de 5G pour les CHU de Rennes et Toulouse dans le Plan France Relance.

    Les transports. Le fait d’avoir une faible latence permet à la 5G d’être prometteuse pour le contrôle en temps réel de véhicules. Un domaine en forte progression, le transport collectif, devrait en bénéficier. Bien sûr, la 5G a sa place dans les gares qui concentrent une population dense. La 5G en 26GHz est par exemple expérimentée dans la gare de Rennes. Le transport collectif utilise déjà massivement des communications entre ses trains et les infrastructures. La 5G devrait apporter une plus grande qualité avec notamment des garanties de délais.

    Pour l’automobile individuelle autonome, la situation est moins claire et les déploiements pourraient prendre plus de temps. (Les voitures autonomes testées aujourd’hui se passent en général de 5G.) La 5G pourrait s’installer dans les communications entre les véhicules et le reste du monde, le V2X (avec les autres véhicules et l’environnement). Dans ce cadre, elle est en concurrence avec un autre standard basé sur le Wifi. Les communications peuvent servir entre véhicules, par exemple, dans des “trains de camions” roulant à très faible distance l’un de l’autre sur l’autoroute. On imagine bien que toutes ces informations puissent réduire les risques d’accident, par exemple, en prévenant à l’avance le système d’une voiture de travaux sur la route ou de la présence de piétons ou de cyclistes.

    Wikimedia Commons

    Le V2X risque de prendre du temps pour s’installer pour plusieurs raisons. C’est d’abord la sécurité. Les spécialistes s’accordent à dire que les standards en développement ne sont pas sûrs, ce qui questionne évidemment. Et puis, des cadres de responsabilité légale en cas d’accident doivent être définis. Enfin, cette technologie demande des investissements lourds pour équiper les routes, et en particulier, les points névralgiques. On devrait donc la voir arriver à des vitesses différentes suivant les pays, et d’abord sur les axes routiers les plus importants. On peut aussi s’attendre à la voir débarquer dans des contextes locaux comme sur des tarmacs d’aéroports (véhicules pour les bagages ou le ravitaillement des avions) ou dans des ports (chargement et déchargement des cargaisons).

    Le futur réseau radio des secours passera par la 5G. Crédit : Service départemental d’incendie et de secours, Dordogne

    Et les autres. Cette liste ne se veut pas exhaustive. On aurait pu parler de smart grids, de service de secours, d’éducation, etc. Il faudra attendre pour voir où la 5G se déploie vraiment. Après ce tour d’horizon, on peut sans trop de doute se convaincre que la 5G révolutionnera de nombreux domaines, mais que cela ne se fera pas en un jour et que cela passera par la maîtrise des problèmes de fiabilité et de sécurité.

    Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France

     

    Pour aller plus loin

    La 5G et les réseaux de communications mobiles, rapport de l’Académie des sciences – 12 juillet 2021 –  Groupe de travail de l’Académie des sciences sur les réseaux du futur

    Parlons 5G : toutes vos questions sur la 5G, Arcep

    https://binaire.socinfo.fr/5g/

  • La 5G expliquée à Jules

    Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible cette notion de 5G. Marie-Agnès Enard et Pascal Guitton. 
    • – C’est vrai Mamie que de ton temps, avant Internet, les téléphones avaient des fils qui les reliaient au mur ?
    • – Oui mon grand. Et tout le monde n’avait pas le téléphone.
    • – Pourquoi ce fil ? Pour pas qu’on les vole ?
    • – Ne te moque pas ! La communication passait alors par les fils. Un jour, on est passé au téléphone cellulaire, au téléphone sans fil. La communication passe alors par les airs, en empruntant des ondes électromagnétiques.
    • – Comme un rayon lumineux ?
    • – Oui, sauf que les ondes du téléphone ne se voient  pas.

    La téléphonie sans fil

    Un téléphone cellulaire transforme la voix, un message audio, en une onde électromagnétique qui va jusqu’à une station radio. Pour la 1G, la station radio transforme ce message en un signal électrique analogique qui passe par un câble électrique pour aller rejoindre le correspondant. La représentation est analogique, c’est-à-dire qu’elle est proportionnelle à l’information du message initial, de la voix. Dans la 2G, la représentation consiste en une séquence de 0 et de 1, des nombres ; c’est pour ça qu’on dit que c’est numérique. C’est un message numérique qui est transporté dans le réseau de télécommunications. Avec la 2G, le réseau est devenu numérique.

    2G, 3G, 4G, 5G, Arcep

    • – Alors, Mamie, avec la 2G, on passe au numérique. Et après, on a la 3G, la 4G, la 5G. On n’est pas arrivé !
    • – La patience n’est pas ton point fort, mon petit Jules. C’est bon, j’accélère. La 2G, c’est vers 1990. En gros, tous les dix ans, les gens qui développent les technos de téléphones cellulaires se mettent d’accord pour faire un gros paquet cadeau avec tous les progrès techniques des dix dernières années. Avec le nouveau millénaire et la 3G, le téléphone nous a fait passer dans le monde d’Internet. Et avec la 4G, on a pu voir des vidéos en bonne définition.
    • – Et ce coup là, qu’apporte la 5G ?
    • – Plus de débit, une meilleure latence, plus de densité.

     

    Le débit, c’est la quantité de données qui peut passer dans une communication. Plus de débit, ça veut dire, par exemple, des films en plus haute définition.

    La latence, c’est le temps que met un message pour aller de mon téléphone au serveur, et revenir. Une meilleure latence va faciliter les jeux en réseaux, ou des conversations avec des hologrammes.

    La densité, c’est le nombre de connexions simultanées avec la station radio. On parle de millions d’objets au kilomètre carré.

     

    • – Je veux bien, mais concrètement, la 5G va changer quoi pour toi ? demande Jules.
    • – Euh… Pas grand chose. C’est l’arrivée de la 4G et de la fibre dans ma maison de la Creuse qui va me changer vraiment la vie. Bientôt !
    • – Et pour moi à Marseille ?
    • – Pas grand-chose non plus. Ça évitera que les réseaux soient saturés dans le centre ville.
    • – Alors pourquoi on cause tant de ce truc si ça change que dalle ?
    • – Parce que ça va transformer l’industrie, la gestion des villes et des régions, et peut-être la médecine, les transports collectifs. On ne sait pas encore à quel point, mais on s’attend à ce que ça change plein de trucs.
    • – Juste à cause du débit, de la latence, de la densité.
    • – Oui, parce que cela va permettre de développer de nouveaux services. Dans une usine par exemple, on n’aura plus besoin de tous ces câbles pour connecter les machines, les robots. Cela se fera en 5G. Et puis, il y a aussi d’autres innovations techniques dont je ne t’ai pas causé. Il y en a une que tu devrais aimer : le réseau en tranches de saucisson.
    • – Késaco ?
    • – On va pouvoir découper le réseau en tranches comme du saucisson. Ensuite, c’est comme si on avait plusieurs réseaux qu’on peut utiliser différemment. Une tranche pour des opérations médicales et une autre pour des jeux en réseau. Si tu t’éclates sur ton jeu, tu ne gênes pas le chirurgien du coin.
    • – Les jeux vidéo. Continue, Mamie, là tu m’intéresses.
    • – On se calme. Pour tes jeux, la 4G suffit bien.
    • – Alors, je n’ai pas vraiment besoin de te demander un téléphone 5G pour mon anniversaire ?
    • – Non, mon grand. La fabrication de téléphones, ce n’est pas bon pour la planète. Donc on essaie de ne pas en changer trop souvent. On reste sur le vélo pour ton anniversaire !

     

    Trafic de données consommées sur les réseaux mobiles, Arcep

    • – OK, mais Mamie, le voisin dit qu’il faut pas la 5G, que c’est dangereux pour la santé, que ça pourrit la planète, la vie, et tout. C’est vrai ?
    • – Mon grand. Ce n’est pas parce que quelque-chose est nouveau qu’il faut en avoir peur. Ce n’est pas non plus parce qu’une nouvelle techno arrive qu’il faut se précipiter.
    • – Oui mais je lui dis quoi au voisin ? Que c’est un gros nul ?
    • – On ne parle pas comme ça. Il a le droit de poser des questions. Ses questions ne sont pas sottes. Qu’est-ce que je te répète toujours ?
    • – Je sais Mamie. Il n’y a pas de questions idiotes, ce sont les réponses qui le sont souvent.
    • – C’est ça mon grand. Allez, on va causer avec Monsieur Michu !

    Après les salamalecs du bonjour, bonsoir, comment va Madame Michu, un café, non merci, pourquoi nous sommes venus vous voir, et tout…

    • – J’ai entendu dire que la 5G, c’était dangereux pour la santé ? démarre M. Michu.
    • – Aucune étude n’a permis d’établir un tel danger, ou alors à super haute dose, explique Mamie. Et pourtant, c’est un sujet qui a été hyper étudié par les scientifiques. On impose d’ailleurs des contraintes sévères sur les quantités d’ondes électromagnétiques autorisées, bien plus que ce que l’on sait dangereux pour la santé. Pour ce qui est des ondes électromagnétiques, on dit qu’il ne faut pas laisser les bébés jouer avec un téléphone cellulaire. Pour le reste, pas d’inquiétude.
    • – Il faut penser aux gens électro-sensibles. Non ?
    • – Ces personnes ont de vrais symptômes mais à chaque fois qu’on a essayé de lier cela aux ondes électromagnétiques, on n’y est pas arrivé. Comme elles souffrent bien, il faut  plus de recherche pour comprendre ce qui cause leurs problèmes. Mais, cela semble bien ne rien à voir avec les ondes électromagnétiques.
    • – Bon, je veux bien, admet Monsieur Michu. Mais il y a aussi des impacts énormes sur l’environnement. La 4G suffisait.
    • – La 4G consomme beaucoup plus d’électricité pour la même quantité de données ? Et elle est moins efficace. Les réseaux 4G saturaient en centre-ville et cela conduisait à multiplier les stations 4G. En restant avec la 4G on allait dans le mur.
    • – Alors pourquoi, ils disent que la 5G va conduire à une explosion de la consommation d’électricité ?
    • – C’est à cause de l’effet de rebond, explique Mamie. J’en ai parlé avec Jules. Il va nous l’expliquer.
    • – La 5G, raconte Jules, fier de ramener sa récente science, permet beaucoup plus de débit. Alors les gens vont se mettre à faire n’importe quoi, regarder des vidéos en super résolution dans les couloirs du métro ou jouer à des jeux vidéos au marché, et la consommation de données sur les téléphones portables va exploser. Et…
    • – On ne veut pas de ça ! Coupe Monsieur Michu. Non ?
    • – Oui, la vraie question, ce n’est pas s’il faut la 5G ou pas, propose Mamie. A mon avis, il faut la 5G pour les usines, pour les réseaux de transports, pour les villes intelligentes, etc. La vraie question, c’est qu’il ne faut pas faire n’importe quoi avec.
    • – Bon alors je peux m’acheter un téléphone 5G ? interroge Monsieur Michu.
    • – Votre téléphone est cassé ? C’est un vieux truc ? questionne Mamie.
    • – Pas du tout. Madame Michu m’en a acheté un tout neuf pour mon anniversaire, l’an dernier. Je ne sais pas encore trop bien m’en servir…
    • – Alors, pourquoi voulez-vous le changer ? C’est débile ! déclare Jules.
    • – On ne parle pas comme ça, corrige Mamie.
    • – Mais on vient d’expliquer qu’on ne devait pas faire n’importe quoi.

     

    Serge Abiteboul (*) et Thierry Viéville.

    Pour aller plus loin

     

    (*) Serge Abiteboul est membre du Collège de l’Arcep. Mais il participe à cet article à titre personnel.

     

  • Moins de déchets grâce aux systèmes multi-agents

    Avez-vous déjà jeté un ordinateur car la carte mère était cassée ou jeté un téléphone car l’écran était brisé ? Si oui, vous vous êtes peut-être demandé si on ne pouvait pas réutiliser des composants plutôt que de tout jeter. La réponse est que c’est possible, mais difficile. Mickaël Bettinelli effectue sa thèse au laboratoire LCIS de l’Université Grenoble Alpes, il vient nous expliquer dans binaire pourquoi la réutilisation des composants électroniques est un processus compliqué, et comment l’intelligence artificielle peut faciliter ce processus. Pauline Bolignano

    Photo de Mickael Bettinelli
    Mickael Bettinelli

    Les produits jetés au quotidien sont des produits qui ne remplissent plus leur rôle, souvent parce qu’une pièce cassée mais aussi parce que nous décidons de renouveler notre matériel électronique au profit de nouveaux produits plus performants. Certains composants de ces produits sont pourtant toujours fonctionnels. Par exemple, la batterie d’un téléphone âgé peut être la seule cause de la panne mais nous jetons l’ensemble du téléphone.

    Le recyclage répond partiellement au problème puisqu’il permet de récupérer les matériaux des produits que l’on jette. Malheureusement, tous les matériaux et tous les produits ne sont pas recyclés. Pire, en plus d’être un procédé coûteux, le recyclage ne permet pas toujours de récupérer tous les matériaux des produits que nous recyclons. Prenons l’exemple des batteries de véhicules électriques, on estime pouvoir n’en recycler qu’environ 65% à 93% [1] et cette récupération est complexe à mettre en œuvre. De plus, une batterie de véhicule électrique ne peut plus être utilisée dans l’automobile après 20% de perte de ses capacités. Nous nous retrouvons donc avec un grand nombre de batteries en bon état qui ne peuvent plus être utilisées dans leur application initiale et dont le recyclage est coûteux.

    C’est pourquoi de nombreuses études proposent de réutiliser ces batteries pour stocker les énergies renouvelables irrégulières comme l’énergie éolienne ou solaire [2]. Leur réutilisation nous permet à la fois de remplir un besoin et de maximiser l’utilisation des batteries. De manière plus générale, ce procédé est appelé le remanufacturing. C’est une pratique récente et encore peu développée qui consiste à démonter des produits jetés pour remettre à neuf et réintégrer leurs composants fonctionnels dans de nouvelles applications. Il s’agit par exemple de téléphones neufs qui ont été produits à l’aide de composants récupérés sur d’autres modèles défectueux. Puisque les produits remanufacturés n’utilisent pas que des composants neufs, ils ont l’avantage de coûter moins cher à la fabrication et à la vente, mais surtout, ils permettent d’économiser de l’énergie et des matériaux.

    Déchets éléctroniques – Image par andreahuyoff de Pixabay

    Face à la grande quantité et la diversité de composants dont nous disposons, il n’est pas évident pour un humain de les réutiliser au mieux durant le processus de remanufacturing. Aujourd’hui, les entreprises qui pratiquent le remanufacturing utilisent souvent un nombre de composants limité. Les employés peuvent donc les mémoriser et les réutiliser au besoin. Mais avec le développement du remanufacturing, le nombre de composants pourrait vite exploser, rendant l’expertise humaine inefficace à gérer autant de stock.

    Pour répondre à ce besoin, ma thèse se concentre sur la conception d’un système d’aide à la décision permettant d’élaborer de nouveaux produits à partir d’un inventaire de composants réutilisables. Un opérateur humain peut interagir avec le système pour lui demander de concevoir des produits possédant certaines caractéristiques physiques spécifiques. Une fois l’objectif entré dans le système, celui-ci cherche parmi les composants disponibles ceux qui sont utilisables pour répondre au besoin de l’utilisateur. Mais attention, les composants nécessaires à l’utilisateur ne sont pas forcément tous disponibles dans l’inventaire ! Il doit donc être capable de faire un compromis entre ce que veut l’utilisateur et ce qu’il peut réaliser.

    Pour réaliser ce système d’aide à la décision, nous nous aidons des systèmes multi-agents, un sous domaine de l’intelligence artificielle. Un système multi-agent est composé d’une multitude de programmes autonomes, appelés agents, capables de réfléchir par eux même et de communiquer ensemble. Comme chez les humains, leur capacité de communication leur permet de s’entraider et de résoudre des problèmes complexes. Dans le cadre de notre système d’aide à la décision, chaque composant de l’inventaire est représenté comme un agent. Leur problème va être de former des groupes dont l’ensemble des membres doit représenter un produit le plus proche possible de la demande utilisateur. Par exemple, si un utilisateur demande au système de lui concevoir un tout nouveau téléphone portable avec 64Go de mémoire, les agents qui représentent des composants mémoire vont former un groupe ensemble jusqu’à être le plus proche possible des 64Go. Ils peuvent ensuite s’assembler avec un écran, une batterie, un boîtier, etc. Une fois tous les composants du téléphone présents dans le groupe, le système d’aide à la décision peut proposer à l’utilisateur ceux qui ressemblent le plus à sa demande. Si l’utilisateur est satisfait, il peut alors acheter les composants proposés. Ces derniers iront ensuite à l’assemblage pour construire le produit physique.

    Avec le développement du remanufacturing, nous pouvons espérer que les produits soient conçus de manière à être réparés et leurs composants réutilisés. Dans ce cas, l’avantage de ce système d’aide à la décision sera sa capacité à gérer une grande quantité de composants issus d’une grande diversité de produits. On pourrait alors imaginer concevoir des produits en mêlant des composants issus d’objets très différents comme dans le cas de la réutilisation des batteries de véhicules électriques pour le stockage des énergies renouvelables, et ainsi réduire de plus en plus notre impact environnemental.

    Mickaël Bettinelli, doctorant au laboratoire LCIS de l’Université Grenoble Alpes, Grenoble INP.

    [1]  https://www.ademe.fr/sites/default/files/assets/documents/piles-accumulateurs-donnees-2018-rapport-annuel.pdf

    [2] DeRousseau, M., Gully, B., Taylor, C., Apelian, D., & Wang, Y. (2017). Repurposing used electric car batteries: a review of options. Jom, 69(9), 1575-1582.