Les systèmes d’Intelligence Artificielle sont souvent vus comme des systèmes d’aide à la décision. Est-ce que cela veut dire que l’on sait modéliser la décision ? Que l’on sait faire ou veut faire des machines qui décident comme des humains ? C’est en tout cas un sujet qui intéresse l’équipe Inria Mnemosyne de Fréderic Alexandre, spécialisée dans l’étude des fonctions cognitives supérieures par l’étude du cerveau, qui modélise les circuits cérébraux de la décision. Marie-Agnès Enard et Thierry Viéville.
Expliquons tout d’abord comment cette fonction cognitive qu’est la décision, est décrite en langage mathématique et comment nous la transcrivons et l’adaptons en circuits neuronaux. Nous tâcherons d’indiquer comment, pour un sujet de décision éco-responsable, ce point de vue est associé à celui d’autres disciplines pour innover dans l’aide à la décision. Nous évoquerons aussi la prise en compte de nos biais cognitifs, et comment les expliquer.
Mieux comprendre comment s’opèrent les choix dans notre cerveau et son fonctionnement, c’est ce que propose d’expliquer le neurobiologiste bordelais Thomas Boraud dans son dernier ouvrage.
Définir la décision sous l’angle des mathématiques
Décider de la validité d’une proposition, c’est recueillir des indices en faveur ou contre cette proposition, observer que l’accumulation de ces indices fait pencher la balance d’un coté ou de l’autre et, à un certain moment, trancher, c’est à dire penser qu’on a une vue assez représentative de la situation pour transformer cette oscillation entre deux pôles en une décision catégorique : oui ou non ou bien encore cette proposition est vraie ou fausse. Cet énoncé suggère plusieurs types de difficultés liées à la décision. Commençons par les plus évidentes. Premièrement, il faut avoir entendu, de façon équitable, les deux parties (le pour et le contre) et savoir évaluer chacun des arguments présentés pour les mettre sur une échelle commune et savoir les comparer. Deuxièmement, il faut avoir entendu assez longtemps les deux parties pour se faire un avis non biaisé, mais aussi, à la fin, il faut décider ; on ne peut pas rester tout le temps dans l’indécision. Il y a à trouver ici un compromis entre la vitesse et la justesse de la décision.
Pour ces deux types de difficultés, les mathématiques développent des outils intéressants. Certains sont proposés pour coder et comparer l’information de la façon la plus objective (la moins biaisée) possible. D’autres permettent de définir, pour un niveau de précision souhaité, le seuil optimal de différence entre les avis « Pour » et « Contre » qu’il faut atteindre avant de décider. Ces modèles mathématiques ont été mis en œuvre pour des tâches de décision perceptive élémentaires : vous voyez un nuage de points en mouvement et vous devez décider si, globalement, ces points vont plutôt à droite ou à gauche. Il est possible de rendre cette tâche très difficile en programmant le mouvement de chacun des points avec des fonctions en grande partie aléatoires, ce qui rend une décision locale impossible. Or on peut montrer que ces modèles mathématiques parviennent à reproduire très fidèlement la décision humaine, aussi bien dans ses performances que dans ses caractéristiques temporelles.
Ces modèles mathématiques sont également intéressants car, en les analysant, on peut observer les grandeurs et les phénomènes critiques au cours de la décision. Bien sûr, on trouve dans cette liste la détection de chaque indice, mais aussi leur accumulation, la différence entre les solutions alternatives, leur comparaison au seuil de décision, etc. Des études d’imagerie cérébrale permettent d’identifier les différentes régions du cerveau impliquées dans l’évaluation de chacun de ces critères et, au cours de la décision, l’ordre dans lequel ces régions sont activées. Notre équipe de recherche travaille dans la réalisation de réseaux de neurones artificiels qui, d’une part, calculent de façon similaire à ces modèles mathématiques et d’autre part, sont organisés selon une architecture globale reproduisant la circuiterie observée par imagerie et reproduisant également la dynamique d’évaluation. C’est à ce stade que nous pouvons constater que les modèles mathématiques évoqués plus haut ont un certain nombre de limitations et que nous pouvons modifier et adapter nos réseaux de neurones pour considérer des cas plus réalistes.
Quand les mathématiques ne suffisent plus
Au-delà, il nous faut considérer plus que des sciences formelles : des sciences humaines. Nous nous intéressons en particulier à trois types de limitation des modèles mathématiques.
– Premièrement, nous pouvons aller au-delà de ces modèles qui considèrent uniquement des décisions binaires (droite/gauche) en introduisant, dans les calculs neuronaux, des étapes de codage supplémentaires et des non-linéarités permettant de pouvoir considérer plusieurs catégories.
– Deuxièmement, les modèles mathématiques sont le plus souvent appliqués à des indices perceptifs alors que des arguments de nature différente peuvent être présentés pour emporter une décision (l’évocation de souvenirs ou de valeurs émotionnelles par exemple). Nous cherchons à bénéficier du fait que nos réseaux de neurones sont inscrits dans la circuiterie de l’architecture cérébrale et à étudier comment ajouter d’autres indices (mnésiques ou émotionnels) provenant d’autres aires cérébrales.
– Troisièmement, alors que nous avons parlé jusqu’à présent de décisions mathématiquement fondées (certains disent logiques ou rationnelles), il est connu que les humains sont soumis à différents types de biais quand ils font des jugements, ce qui laisse souvent penser que nous ne sommes pas rationnels.
En collaboration avec les sciences humaines et sociales qui étudient et décrivent ces biais, nous cherchons à montrer que nous pouvons les expliquer et les reproduire en manipulant certains paramètres de nos modèles. Nous prétendons aussi que ces biais ne montrent pas une faiblesse de notre jugement mais plutôt une orientation de ce jugement tout à fait pertinente pour un être vivant évoluant dans des conditions écologiques. Donnons quelques exemples. Au lieu d’intégrer tous les arguments de la même manière dans notre jugement, nous pouvons être soumis à un biais de récence ou de primauté, selon que les indices les plus récents ou les plus anciens vont jouer un rôle plus important dans la décision. Ce type de jugement, qu’on peut reproduire en modifiant certains paramètres internes du calcul neuronal, peut paraître plus adapté pour certaines situations avec des conditions changeantes (récence) ou stables (primauté). On sait par ailleurs que détecter ce type de conditions nous fait émettre des neurohormones qui modifient la nature du calcul neuronal en modifiant certains de leurs paramètres. Nous essayons de reproduire ces mécanismes dans nos modèles.
Un autre biais, appelé aversion au risque, fait que nous surestimons les indices défavorables par rapport aux indices favorables. Il a été montré expérimentalement en économie que les neurones qui codent les pertes et les gains ne sont pas soumis aux mêmes non-linéarités dans leurs calculs, ce que l’on sait simplement reproduire dans nos modèles. Ici aussi, on peut comprendre que, pour un être vivant qui ne fait pas que calculer des bilans financiers, il est judicieux d’accorder plus d’importance à ce qui peut nous nuire (et potentiellement nous blesser) qu’à ce qui est positif (et qu’on aura d’autres occasions de retrouver). De façon similaire, d’autres types de biais, appelés de référence ou de préférence, font que nous allons accorder plus d’importance à des indices faisant référence à un événement récent ou à une préférence personnelle. Ici aussi, introduire des mécanismes cérébraux connus de types mnésiques permet de reproduire ces phénomènes, dont l’intérêt adaptatif semble aussi clair. Enfin un dernier type de biais concerne la différence entre les valeurs que nous donnons à des situations et les valeurs que nous donnons aux actions pour les atteindre ou les éviter et que l’on connaît bien en addictologie : alors que l’on sait très bien que alcool, tabac et autres drogues sont mauvais pour nous, diminuer nos actions de consommation n’est pas forcément simple. On sait que dans le cerveau ces valeurs sont dissociées, autrement dit que nos actions ne reflètent pas toujours nos pensées.
L’équipe-projet Mnemosyne d’Inria commune avec le Labri et l’IMN à Bordeaux travaille sur la modélisation des fonctions cognitives du cerveau, de manière pluri-disciplinaire. (Crédit : Inria / Photo H.Raguet).
Une application concrète : aider à avoir un comportement plus éco-responsable
Avec l’aide de la Région Nouvelle Aquitaine, d’Inria et des universités de Bordeaux et de La Rochelle, nous sommes actuellement impliqués dans un projet visant à mieux comprendre les décisions humaines relatives au changement climatique et à la transition écologique. Il s’agit d’un sujet de décision visant à changer nos comportements. On peut constater que la plupart des biais mentionnés plus haut s’appliquent : est-on prêts à changer d’habitude maintenant (prendre le bus plutôt que la voiture) pour des résultats à long terme (modifier la température moyenne dans 30 ans) ? Quitter des comportements faciles et observés autour de soi (prendre sa voiture comme tout le monde) et mettre en œuvre nos convictions citoyennes (différence entre ce qu’on pense et ce qu’on fait) ? Etc.
Ce projet va nous permettre à la fois de recueillir des informations pour affiner nos modèles et de tester leurs prédictions en interagissant avec les utilisateurs. Pour cela, nous utilisons une application que des personnes volontaires auront installée sur leurs smartphones. Cette application les aide à choisir leur mode de transport pour aller travailler et les informe sur les caractéristiques éco-responsables de leurs choix. Nous aurons ainsi accès aux décisions qui auront été prises, en fonction des situations mais aussi des informations données. Nous avons l’espoir que cette approche nous permettra d’évaluer la pertinence et le poids de différents types d’arguments que nous aurons préparés en amont avec nos collègues des sciences humaines et sociales, reposant en particulier sur des hypothèses issues de nos modèles et sur des mécanismes supposés de la prise de décision.
Dans ce projet, nous avons orienté notre approche selon les convictions suivantes :
– D’une part, si nous savons bien décrire les caractéristiques de cette prise de décision et en particulier pourquoi et quand elle est difficile, nous pouvons proposer des mises en situations qui seront plus favorables à des prises de décision responsables.
– D’autre part, nous faisons également le pari du citoyen informé et proactif. Si nous décrivons ces mécanismes de décision, leurs biais et leur inscription cérébrale, cela peut permettre de déculpabiliser (ce sont des mécanismes biologiques à la base de ces biais) et de donner des leviers pour travailler sur nos processus mentaux et réviser nos modes de pensée.
Un nouvel « Entretien autour de l’informatique ». L’informatique joue un rôle essentiel en climatologie comme l’ont déjà expliqué à binaire Valérie Masson-Delmotte (Les yeux dans les nuages) et Olivier Marti (Le climat dans un programme informatique). Mais l’étude du climat est si essentielle qu’il mérite qu’on s’attarde sur le sujet. Dans un entretien réalisé par Serge Abiteboul et Claire Mathieu, Agnès Ducharne, Directrice de recherche au CNRS nous parle d’une autre facette de la climatologie. Elle est spécialiste de la modélisation de l’hydrologie des surfaces continentales et des interactions climat-végétation-sol. Elle nous raconte les liens intenses entre climat et hydrologie qu’elle étudie avec le numérique.
Agnès Ducharne, CNRS
B – Pouvez-vous nous raconter brièvement votre carrière ?
AD – J’étais une enfant curieuse, dans une famille pas du tout tournée vers les études. J’ai pu profiter de l’enseignement de la République, à l’école et au lycée. J’étais intéressée par les sciences, en particulier la biologie, et j’ai eu la chance de pouvoir entrer à l’École Normale Supérieure en biologie. J’y ai découvert l’écologie scientifique, ce qui a été une révélation pour moi. J’ai été emballée par la vision systémique des choses et une forme de syncrétisme entre des disciplines variées qu’apportent l’écologie.
Au moment de choisir un sujet de thèse, je m’intéressais aux liens entre déforestation et climat. J’ai rencontré Katia Laval, professeur de climatologie. Elle est devenue ma directrice de thèse et m’a orientée vers le climat et l’hydrologie continentale. Je m’y suis lancée à l’aveugle. J’ai appris en lisant et en parlant avec des gens. Ce qui caractérise mon parcours, c’est la curiosité et l’envie de comprendre les liens de la nature avec les sociétés humaines, le climat n’en étant qu’une composante. Je suis hydrologue, mais également climatologue. Tout le monde voit bien ce qu’est la climatologie, l’étude du climat. L’hydrologie, quant à elle, s’intéresse à l’eau, et plus précisément à l’eau continentale, à sa répartition spatiale et à sa dynamique temporelle. L’hydrologie dépend bien sûr du climat, par exemple les quantités de pluie. Mais, dans l’autre direction, la disponibilité en eau influence la végétation et le climat. La présence humaine est impactée par ce système hydro-climatique, mais elle le perturbe également, et c’est l’étude de ces interactions qui me motive depuis plus de 20 ans.
L’hydrologue, Saint Oma
B – Vous vous intéressez à l’évolution de l’hydrologie, sa situation dans le passé et les projections sur l’avenir ?
AD – C’est au cœur de ce que je fais. J’utilise des modèles numériques qui décrivent les propriétés physiques et biophysiques des bassins versants, dans le but de comprendre l’évolution de l’hydrologie. Pour certains usages, on peut se contenter de modèles du transfert de l’eau. Par exemple, pour dimensionner des ponts, des ouvrages, dans le cadre de plan de prévention des inondations, on s’intéresse à des événements extrêmes issus du passé. On utilise des observations du climat, de la topographie, de l’occupation des sols, pour reconstituer l’hydrologie correspondante et vérifier qu’une installation ne sera pas inondée trop souvent. On peut aussi tester avec ce genre de modélisation l’intérêt de mesures de prévention, par exemple de digues, en modifiant la topographie exploitée par le modèle, ou la position de l’installation.
Ce qui est essentiel dans la modélisation numérique de l’environnement, c’est qu’elle nous permet d’interpoler des observations incomplètes dans l’espace et le temps, sur la base de règles physiques et rationnelles. On essaie ainsi de reconstruire les évolutions du passé, mais aussi de quantifier l’importance relative des facteurs qui contrôlent les changements hydrologiques. Un de ces facteurs est le climat, qui change en ce moment, et parmi les questions que l’on se pose, il y a celle de savoir si d’autres facteurs peuvent amplifier les changements induits par le climat, ou au contraire les atténuer.
Si l’on prend l’occupation des sols par exemple : une forêt renvoie davantage d’eau de pluie sous forme d’évapotranspiration qu’une culture et encore plus qu’un parking, qui génère en contrepartie plus de ruissellement qu’une forêt. Si donc on combine imperméabilisation et intensification des pluies extrêmes, qui constitue une des signatures du réchauffement climatique, on augmente « doublement » les risques d’inondations. L’irrigation peut aussi modifier substantiellement l’hydrologie régionale. L’eau nécessaire pour irriguer les cultures est habituellement prise dans des cours d’eau à proximité ou dans des nappes souterraines. Il faut souligner que l’eau des nappes n’est pas statique, elle coule, en général vers les cours d’eau, donc quand on prend de l’eau, on détourne cette eau de sa destinée naturelle, les cours d’eau. Du coup, l’irrigation modifie considérablement le régime des cours d’eau. Dans le monde, les 3/4 des prélèvements d’eau dans les rivières et les nappes sont effectués pour l’irrigation. S’y ajoutent les prélèvements pour l’eau potable, ainsi que pour les activités industrielles, par exemple pour le refroidissement des centrales électriques ou des usines métallurgiques. On peut observer tous ces prélèvements d’eau quand on regarde l’évolution long-terme des débits des cours d’eau, qui diminuent dans de nombreux endroits de la planète. Dans les zones très irriguées comme l’Inde ou la Californie, la baisse des ressources en eau souterraine est même détectable depuis l’espace, par gravimétrie satellitaire.
Lit d’un cours d’eau intermittent, Ile de Naxos (Grèce), Avril 2019. Agnès Ducharne.
On peut aussi observer l’effet des barrages artificiels, qui réduisent la variabilité saisonnière des débits entre saison des pluies et saison sèche. Mais de nombreux barrages servent aussi pour l’irrigation, ce qui rajoute comme impact de diminuer le débit aval du cours d’eau. Un exemple archétypique est celui d’Assouan sur le Nil, qui a entrainé une baisse de débit d’un facteur 5 environ entre le début et la fin des années 1960, c’est-à-dire la période de construction du barrage. Croisée avec la croissance démographique dans la basse vallée du Nil, cette baisse pose désormais des problèmes d’accès à l’eau. Mais il faut garder en tête que cette croissance démographique a été permise par l’intensification de l’agriculture, elle-même permise par la possibilité d’irriguer en dehors des périodes de crue du Nil grâce au barrage. Cet exemple montre la multi-factorialité des problèmes liés à l’eau, pour lesquels il est rarement possible de trouver une solution optimale.
Dans ce cadre, les simulations numériques sont donc très utiles pour explorer toute une gamme de solutions. Le principe est d’informer et calibrer un modèle hydrologique avec l’ensemble des observations disponibles sur une période donnée, puis de s’en servir pour projeter des situations différentes, y compris dans le futur : Que se passerait-il si on accélérait la déforestation ? Voire si on supprimait toutes les forêts de la Terre entière ? Quelle différence de débits entre le climat actuel et le climat de 2100 ? Pour répondre à cette dernière question, les modèles hydrologiques doivent s’articuler avec des estimations du climat futur, fournies par des modèles climatiques.
B – Nous sommes de plus en plus conscients, collectivement, des problèmes soulevés par le dérèglement climatique. Avons-nous des raisons de nous inquiéter aussi pour l’eau ?
AD – Bien sûr. Climat et hydrologie sont très intimement liés. Regardons l’évolution du cycle de l’eau. La Terre se réchauffe, à cause de l’augmentation des gaz à effet de serre dans l’atmosphère, qui augmente le rayonnement infra-rouge renvoyé à la surface de la terre. Cette énergie supplémentaire favorise l’évaporation par les surfaces terrestres, tout comme le fait qu’une atmosphère plus chaude peut contenir plus de vapeur d’eau. Au contraire, l’augmentation CO2 a tendance à réduire l’évapotranspiration, car les plantes peuvent assimiler la même quantité de carbone par photosynthèse en ouvrant moins leurs stomates. Ces changements modifient la teneur en eau de l’atmosphère, ainsi que la répartition des précipitations et leur régime. Mais les processus impliqués sont complexes, variables dans le temps et l’espace, et il serait impossible d’estimer comment ils vont se manifester sans l’apport des modèles climatiques.
Grâce à ces outils, les climatologues ont trouvé que le cycle de l’eau s’intensifie à l’heure actuelle, si bien que dans les zones et périodes où il pleut beaucoup, il pleuvra encore plus avec le réchauffement. Par exemple, les crues cévenoles, ou les cyclones, sont appelés à devenir plus intenses ou plus fréquents. En parallèle, les zones et périodes sèches vont s’accroître en intensité et durée de sécheresse. En articulant modèles climatiques et hydrologiques, on retrouve ces tendances dans les cours d’eau et nappes souterraines, avec quelques modulations liées notamment aux temps de résidence plus importants dans les bassins versants que dans l’atmosphère.
B – A quelle échelle de temps ces changements vont-ils se réaliser ?
AD – Les échelles de temps sont les mêmes que celles qui sont explorées par les climatologues, avec des changements importants d’ici la fin du XXIe siècle, typiquement, mais qui sont déjà en cours.
B – Et pour ce qui est de la situation particulière de la France ?
AD – Tous les exercices prospectifs auxquels j’ai participé montrent malheureusement que pour le pourtour méditerranéen, qui fait notoirement partie des zones sèches de la planète, les choses vont empirer, c’est une quasi-certitude. De plus, ces zones sont en été largement alimentées par la fonte de la neige qui stocke l’eau temporairement à l’échelle d’une saison. À l’heure actuelle, cette fonte est plus forte qu’elle n’a été il y a 50 ans, ce qui compense les baisses de précipitation en cours qui sont encore assez faibles. Mais le réchauffement va se poursuivre, la quantité de neige va diminuer, et viendra un temps où cet effet de stockage saisonnier de précipitations hivernales pour être rendu en été aura disparu. Quand les glaciers auront fondu, l’absence de leur apport se rajoutera à l’effet direct sur les précipitations et augmentera la sécheresse hydrologique de ces zones méditerranéennes.
Ça c’est pour le sud. Quand j’ai commencé à travailler sur les impacts hydrologiques du changement climatique, au début des années 2000, on pensait par contre qu’en France, les zones plus au nord allaient être préservées. Ce sont des zones plutôt humides et les modèles climatiques indiquent qu’il y aura un accroissement des précipitations dans les zones les plus humides, mais malheureusement pas à l’échelle de la France. Ainsi, même au nord de la France, il faut s’attendre à une baisse sensible des précipitations, en tout cas l’été, et cela pose des questions d’adaptation pour l’agriculture et les écosystèmes, ainsi que les activités qui exploitent les cours d’eau et les nappes.
B – Est-ce que cela suggère des politiques publiques ? Peut-être des constructions de nouveaux barrages ?
AD – Oui. Mais les constructions de barrages sont contestées car quand on construit un barrage, on ne crée pas d’eau. En fait, un barrage joue un peu le même rôle que la neige : retenir de l’eau quand il y en a beaucoup, pour la redistribuer à d’autres moments. Remplacer les neiges qui disparaissent par des barrages ? Pourquoi pas, mais les barrages posent aussi des problèmes d’autre nature que purement hydriques, en altérant le transport sédimentaire dans les cours d’eau, et les conditions de vie des espèces aquatiques.
Surtout, pour quels usages est-ce qu’on réserverait ainsi cette eau ? C’est un problème qui n’est pas résolu. Quand une ressource est limitée, quelle qu’elle soit, c’est compliqué de l’attribuer de manière équitable à tous les gens qui en ont besoin, et qui prétendent tous en avoir besoin plus que leur voisin, sans compter les usagers muets comme les poissons. Il y a des gens qui travaillent sur ces questions, avec de la théorie des jeux par exemple. Mais actuellement, dans la pratique, c’est l’agriculture qui gagne. Et c’est vrai qu’on a besoin de manger. Néanmoins, quand les agriculteurs captent cette ressource, ils en privent tous les usagers aval. On le voit très nettement en France dans le sud-ouest, où il y a énormément de petites retenues, y compris des retenues sauvages. Quand on met une retenue à un endroit, on peut s’en servir à proximité, mais les usagers aval sont pénalisés. Cela peut être des écosystèmes naturels, mais aussi d’autres agriculteurs, ou les urbains, car les villes sont souvent en aval des bassins versants. On ne peut pas imaginer de généraliser ça sans mieux gérer la pénurie. Car comme les barrages ne créent pas d’eau, ils resteront désespérément vides en cas de sécheresses prolongées, comme on peut déjà le constater en Californie.
B – Cela milite pour une réflexion publique et le choix de critères pour gérer l’eau ?
AD – Oui. Il faut bien sûr garantir à l’agriculture un certain accès à l’eau mais en réfléchissant à la bonne façon d’utiliser cette eau. Il y a actuellement des aides pour l’agriculture irriguée. Ce n’est pas toujours une bonne idée. Par exemple, le maïs a besoin d’eau pendant la saison sèche en France : est-il raisonnable de continuer à le cultiver de manière intensive en France ?
Nos simulations mettent en évidence le problème des ressources en eau au cours du prochain siècle. Nous travaillons sur plusieurs scénarios de réchauffement, qui sont eux-mêmes contraints par plusieurs scénarios d’émission de gaz à effet de serre. Nos résultats montrent ainsi que pour éviter des conséquences désastreuses, il est indispensable de limiter les émissions de gaz à effet de serre dans l’atmosphère. Si on ne tient pas les engagements de l’accord de Paris, on aura un réchauffement supérieur à deux degrés. Il faut en tirer les conséquences. Cela risque de générer des conflits d’usage de l’eau. On parle souvent de tels conflits en Afrique ou au Moyen-Orient. Mais en France, aussi ! Et ce type de conflits ne se résout pas de manière pacifique, même en France. Le barrage de Sivens (*) n’en est qu’un avant-goût.
B – Quelle est la place de l’informatique dans votre travail ?
AD – L’informatique est au cœur de tout ce que je fais. Pour ce qui est du climat, les entretiens pour binaire de Valérie Masson-Delmotte et Olivier Marti insistent déjà sur l’utilisation de l’informatique. Je ne peux que confirmer cela dans le cadre de l’hydrologie. Nos modèles combinent la connaissance théorique que nous avons de l’environnement avec les observations variées qui sont collectées in situ et par satellite. Les équations se traduisent en un système complexe de lignes de code informatique qui, alimentés par des données, permet d’approcher le fonctionnement qu’on peut observer. Pour moi, la principale vertu d’un modèle numérique est de réaliser une synthèse intelligente des connaissances théoriques et des observations. Cela permet de comprendre ce qui se passe et mais aussi de réaliser des projections robustes d’évolutions futures sous différents scénarios. On peut ainsi contraster les conséquences hydrologiques de deux scénarios d’émission de gaz à effet de serre de manière quantitative.
B – Quelle confiance peut-on avoir dans les résultats ?
AD – La modélisation numérique présente évidemment des incertitudes mais on peut les quantifier. Comment s’y prend-t-on ? On travaille sur ce qui a été observé dans le passé. On vérifie si les modèles reproduisent correctement, par exemple, les débits observés. Typiquement, on calibre le modèle (on choisit ses paramètres) sur une partie des données et on valide avec les autres la robustesse du modèle et de ses paramètres. Cette étape de validation permet d’estimer une incertitude, une marge d’erreur, laquelle sert à proposer une marge d’erreur dans nos projections du futur. Si on est pointilleux, il faut ajouter que cette marge d’erreur est elle-même incertaine, car elle suppose que les erreurs du modèle seront les mêmes dans le climat futur que dans le climat passé, ce que rien ne garantit. Mais c’est une malédiction universelle quand on essaie d’imaginer ce qu’on ne peut pas observer. Et la confiance est renforcée par l’assise théorique des modèles.
Et puis, nous nous plaçons vraiment dans l’esprit des travaux du GIEC (**). Nous ne faisons pas des prévisions car nous ne savons pas quelles seront les émissions de gaz à effet de serre dans le futur. Nous réalisons des projections selon certains scénarios, qui correspondent à des hypothèses sur les facteurs d’évolution du climat ou de l’hydrologie. Ce qui est intéressant dans ce cadre, c’est de comparer deux scénarios, car on peut souvent conclure avec une bonne confiance que « celui-ci va être pire que l’autre » même en présence d’incertitude.
B – Est-ce que vous travaillez avec des informaticiens ?
AD – L’Institut Pierre-Simon Laplace où je travaille a développé son propre modèle du climat, qui intègre un modèle « des surfaces continentales », au sein duquel je travaille sur la composante hydrologique. Au total, une centaine de personnes travaillent sur le modèle de climat, dont des informaticiens. D’une part, ils nous aident avec les techniques numériques que nous utilisons. D’autre part, ils gèrent les logiciels ; ils définissent les environnements de développement logiciel et organisent les différentes composantes pour que le modèle soit plus performant, bien adapté aux calculateurs à notre disposition. Olivier Boucher pilote le développement scientifique et technique.
B – Qu’attendez-vous de vos doctorants, en termes de formation ? Et de formation en informatique ?
AD – On peut dire que, souvent, je forme d’autres moi-même. Comme moi, ce sont des spécialistes en environnement, des spécialistes en géologie, génie civil, ou agronomie. Quand ils arrivent, ils ne sont pas du tout aguerris en techniques numériques et n’ont pas de compétence particulière en programmation. Les étudiants d’aujourd’hui n’en connaissent pas plus en informatique que mes premiers étudiants. Je leur fais suivre des formations. Les outils que nous utilisons sont codés en Fortran, donc ils suivent des cours de programmation en Fortran. Il faut aussi qu’ils s’habituent à l’environnement logiciel mis en place par l’équipe technique. C’est indispensable pour la reproductibilité et la fiabilité des simulations. Et puis, quand ils arrivent, ils connaissent Windows. On les forme à l’operating system Unix. Ils apprennent à programmer en shell. C’est très formateur, cela leur permet de mieux comprendre ce qu’ils font. En général, ils aiment beaucoup ça. Ce qui a beaucoup changé pour la formation en informatique, ce sont les ressources en ligne. Ils se forment beaucoup tout seuls.
Mais il ne suffit de savoir réaliser ces simulations. Un grand pan de notre travail, c’est d’analyser leurs résultats, des fichiers avec des masses de données. Il y a des librairies spécialisées pour travailler ces données, en Python, Matlab, R, pour faire des statistiques, visualiser les données. Car une carte pour représenter des évolutions dans le temps sur des régions particulières, c’est plus parlant que des tableaux de chiffres !
B – Fortran, Unix, des environnements logiciels, Python, Matlab, analyse de données, visualisation. Pour des étudiants qui ne connaissaient pas a priori grand-chose en informatique… Et vous personnellement, est-ce que vous ne finissez pas par passer beaucoup de temps sur de l’informatique ?
AD – Comme je ne fais pas de terrain, oui, je passe beaucoup de temps devant un écran. Mes outils de travail favoris, ce sont ces modèles numériques de l’hydrologie. Au fond, je fais des expériences numériques.
Mais je participe aussi à des projets collaboratifs. J’ai des échanges par exemple avec des gestionnaires de l’eau. Ce sont des démarches itératives. Nous proposons des simulations et nous confrontons nos résultats avec leurs observations sur le terrain. Leurs opinions nous permettent de modifier nos modèles pour mieux décrire la réalité des choses. Par exemple, mon modèle actuel ne décrit pas l’irrigation comme on le souhaiterait et on a démarré actuellement une thèse sur ce sujet. Nos outils sont toujours des simplifications de la réalité. Par exemple, au début, on ignore des phénomènes du second ordre. Et puis, quand on est satisfait de notre capture du premier ordre, on essaie de modéliser le second ordre. Les observations de terrain, les spécialistes de terrain, nous aident à choisir nos pistes de recherche.
B – Y a-t-il une question que vous auriez aimé qu’on vous pose et qu’on n’a pas posée ?
AD – J’aurais aimé vous parler de modélisation spatiale du réseau hydrographique. Il s’agit d’utiliser des données et des méthodes numériques pour reconstituer les lignes bleues des cartes, y compris dans des zones où elles sont mal connues. Or c’est le cas un peu partout quand on remonte un fleuve vers ses sources. La source officielle de la Seine est sur le plateau de Langres, mais il y en a en fait une multitude d’autres : où sont-elles ?
Avec mon équipe, nous sommes partis de données topographiques de très haute résolution qui permettent de reconstituer numériquement les directions d’écoulement, donc les lignes bleues potentielles depuis toutes les crêtes. Puis nous avons proposé un modèle empirique pour raccourcir ces lignes potentielles, en fonction d’informations sur la géologie, la pente, et le climat. Nous avons calibré ce modèle dans des pays où les données hydrographiques sont précises comme la France ou l’Australie, avant de l’appliquer au monde entier. Et nous avons obtenu une densité de cours d’eau 10 fois supérieure à ce qui était connu. Grâce à ce travail, on connait beaucoup mieux les petits cours d’eau, qui sont souvent les plus sensibles au réchauffement climatique.
(*) Le barrage de Sivens est un projet abandonné de barrage sur le cours du Tescou, un affluent du Tarn dans le bassin de la Garonne (France). Après des affrontements violents en 2014, qui ont vu la mort de Rémi Fraisse, le projet initial a été abandonné en 2015 par arrêté préfectoral.
(**) GIEC : Le Groupe d’experts intergouvernemental sur l’évolution du climat, organisme intergouvernemental ouvert à tous les pays membres de l’Organisation des Nations unies (ONU).
Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association Le Mouton Numérique, viennent de publier leur premier ouvrage “Technologies partout, démocratie nulle part : Plaidoyer pour que les choix technologiques deviennent l’affaire de tous”, (Fyp éditions, octobre 2020). Leur livre, très documenté, réhabilite la pensée techno-critique pour passer au crible le développement du secteur numérique, en identifier les défaillances et proposer de nouvelles pistes pour aligner le progrès technique aux enjeux écologiques et sociaux de notre temps. Toujours prudents devant des critiques radicales de la technique qui peuvent parfois tourner à la technophobie, nous avons invité Yaël Benayoun à en discuter avec un de nos éditeurs, Serge Abiteboul. Les éditeurs de binaire.
Serge : Si je partage de nombreux constats de ton essai avec Irénée Régnauld, le ton très critique m’a par moments gêné. Pour planter le décor, dirais-tu que pour vous, il s’agit de mettre le numérique au service de la société ? Ou s’agit-il juste d’arrêter le numérique, source de tous les maux de la société ?
Yaël : (rire) Bien évidemment, il ne s’agit pas de dire que le numérique serait la cause de tous nos maux ; cela n’aurait aucun sens ! En revanche, il est symptomatique que dans le langage courant on parle toujours « du » numérique au singulier, comme si l’ensemble des terminaux, des logiciels, des réseaux formaient un tout monolithique dont les caractéristiques techniques et les modes de production n’avaient pas à être questionnés. Pourtant, suivant les acteurs impliqués, les modèles économiques retenus, les objectifs poursuivis ou les valeurs défendues, on va se retrouver avec des dispositifs techniques radicalement différents. L’exemple le plus frappant est sans doute l’application de livraison CoopCycle, éditée par la coopérative du même nom. Ici, pas question comme chez la plupart des grandes plateformes qu’un algorithme décide seul du prix ou de la durée des courses. Pas question non plus de tracer les livreurs ou de les fliquer ! Et pour cause, CoopCycle a été conçue comme un moyen de garantir des conditions de travail décentes pour les livreurs ; c’est un bien commun et cela se retrouve dans les caractéristiques techniques de l’application.
Dans le livre, nous nous sommes attachés à décortiquer les jeux d’acteurs et les idéologies qui aujourd’hui dominent le secteur du numérique, centralisent les sources de financement et nous orientent vers une société toujours plus numérisée sans que les conséquences environnementales, sociales ou politiques ne soient réellement prises en considération. Cette analyse critique nous amène non pas à rejeter toute technique, mais bien à identifier les défaillances structurelles (sur-exploitation de ressources non renouvelables, précarisation de certaines catégories de travailleurs, renforcement des discriminations et inégalités déjà existantes, insuffisance des garde-fous juridiques et institutionnels) pour mieux pouvoir y répondre.
Serge : Votre livre met bien en évidence tous ces problèmes soulevés par le numérique. Mais, et c’était peut-être difficile à éviter dans un tel exercice, à force de lister ad nauseam les problèmes, on finit par voir se dessiner la thèse que c’est le numérique, le problème. Pourtant, on pourrait aussi lister les trucs géniaux apportés par le numérique, ce que vous ne faites pas. Un point sur lequel nous serons peut-être en désaccord : je crois dans le progrès scientifique même si c’est un peu ringard. Je crois qu’on vit plus longtemps et mieux qu’avant et que si ce n’est pas vrai pour tout le monde, ce n’est pas la faute de la techno mais de l’égoïsme de certains. Par contre, je ne crois pas au déterminisme technologique ou à la neutralité technologique. Je crois qu’on a un vrai risque de régression non pas à cause de la technologie mais à cause de choix sociétaux. La techno des smartphones ne dit pas qu’on doit en changer tous les dix-huit mois. Un tel gaspillage extravagant devrait nous forcer à ne pas changer de smartphone si souvent, pas à remettre en question la techno des smartphones.
Yaël : Encore une fois, le problème n’est pas « le » numérique, mais bien la manière dont le développement technologique est confisqué par un certain nombre d’acteurs qui orientent ce « progrès scientifique » vers leurs propres intérêts. Il faut regarder comment la recherche publique devient de plus en plus subordonnée aux financements et logiques entrepreneuriales de groupes privés, au risque de porter atteinte aux libertés académiques et à l’indépendance des chercheurs.
C’est en ce sens que choix technologiques et choix de société sont indissociables. C’est d’ailleurs le titre d’un des ouvrages qui nous a servi de référence pendant l’écriture : Choix technologiques, choix de société de Richard Sclove (Descartes & Cie/ECLM, 2003). Le fait est que, quand on parle de dispositifs techniques, on ne peut pas faire abstraction de leur contexte de production. Malgré les apparences, depuis les années 2000 le but premier d’un moteur de recherche comme Google Search n’est plus de nous permettre d’effectuer une recherche sur internet, mais bien de capter les données et méta-données que nous produisons pour les monétiser. Cet objectif va entraîner des caractéristiques techniques bien précises qui n’auraient pas été développées si un autre modèle économique avait été choisi ou s’il avait été décidé qu’une telle technologie devait être appartenir à la catégorie des communs.
Serge : L’exemple du moteur de recherche est éclairant. Le but premier de Google Search n’était pas de vous fliquer mais de régler le problème du Web d’alors : il était impossible d’y trouver ce qu’on cherchait parce que les moteurs de recherche d’alors étaient nuls. Google Search captait au début assez peu de données. Et puis, vers 2004, le tournant. C’était pour mieux répondre aux requêtes des utilisateurs. Mais, c’était surtout pour faire encore plus de profits – quand leurs profits étaient déjà impressionnants. C’est vrai aussi. Bon. Nous sommes dans un système capitaliste et il n’est pas surprenant que les entreprises cherchent à faire toujours plus de profits. C’est aux États de définir les règles du jeu. Le RGPD est une étape. On voit bien avec toutes les poursuites contre Google Search qu’il y a encore du chemin à faire.
Yaël : Il est d’ailleurs significatif que des initiatives comme la machine à laver L’Increvable – conçue pour durée une cinquantaine d’années (soit plus de cinq fois plus longtemps qu’une machine à laver classique) – n’ait pas réussi à se développer faute de soutiens des secteurs industriels et des pouvoirs publics, mais que nous voyons en revanche fleurir depuis quelques années des machines à laver connectées toujours plus consommatrices en énergie et en métaux rares, et toujours aussi peu résistantes. La technologie incarne, dans ses caractéristiques mêmes, les choix de société et les rapports de force à l’œuvre. Une technologie ne se fait jamais « toute seule » et tant que nous n’en prendrons pas conscience et continuerons à affirmer que « la technologie est neutre, tout dépend de l’usage qu’on en fait » ou que tel progrès technique est « inéluctable », les garde-fous seront toujours insuffisants.
Serge : Bon les machines à laver ou les frigo connectés, c’est du pipeau. Mais, tu as raison, pourquoi ne pas construire des machines qui durent plus longtemps ? On a trop attendu que les industriels le fassent. C’est aux citoyens de se mobiliser pour ça et aux gouvernements de prendre leurs responsabilités. Pour rester dans le numérique, on a l’exemple des logiciels libres. C’est dingue que les États ne les soutiennent pas massivement car leur apport à la société est considérable.
Pour prendre un autre exemple, la smart city. Je pars du principe qu’on ne va pas envoyer des millions de personnes à la campagne, ce qui serait possible mais c’est un autre sujet. Alors dans une grande ville, très peuplée, le numérique me paraît un outil indispensable pour tout : le transport, la logistique des livraisons, l’énergie, la pollution, etc. Tout ça s’appuie sur le numérique, non ? Je ne parle pas de vidéosurveillance, ni de flicage de la population. C’est un peu la même techno, mais on peut dans une démocratie adopter les premiers sans accepter ces seconds. Ou faudrait-il jeter la smart-city aux ordures parce qu’on a peur de la vidéo-surveillance? Vous citez Barcelone comme une belle expérience de démocratie participative. Est-ce qu’ils sont fans de vidéo-surveillance ?
Yaël : Une chose est sûre : il y a autant de définitions de « smart city » que de projets s’en réclamant. Bien évidemment nous n’avons rien contre l’optimisation de certains services comme la gestion des eaux usées par exemple. Là n’est pas la question.
Dans le livre, nous nous sommes concentrés sur une expérience bien précise de smart city qui est le projet, aujourd’hui abandonné, de réhabilitation d’une partie du littoral de la ville de Toronto proposé par Sidewalk, filiale de Google consacrée aux projets d’urbanisme. Et cela pour deux raisons. Premièrement, c’était le premier grand projet porté par Sidewalk, ce qui signale un intérêt prononcé des grandes multinationales du secteur du numérique pour le marché des infrastructures urbaines – qui devrait représenter pas moins de 53 milliards de dollars d’ici 2030. Ce positionnement stratégique n’a pas échappé aux habitants du quartier concerné qui se sont rapidement organisés pour réclamer des précisions : comment une telle infrastructure allait-elle être rentabilisée ? (Il s’agissait d’une ville entièrement connectée avec des trottoirs chauffants, des bancs publics qui renseigneraient leur taux d’occupation, des caméras de vidéosurveillance, etc.) comment s’assurer de la non-exploitation des données personnelles des habitants, de la non-marchandisation de certains services de la ville, de la non-exclusion de certains groupes d’habitants. ? Deuxièmement, il était surprenant de voir une ville comme Toronto s’accrocher à ce projet, malgré les critiques des habitants, malgré les démissions successives des membres de la collectivité qui suivaient le projet. Il est vite apparu que la ville était en réalité en position de faiblesse par rapport à la filiale de Google qui, au fur et à mesure que la contestation montait, « achetait » l’équipe municipale en promettant toujours plus d’infrastructures qui devaient in fine créer plusieurs dizaines de milliers d’emplois directs et indirects. Cette faiblesse est d’autant plus inquiétante que le cas de Toronto n’est pas isolé et que les villes deviennent des terrains de jeu particulièrement attractifs pour les mastodontes du numérique.
Serge : Mais ne jetons pas, à cause de Sidewalk (son projet pour Toronto a été arrêté), la smart city à la poubelle. Ne nous privons pas de tout ce que le numérique pourrait apporter en termes de logistique, de gestion de la cité, etc. Vous parlez beaucoup de Toronto. Je trouve l’expérience de Barcelone beaucoup plus intéressante. Nous pouvons choisir la place du numérique collectivement dans la cité comme le fait Barcelone.
Yaël : Le cas de Barcelone est effectivement très intéressant, et il est important de souligner que la belle expérience de démocratie participative se trouve incarnée dans une plateforme conçue en licence libre et en open source que la ville a entièrement financée dans le cadre d’un partenariat Public-Commun. C’est un genre de partenariat encore trop rare aujourd’hui et il est fort à parier qu’une telle plateforme aurait eu des caractéristiques techniques toutes autres si elle avait été développée par un acteur privé comme Google.
Serge : N’évitons pas les sujets qui fâchent. Parlons du déploiement de la 5G ! Écartons les technophobes et technophiles béats. Même les modérés se partagent entre ceux qui veulent déployer la 5G et ceux qui préfèrent un moratoire. Pourquoi un moratoire ?
Yaël : Le secteur du numérique représente à lui seul 4% de la consommation d’énergie primaire au niveau mondial, consommation qui augmente chaque année de 9% alors même que nous devrions la réduire de 5% par an si nous voulons respecter nos engagements et atteindre une économie décarbonée. C’est donc un retard de 14% que nous cumulons chaque année. Quand va-t-on se donner les moyens de faire atterrir nos systèmes industriels – dont le secteur du numérique fait incontestablement partie ?
Serge : Je partage pleinement le constat de l’urgence environnementale. Mais, il faut répéter qu’un des buts premier de la 5G est de faire des économies d’énergie, par exemple, plutôt que de balancer des ondes dans toutes les directions, un émetteur 5G va viser le terminal qui reçoit le message. Si on avait choisi de retarder la 5G, on aurait assisté à une multiplication de sites 4G beaucoup plus énergivores et on se serait précipité vers une saturation des fréquences en centre ville. Le moratoire n’aurait rien réglé. La vraie question est de considérer le numérique dans sa globalité pour limiter sa consommation d’énergie, et son gaspillage de ressources naturelles. Et pour ça, la 5G peut aider car elle consomme moins d’énergie mais il faut bien sûr éviter un effet rebond.
Un moratoire n’aurait rien réglé à mon avis. On aurait juste passé notre temps à regarder les autres pays déployer la 5G et les technos qui vont avec. On aurait pris un retard industriel que je ne sais pas chiffrer en termes d’emplois perdus à termes, mais quand on voit ce que nous coûte le retard sur l’informatique de la fin du siècle dernier, on peut s’inquiéter. Au moins, si ça avait suffit à faire des économies d’énergie.
Yaël : Je pense qu’il est urgent de nous départir de cette vieille rhétorique du retard industriel qui nous éloigne toujours plus rapidement des exigences de l’accord de Paris. Tu évoques le risque de la perte d’emplois, c’est un sujet essentiel. En 2019, le cabinet B&L évolution estimait que la France avait besoin de la création de près de 2 millions d’emplois sur 5 ans pour répondre aux impératifs fixés par l’accord de Paris. Cela s’explique par un besoin de décentralisation des infrastructures, de relocalisation de certaines industries, mais aussi un besoin de réorientation massive des politiques industrielles vers les secteurs les moins carbonés. Les anticipations d’usages liées au déploiement de la 5G promettent-elles la création d’un plus grand nombre d’emplois ? Rien n’est moins sûr. L’industrie 4.0 mise sur l’automatisation industrielle, automatisation qui a toutes les chances de se doubler de la réorganisation des sites concernés et d’un nombre conséquent de licenciements.
Selon moi, l’enjeu du moratoire sur la 5G est d’une part de commencer à réfléchir collectivement à la définition du prochain réseau (sans quoi la 6G sera développée en vue de l’anticipation toujours plus pressante de l’explosion des contenus lourds et des équipements connectés), et d’autre part d’interroger en profondeur la soutenabilité, autant sociale qu’écologique, de la fuite en avant technologique que nous promet l’ensemble des études prospectives. Car ces études agissent aujourd’hui comme des prophéties auto-réalisatrices et incitent les investisseurs et les pouvoirs publics à suivre leurs prévisions et ainsi les conforter. Un grand chantier nous attend : ouvrir de nouvelles perspectives pour casser ce cercle d’investissement vicieux et réorienter les politiques industrielles en conséquence.
Serge : Si je ne vois pas en quoi un moratoire aurait pu aider, je partage totalement ton point de vue sur la nécessité d’une réflexion collective sur la définition des réseaux que nous voulons, je dirais même une réflexion est urgente dans l’objectif de l’accord de Paris. C’est d’ailleurs le sens de travaux récents de l’Arcep « Pour un numérique soutenable » avec une plateforme de travail et des ateliers d’échanges. Il est important de mettre la techno numérique au service de la société. La 5G, par exemple, a été développée avec les économies d’énergie dans ses spécifications originales. C’est une techno géniale. À nous de la mettre au service de notre société. Et tu as raison. La 6G est en préparation. On doit encore pouvoir influer sur ce qu’elle sera. Et au-delà des ondes, c’est une réflexion sur tout le numérique que nous devons engager.
Nous nous retrouvons au moins sur un point : le numérique doit être au service de la société. Et cela ne peut se limiter à des vœux pieux. Nos gouvernements, à toutes les échelles (régions, France, Europe) ont la responsabilité considérable de se donner les moyens d’une politique volontariste pour mettre le système du secteur du numérique au service de tous.
Yaël Benayoun, le Mouton Numérique, et Serge Abiteboul, Collège de l’Arcep et Inria, Paris.
Binaire, a demandé à Véronique Torner, co-fondatrice et présidente de alter way , membre du CA du Syntec Numérique, présidente du programme Numérique Responsable et membre du Conseil Scientifique de la SIF (Société informatique de France) de nous parler de l’initiative Planet Tech’Care. Marie Paule Cani et Pierre Paradinas.
Binaire: Véronique peux tu nous dire en quoi consiste le projet Planet Tech’Care? Véronique Torner : Planet Tech’Care est une plateforme qui met en relation des entreprises et des acteurs de la formation qui souhaitent s’engager pour réduire l’empreinte environnementale du numérique avec un réseau de partenaires, experts du numérique et de l’environnement.
En s’engageant autour d’un manifeste, les signataires ont accès gratuitement à un programme d’accompagnement composé d’ateliers conçus par les partenaires de l’initiative.
La plateforme est animée par le programme Numérique Responsable de Syntec Numérique. Le projet a été initié sous l’impulsion du Conseil National du Numérique.
Binaire : Qui sont les membres de Planet Tech’Care ?
Véronique : Vous avez d’un côté les signataires du manifeste, des entreprises de tous secteurs et de toutes tailles (du CAC40 à la start-up) et des écoles, universités, instituts de formation et d’un autre côté les partenaires, organisations professionnelles, associations, think tanks, spécialistes du sujet Numérique & Environnement.
Binaire : Que contient le manifeste de Planet Tech’Care
Véronique : Les signataires du manifeste Planet Tech’Care reconnaissent que le numérique génère une empreinte environnementale et s’engagent à mesurer puis réduire les impacts environnementaux de leurs produits et services numériques. Ils s’engagent également à sensibiliser leurs parties prenantes afin que tous les acteurs de l’écosystème numérique soient en mesure de contribuer à réduire leurs impacts sur leurs périmètres de responsabilité. En parallèle, les acteurs de l’enseignement, ainsi que les acteurs du numérique proposant des formations à leurs collaborateurs, s’engagent à intégrer des formations au numérique responsable et écologiquement efficient dans leur curriculum de cours. Ainsi, la nouvelle génération de professionnels sera en capacité de développer des produits et services technologiques numériques bas carbone et durables.
Binaire : Qui peut rejoindre le projet ? Pourquoi et comment impliquer les jeunes ?
Véronique : Toute entreprise et tout acteur du domaine de l’éducation peuvent nous rejoindre. Rassembler suffisamment de signataires dans le domaine de l’éducation sera essentiel pour impliquer massivement les jeunes. On peut à terme imaginer d’intégrer des formations au numérique responsable adaptées à tous les programmes des universités et autres établissement d’enseignement supérieur, des formations spécialisées en informatique à tous les secteurs utilisant le numérique, mais aussi d’associer une sensibilisation au numérique responsable aux programmes d’initiation au numérique au collège et au lycée. Nous comptons ensuite sur l’énergie et l’enthousiasme des jeunes pour que ces nouveaux usages diffusent à l’ensemble de la société.
Binaire : Comment sera évalué l’intérêt du projet Planet Tech’Care ?
Véronique : Nous ferons un premier bilan dans un an qui sera constitué de plusieurs indicateurs : le nombre de signataires, la qualité des ateliers, un baromètre de maturité de notre communauté. Nous comptons pour le lancement plus de 90 signataires et plus de 10 partenaires qui démontrent déjà l’intérêt d’une telle initiative. Notre enjeux est de :
– créer une dynamique autour d’acteurs engagés pour le numérique éco-responsable,
– fédérer les expertises pour passer de l’engagement à l’action,
– et enfin créer des communs pour passer à l’échelle.
Binaire : Tu es dans le CA du Syntec Numérique et le CS de la SiF, pourquoi ces instances se mobilisent-elles sur la question de la responsabilité sociale et plus particulièrement sur les impacts environnementaux ?
Véronique : Syntec Numérique est en première ligne sur les enjeux du Numérique Responsable qui constitue un des cinq programmes stratégiques de notre organisation professionnelle. Nous œuvrons depuis plusieurs années sur l’inclusion sociale et sur l’éthique du numérique. En ce qui concerne les enjeux environnementaux, notre industrie a un double challenge à relever. Nous devons bâtir des solutions numériques au service de la transition écologique, car nous le savons Il n’y aura pas de transition écologique réussie sans numérique. Et nous devons aussi, comme toutes les industries, réduire notre empreinte environnementale. Nous avons un groupe de travail très actif sur le sujet et nous animons désormais la plateforme Planet Tech’Care.
Par ailleurs, la SiF, Société informatique de France, qui anime la communauté scientifique et technique en informatique, a déjà montré son engagement pour une double transition numérique et écologique lors de son congrès annuel 2020, qui a porté sur ce thème. Diffuser plus largement cette réflexion est indispensable pour agir plus largement non seulement sur les acteurs socio-éconimique mais aussi, et en particulier via l’éducation, sur l’ensemble de la société. En particulier, le conseil scientifique de la SIF a tout de suite montré un grand enthousiasme pour le projet Planet Tech’ Care, jugé essentiel pour que le numérique devienne un véritable levier pour les transitions sociétales et écologiques !
Un nouvel « Entretien autour de l’informatique ». Hélène Barucq, Directrice de recherche Inria, spécialiste de la simulation numérique de la propagation des ondes sismiques. Hélène Barucq est responsable de l’équipe Magique-3D sur le calcul scientifique en géophysique, commune à Inria et au département de Mathématiques Appliquées de l’Université de Pau. Elle nous parle des profondeurs de la Terre, de celles du soleil, et d’acoustique musicale. Un coup d’œil passionnant sur un domaine aux frontières des maths, de la physique et de l’informatique.
binaire – Comment es-tu devenue chercheuse en mathématiques appliquées ?
HB – Je suis un produit pur jus de l’université. J’ai fait la fac de maths à Bordeaux. J’ai été tentée par l’informatique, mais mes premiers cours m’en ont un peu dégoutée. Et puis, j’ai « rencontré les ondes » dans un projet avec le CEA et Bernard Hanouzet, et comme le sujet m’a conquise, j’ai choisi ce domaine pour ma thèse sous sa responsabilité. Je découvrais des dialogues fantastiques entre physique et mathématiques, et dans le même temps le plaisir du travail en équipe. J’ai changé alors d’avis sur l’informatique. C’est passionnant d’expliquer des phénomènes physiques avec des équations mathématiques. Mais c’est encore plus génial, cela prend vraiment son sens pour moi, quand on transforme les équations, les modèles mathématiques, en programmes informatiques. En réalisant des simulations numériques assistées de méthodes de visualisation avancées, on peut alors voir un phénomène physique pour finalement en comprendre les moindres détails.
J’ai obtenu un poste de Maitre de conférence à l’Université de Pau, un peu par chance. C’est là que j’ai commencé à travailler sur des sujets concrets, dans une collaboration avec Total. Et puis j’ai découvert Inria, et obtenu un poste de chercheuse dans l’institut. Cela m’a permis de monter une équipe à Pau. Je me dis parfois que j’aurais aussi bien pu devenir informaticienne parce que les logiciels me fascinent. Aujourd’hui, j’adore mon travail.
binaire – Nous avons entendu dire qu’une de tes caractéristiques, c’est la fidélité ?
HB – Oui ! Je suis toujours à Pau, toujours à Inria. Certaines de mes collaborations durent depuis des années ! Par exemple, je travaille depuis bientôt vingt ans avec Total et Henri Calandra. Nos objectifs ont bien évidemment évolué au cours de ces années, nous conduisant à travailler sur des sujets très variés. Aujourd’hui, nous travaillons ensemble sur des questions liées à la transition énergétique. Surtout, je suis restée fidèle au domaine, les équations des ondes. Bien sûr, j’enrichis sans cesse le groupe de gens avec qui je collabore ; ils deviennent souvent des amis. Et pour les ondes, je considère de nouvelles applications, de nouveaux défis.
binaire – Justement. Il est peut être temps que tu expliques au lectorat de binaire, pour qui cela reste peut être mystérieux, ce que sont les ondes, en quoi consiste ton travail de chercheuse dans ce domaine.
HB – Quand une perturbation physique se produit, elle génère une onde qui se propage en modifiant les milieux qu’elle traverse. Quand on jette un caillou dans l’eau, ça crée une onde à la surface. Quand on pince la corde d’une guitare, cela génère une onde acoustique que les êtres humains à proximité ressentent avec des capteurs situés dans l’oreille. Il existe différents types d’ondes comme les ondes mécaniques qui se propagent à travers une matière physique qui se déforme, ou les ondes électromagnétiques et gravitationnelles qui elles n’ont pas besoin d’un tel milieu physique.
Les études du sol
Figure 1 : simulation de la propagation d’une onde acoustique harmonique dans un milieu terrestre sur un domaine de taille 20 x 20 x 10 kilomètres cubes.
binaire – Ça paraît un peu magique. Pourrais-tu nous expliquer un peu plus en détail comment cela se passe pour l’étude du sous sol. Surtout, nous aimerions comprendre la place des mathématiques et de l’informatique là dedans ?
HB – Supposons que nous voulions cartographier un sous sol pour découvrir des réservoirs d’eau pour de la géothermie. On pourrait faire des forages sans modélisation préalable ; c’est coûteux et ça peut être dangereux : on a vu des forages causer des éboulements très loin de l’endroit où ils étaient réalisés. Plutôt que faire ça, on va utiliser, par exemple, un camion qui vibre en cadence et génère des ondes. Les ondes se propagent dans le sol en gardant des traces de ce qu’elles rencontrent. Pour cartographier le sous-sol, on aimerait découvrir les discontinuités dans la composition de ce sous-sol, et ce qui se trouve entre elles. Pour ça, on va mesurer avec des capteurs les ondes réfléchies et analyser ces données.
Cela demande de développer des modèles mathématiques et des méthodes numériques avancées. Cela demande aussi des calculs considérables souvent réalisés de manière parallèle pour obtenir des simulations précises. En particulier, la détermination des paramètres physiques est un problème d’optimisation qui n’est pas simple car il admet des optimums locaux qui peuvent ralentir voire empêcher la méthode de converger.
Mais on peut faire des trucs sympas. Par exemple, quand un train roule, les frottements sur les rails génèrent des ondes sonores, « tougoudoum, tougoudoum… ». En analysant ces sons, on imagine bien qu’on peut détecter des malformations des rails, des traverses ou du ballast. En Chine, une équipe travaille même à faire des reconstitutions des propriétés du sous sol à partir des ondes générées par un train. Juste en analysant le son du train !
Il existe des tas d’autres applications de ce type d’analyse. Par exemple, en médecine, l’analyse de la propagation d’une onde sonore peut donner des indications sur la présence d’une tumeur, et le même principe peut être appliqué pour réaliser une échographie.
Figure 2 : imagerie sismique par inversion des formes d’ondes : en partant d’un milieu initial représentant le sous-sol (en haut), l’algorithme de minimisation itérative reconstruit un milieu (en bas à gauche) qui permet de reproduire les mesures. Dans cet exemple synthétique, le modèle sous-terrain est connu et représenté en bas à droite.
binaire – Quels sont les freins de tels travaux ?
HB – Le principal frein est que souvent les données sont très bruitées. Pour reprendre l’analogie du cambrioleur, c’est comme si la pluie avait presque effacé les empreintes.
Un autre frein tient dans les besoins de calcul considérables exigés par la simulation. Si vous voulez cartographier un sous-sol dans un cube de 5km d’arête, c’est véritablement des calculs massifs. On peut chercher de manière brutale à faire de plus en plus de calculs mais on atteint vite des limites. On peut aussi essayer d’être astucieux avec les mathématiques ou la simulation. Dans un travail récent, par exemple, nous séparons un grand volume en petits blocs que nous analysons séparément ; ensuite nous « recollons » les morceaux. On pourrait utiliser des bases de données de petits blocs comme ça, et des techniques de machine learning. Il faut essayer d’éviter la force brute, penser autrement.
binaire – Mais beaucoup de ces recherches viennent d’entreprises qui ne voudront pas mettre leurs données, des données qui coûtent cher à produire, à la disposition de tous. Par exemple, est-ce que l’industrie pétrolière accepterait ?
HB – Bien sûr, la recherche de pétrole a été longtemps un moteur du domaine. Mais les temps changent, ce n’est plus le cas. Et même dans des entreprises comme Total qui est très active sur les sujets d’environnement, le partage de données n’est pas exclu.
Les études du soleil
Figure 3 : spectre de puissance solaire correspondant à la propagation d’ondes acoustiques dans le soleil en fonction de la fréquence et du mode.
binaire – Sur quoi portent principalement tes travaux aujourd’hui ?
HB – Je travaille sur l’héliosismologie, l’étude du soleil. Le soleil chante en permanence. Il produit des ondes acoustiques, des ondes à basse fréquence, avec une longue période, que l’on peut détecter par effet Doppler. Leur étude pourrait nous permettre de remonter à l’intérieur du soleil. En comprenant comment il est construit, on espère apprendre à prévoir les irruptions solaires qui peuvent être dangereuses notamment pour nos satellites.
On dispose déjà de cartographies du soleil, on peut même en trouver sur internet. Mais on les aimerait beaucoup plus détaillées. Il faut bien voir la difficulté : le soleil n’a pas de surface comme la terre. La vitesse du son augmente avec la profondeur, tout est en permanence en mouvement.
Ce qui est intéressant pour nous c’est que les méthodes mathématiques à développer reposent sur les mêmes concepts que celles que nous utilisons dans le cadre de la propagation d’ondes dans le sol. Par contre, la physique est différente, plus complexe, par exemple, elle doit tenir compte du champ magnétique.
L’acoustique musicale
Figure 4 : le module du champ acoustique au sein d’une trompette en fonction de la fréquence.
binaire – Ton équipe travaille aussi sur l’acoustique musicale.
HB – Nous avons recruté il y a quelques années Juliette Chabassier qui, dans sa thèse, avait synthétisé le son du piano grâce aux mathématiques. Elle aurait pu travailler avec nous uniquement en Géosciences mais elle aurait été malheureuse car elle est véritablement passionnée par l’acoustique musicale. Nous l’avons plutôt laissée nous transmettre sa passion.
Dans l’équipe, avec Juliette, nous travaillons maintenant avec un luthier. Nous cherchons à reconstituer le son d’instruments à vent anciens, de vieux hautbois. Encore une histoire d’ondes. Ce qui est drôle, c’est que nous pouvons partager les équations, les méthodes, les algorithmes. Ce n’est bien sûr pas du tout la même chose. Les problèmes que nous étudions en acoustique musicale sont en une seule dimension, quand nous travaillons en dimension 3 avec la terre ou le soleil. Donc cela demande a priori moins de puissance de calcul. Mais la prise en compte du musicien introduit de la difficulté. Et, d’un autre coté, les problèmes rencontrés en acoustique sont « non-linéaires » et nous donnent l’occasion de tester de nouvelles méthodes, plus complexes.
binaire – Un mot de conclusion, peut-être ?
HB – Les jeunes que nous voyons arriver dans l’équipe viennent le plus souvent d’écoles d’ingénieur. Ce sont souvent des matheux brillants. Mais ils sont également fans de programmation et de calcul parallèle, un peu « geeks ». Historiquement, on sépare l’informatique et les maths applis, par exemple, dans les sections 26 et 27 du CNU (*) ; eux, on a du mal à les situer. Je dirais, en plaisantant, qu’ils sont, un peu comme nos sujets de recherche, dans la section 26.5.
Nous vivons dans un monde numérique où l’informatique et les maths applis prennent un rôle considérable pour expliquer le monde, la société, pour les transformer. J’aimerais que tous les jeunes prennent vraiment conscience de ça, quelle que soit la profession à laquelle ils se destinent.
Il faudrait aussi que les scientifiques soient plus écoutés. Et pour cela, il faut qu’ils fassent l’effort de se faire mieux comprendre. Ce n’est pas simple d’expliquer sur le papier des équations au grand public. N’essayez pas ! On perd tout de suite son auditoire. Par contre, on peut faire des simulations et capturer les phénomènes avec des images, des courbes, des vidéos. Ça, tout le monde peut comprendre !
Serge Abiteboul, Inria et ENS, Paris, Pascal Guitton, Inria et Université de Bordeaux
(*) Le CNU, Conseil national des universités, est chargée en particulier de la gestion de la carrière des enseignants-chercheurs.
Remerciements à Florian Faucher (Post-doc, Université de Vienne) qui a réalisé les trois premières illustrations.
Dans cette période difficile pour tout le monde, nous avons décidé d’intensifier la fréquence de nos publications et d’étendre le format habituel. Pour tenir cet objectif, nous avons donc (re)sollicité hier tou.te.s nos auteur.e.s depuis la création de binaire. Françoise Berthoud a été une des premières à répondre à notre invitation et nous sommes très heureux d’inaugurer avec elle une série de billets d’humeur. Pascal Guitton
Francoise Berthoud
Autres urgences, vitales
Confinement
Solitude
Dérèglement climatique, ouragans, sécheresses, destruction de plantations par des criquets, pollutions, propagation accélérée de virus, … Chaque année après l’autre, chaque mois, chaque jour après l’autre
Des petits bouts d’effondrement
Comment le numérique survivra-t-il ? Comment le numérique nous aidera-t-il ?
A l’heure où il permet de se donner l’illusion que la vie continue, que des bouts d’économie pourraient survivre au confinement, que les hommes pourraient vivre ainsi, communiquant par skype et autres systèmes de visio
Et pourtant,
Des Hommes au Ghana, à cette même heure poursuivent leur travail de tri, de démantèlement, de brulage de nos déchets électroniques et se tuent à petit feu,
Des hommes en République Démocratique du Congo, en Amérique du Sud continuent à lutter pour leurs ressources, parfois leur vie juste pour avoir quelque chose à se mettre sous la dent ou juste pour boire de l’eau saine, pour extraire ces précieux métaux sans quoi nos ordinateurs ne seraient pas aussi performants,
Ils ne sont pas confinés,
Comme les soignants, les livreurs, les caissiers, les plombiers, les chauffeurs de poids lourds, etc., ils paraissent indispensables à notre économie. Mais point d’applaudissements pour eux, pas de primes, pas de discours de président pour les féliciter. Ces hommes, ces femmes, ces adolescents, ces enfants méritent pourtant tout autant notre attention, parce que sans eux …
Point de smartphone, point de réseaux, point de visio, ni de netflix, pas d’apéritif whatsapp …
Apprenons au moins de cette expérience que le numérique est un outil précieux, qu’il convient de ne pas gaspiller, qu’il convient d’utiliser ces outils avec parcimonie, qu’il convient de les partager, qu’il convient de réfléchir à leur juste usage pour stopper les dégâts environnementaux qu’ils génèrent tout en les partageant avec le plus grand nombre.
Eric Vidalenc est chef du projet Prospective Energie Ressources à l’ADEME. Il est aussi auteur de billets sur le blog d’Alternatives Économiques.
Il publie Pour une Écologie Numérique aux éditions Les Petits Matins et tente, dans cet essai, de (ré-)concilier transitions numériques et écologiques. Binaire l’a lu et vous le recommande. Antoine Rousseau
Le titre déjà est intriguant : pourquoi diable faudrait-il que l’écologie soit numérique ? Tant qu’à faire, pourquoi ne pas parler de robotisation écologique ou d’artificialisation naturelle ! L’oxymore est criant, et pourtant…
Les transitions écologique et numérique se complètent pour certains, s’opposent pour d’autres. Ainsi Jérémy Rifkin et sa « troisième révolution industrielle » ou encore notre regretté Michel Serres et sa « Petite Poucette », qui voient à travers ces transitions une grande convergence sociétale, permettant l’organisation de collectifs, le renforcement des processus participatifs, la décentralisation, etc. En même temps, on ne peut plus vivre « sans numérique » (pensez à la dernière fois que vous avez regardé une série, envoyé un message, écouté de la musique, etc.) ; ce monopole radical a des conséquences dramatiques sur notre environnement, que cela soit en terme de pollution ou d’accès aux ressources naturelles (voir le billet récent d’Eric Drezet sur ce sujet).
Pour une écologie numérique. Eric Vidalenc, éd. Les Petits Matins
Dans cet essai qui propose une écriture dialectique, Eric Vidalenc montre que ces transitions sont beaucoup plus ambivalentes qu’une lecture rapide pourrait le laisser penser. Comme l’écrit Éloi Laurent dans une tribune publiée dans Libération le 18 novembre 2018, entre ceux qui pensent que le numérique, via l’intelligence artificielle (IA) notamment, va tout résoudre et ceux qui pensent que le numérique doit être mis de côté pour mener la transition énergétique, la ligne de crête est étroite pour réconcilier les deux trajectoires.
« Pour une écologie numérique » est un essai court, intense sans être technique, qui commence par illustrer comment le numérique peut être à la fois un atout et un frein de la transition écologique, avant de proposer, dans une dernière partie, de remettre le numérique à sa place en proposant des transformations des usages et des politiques.
Eric Drezet, ingénieur de recherche au CNRS au sein du laboratoire CRHEA à Sophia Antipolis, est membre du Groupement De Service EcoInfo : « Pour une informatique éco-responsable ». Il nous donne ici un aperçu des travaux réalisés par ce collectif de scientifiques. Lecture très utile pour celles et ceux qui – comme nous chez Binaire – veulent comprendre les enjeux croisés de l’essor du numérique et de la préservation des ressources. Antoine Rousseau
Le groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a rendu public, le 8 octobre 2018, une étude sur les effets d’un réchauffement global des températures de 1,5 °C. Ce rapport indique que pour atteindre cet objectif, les émissions nettes de CO2 mondiales doivent être nulles vers 2050 et celles d’autres gaz à effet de serre (GES) comme le méthane avoir considérablement réduit, alors que le G20 vient de battre un record d’émissions de CO2 en 2018.
Dans le but de réduire l’impact de l’utilisation des ressources naturelles, l’ONU a présenté le rapport d’un groupe d’experts universitaires et scientifiques lors de l’Assemblée générale du Programme des Nations Unies pour l’Environnement (PNUE) en mars 2019. L’extraction des ressources (métaux, minéraux non métalliques, combustibles fossiles, biomasse, eau) a plus que triplé depuis 1970 et l’utilisation des énergies fossiles a augmenté de près de moitié. Depuis 2000, l’extraction s’intensifie, tirée principalement par les pays asiatiques, mais aussi par les occidentaux qui ont encore besoin de 9,8 tonnes de matériaux par personne en 2017. L’UNEP estime que l’utilisation globale des matériaux va doubler entre 2011 et 2060, entraînant une hausse significative des émissions de GES.
L’industrie électronique : dématérialisée ou sur-matérialisée?
Le développement du numérique entraîne des besoins en matériaux nouveaux pour des raisons d’esthétique, de gain de poids, de fonctionnalités, etc. Alors qu’en 1980, les TIC se contentaient d’une dizaine de métaux, trente ans plus tard, plus d’une soixantaine étaient utilisés selon l’OPESCT. Le rapport de l’UNEP constate une hausse de l’utilisation de minerais métalliques sur la période 2000-2015, ce qui accroît l’emploi des énergies fossiles et de l’eau. Près de 10% de l’énergie primaire mondiale sert à extraire et raffiner des métaux. De nombreuses études font état de conflits liés à l’eau suite au développement de l’extraction des métaux sur tous les continents : dégradation de la qualité et accès de plus en plus tendu dans des régions déjà arides. 90 % de la perte de biodiversité et du stress hydrique sont dus à l’extraction et au traitement des ressources naturelles [7] (matériaux, énergies fossiles et production agricole). Selon un rapport du World Resources Institute, plus d’un milliard de personnes vivent actuellement en situation de stress hydrique, ils pourraient être près de 3,5 milliards en 2025.
La demande en matériaux pour l’industrie électronique ne cesse de croître. La délocalisation de la production a entraîné l’effondrement des prix et l’explosion des ventes. Dans les foyers où on avait un seul ordinateur il y a 20 ans, on en trouve aujourd’hui souvent plusieurs, accompagnés de tablettes, smartphones, box, consoles de jeu… Une des plus fortes progressions concerne les smartphones qui sont de plus en plus sophistiqués. En 2017, il s’en est vendu 1,6 milliards d’unités. Ils ont généralement une durée d’utilisation de moins de deux ans car tout pousse à leur renouvellement (obsolescence, coût de réparation, marketing, pression sociale…). En fin de vie, le recyclage de métaux rares comme l’indium, le gallium, le tantale, les terres rares, est presque nul, ce qui accroît la pression sur les ressources. Dernier constat, la percolation des TIC dans tous les secteurs d’activités : l’électro-ménager, la voiture, la télévision, la médecine, l’agriculture, l’enseignement, la finance, le commerce, le transport, le tourisme, les services de l’État… Selon Bihouix et De Guillebon5, une part significative de la production mondiale de métaux rares est employée dans les TIC, c’est le cas de l’indium qui en consomme près de 80 % dans les écrans.
Consommer plus, c’est extraire plus, produire plus et émettre plus de GES
Entre 2000 et 2015, les effets sur le changement climatique et les impacts sur la santé induits par l’extraction et la production de métaux ont presque doublé. Alors qu’il faudrait l’abaisser, l’empreinte énergétique directe du numérique progresse chaque année et pourrait atteindre 8 % en 2025. Le poids de la fabrication pèse lourd dans la vie des produits électroniques : pour un smartphone elle représente 90 % de sa consommation énergétique totale et des émissions de GES 400 fois supérieures à l’utilisation pour une utilisation en France, sans compter l’usage d’Internet.
L’industrie électronique repose sur d’importantes quantités de ressources :
énergétiques : processus d’extraction, de fabrication, de transport, d’usage jusqu’au recyclage ;
matérielles : fabrication des composants électroniques (métaux, plastiques, verre…) ;
chimiques : traitement des matériaux (minerais, composants électroniques, plastiques…) ;
hydriques : processus d’extraction des matériaux, élaboration des composants électroniques.
Quand on extrait une tonne de minerai, on ne récupère que quelques grammes d’un métal rare. À mesure que les concentrations baissent, les volumes de minerai extraits augmentent comme la quantité de déchets miniers. Pour extraire seulement six des cinquante métaux présents dans un smartphone, le volume de minerai représente 40 fois celui du produit fini10.
De nombreuses études ont montré les gains énergétiques du recyclage des métaux. Ils sont supérieurs à 90 % pour l’aluminium, l’or, l’argent et juste en dessous pour le cuivre. Le recyclage n’est donc pas seulement un levier de préservation de l’environnement, de la biodiversité et des ressources, c’est également un enjeu énergétique et climatique. Mais il ne saurait seul couvrir la hausse de la demande.
Perspectives
Les tendances actuelles du numérique (intelligence artificielle, bitcoin, voiture électrique ou autonome, cloud…) sont-elles compatibles avec les contraintes environnementales et sociétales, alors que l’on sent poindre une conscience collective, notamment chez les plus jeunes ? Les objets connectés se répandent dans tous les secteurs d’activité, comme l’usage des TIC dans le grand public et l’entreprise, des pays émergents aux pays les plus avancés. Quelle part de ces milliards d’appareils sera recyclée en fin de vie ? Quelle amélioration pour notre qualité de vie ?
Les conclusions du rapport de l’UNEP prônent la nécessité d’augmenter l’efficacité des ressources, même si ce n’est pas suffisant. Il préconise de passer à une économie circulaire en étendant le cycle de vie des produits, en généralisant l’écoconception, la standardisation, le réemploi et le reconditionnement.
Cela passe par la mise en place de politiques efficaces en matière d’utilisation rationnelle des ressources, de consommation et de production durables. En suivant ce tableau de marche, d’ici 2060 l’utilisation mondiale des ressources pourrait ralentir d’un quart et les émissions de GES pourraient baisser de 90 %.
Quelques pistes
Dans le secteur des TIC comme dans d’autres, il va falloir agir de manière globale car les enjeux sont systémiques.
Au niveau législatif, il est urgent de renoncer à la production de biens et d’équipements jetables, non durables, non réparables, non recyclables. La première étape consiste à appliquer une taxe proportionnée à leur impact environnemental et à terme en interdire la fabrication. La loi contre l’obsolescence devrait également être considérablement renforcée.
Au niveau industriel, le marché grand public avec ses produits à courte durée de vie, peu réparables techniquement ou économiquement, doit disparaître au profit d’un marché de qualité professionnelle. Les équipements doivent être robustes, évolutifs, facilement réparables à un coût modéré et alimenter l’économie circulaire en fin de vie.
Au niveau consommateur, il est temps de prendre conscience que le bonheur ne réside pas dans une consommation effrénée et délaisser les produits à courte durée de vie au profit de produits plus durables, plus respectueux de l’environnement.
Globalement, il est urgent de ralentir de manière très significative nos prélèvements en ressources non renouvelables et sanctuariser les puits de carbones naturels comme les forêts primaires tout en reboisant d’espèces adaptées les espaces non productifs. La finance devra proscrire le soutien des activités nuisibles à notre avenir. Tout est à repenser, réorganiser, restaurer dans le respect des limites évoquées.
E. Drezet (Iaboratoire CNRS-CRHEA, Sophia Antipolis)
L’émergence du numérique, ce choc culturel auquel nous nous intéressons dans Binaire, peut également être interprétée comme un choc environnemental pour la planète : en quelques décennies, nos smartphones, nos ordinateurs ou encore le web ont déjà consommé beaucoup d’énergie et de ressources. Beaucoup, et de plus en plus… Françoise Berthoud, Jacques Combaz et Kevin Marquet sont membres du Groupement De Service EcoInfo : « Pour une informatique éco-responsable ». Ils signent ici une tribune proche de celle publiée sur le site de la Société Informatique de France (SIF). Antoine Rousseau
À l’échelle mondiale, les technologies du numérique sont responsables d’environ 4 % des émissions de gaz à effet de serre (GES), soit plus que celles engendrées par l’aviation civile ! Le secteur du numérique a aussi un taux de croissance particulièrement important (+8 % par an), et est responsable d’environ 10 % de la consommation électrique mondiale, tout cela sans compter les objets connectés et les systèmes embarqués que l’on retrouve par exemple dans l’électroménager ou les moyens de transport.
Ses impacts directs sur le changement climatique sont donc largement significatifs et en très forte croissance.
L’urgence climatique tend à focaliser notre attention sur les émissions de GES ; toutefois, l’extraction et le raffinage des métaux puis la production des composants nécessaires à la réalisation des équipements électroniques ainsi que leur recyclage, lorsqu’il n’est pas fait dans les règles de l’art, sont aussi des sources considérables de pollution : métaux lourds (cuivre, nickel, zinc, étain, plomb, arsenic, gallium, germanium, indium, mercure, sélénium, thallium), phtalates (plastifiants), solvants, composés chimiques perfluorés, dioxine, furane et autres métaux ou composés chimiques sont déversés directement dans le sol, les eaux ou polluent l’air. Ce type de pollution est local, contrairement aux GES qui ont un effet global. Pour autant, leurs impacts sur la qualité de l’air, des sols, et de l’eau ont de graves répercussions sur la santé des populations locales et contribuent à l’effondrement de la biodiversité.
Le développement des technologies numériques participe aussi de manière importante à l’épuisement de certaines ressources. De ce fait, au rythme actuel de production, les réserves seraient par exemple de 15 ans pour l’étain, de 16 ans pour l’or, de 20 ans pour l’argent, ou encore de 39 ans pour le cuivre, même si ces estimations doivent être prises avec précaution puisqu’elles ne tiennent compte que des réserves connues et ne considèrent pas les futures découvertes, les améliorations technologiques, ou les évolutions économiques. Malgré tout, et en dépit des progrès techniques, leur extraction finira par demander trop d’énergie, ce qui est illustré par la figure ci-dessous pour le cas du cuivre. Jusqu’à récemment, l’amélioration technologique a permis une augmentation continue de l’efficacité énergétique d’extraction (d’environ 1 % par an), et ce malgré la diminution en concentration du minerai de cuivre dans les exploitations. Du fait de limites physiques inhérentes aux processus d’extraction, cette tendance est en train de s’inverser et et la quantité d’énergie nécessaire à l’extraction du cuivre devrait s’envoler d’ici la fin du siècle selon certains spécialistes [1]. Ce schéma s’applique à plus ou moins long terme à toutes les ressources minières, ce qui limitera tôt ou tard nos capacités d’extraction.
Figure 2 : L’énergie nécessaire à l’extraction du cuivre devrait augmenter considérablement [1]
Le recyclage représente un espoir pour amortir l’épuisement des ressources, mais actuellement les taux de récupération des métaux dans les appareils électroniques sont faibles et ne dépassent pas 20 % pour les plus simples à recycler. Les porter à 80 % (et même à 100 % !) permettrait de retarder cet épuisement dans le contexte de demandes en croissance exponentielle observé actuellement, mais pas de s’inscrire dans un processus d’économie circulaire..
Figure 3 : Gain de temps permis par un fort taux de recyclage
Les besoins des technologies du numérique en ressources naturelles sont aussi sources de problèmes socio-environnementaux : exploitation de la population locale dans les mines, conflits d’accès à l’eau ou aux ressources elles-mêmes, conflits armés, etc.
La transition numérique nous promet la « dématérialisation » de produits ou services, mais la réalité montre des effets de « rematérialisation » importants qui peuvent limiter, annuler, voire inverser les bénéfices : par exemple, on estime que la mise en place de factures électroniques est néfaste d’un point de vue des émissions de GES à partir du moment où 35 % des factures sont imprimées par les usagers. De plus, les commodités introduites par les technologies numériques tendent aujourd’hui à multiplier la demande en services ou en produits, participant ainsi indirectement à l’accroissement de notre empreinte environnementale. Plus généralement, un des impacts sociétaux majeurs du numérique est son rôle dans l’accélération des échanges et des procédés de production. Par exemple, le numérique rend possible le trading haute-fréquence, facilite la gestion de l’approvisionnement en flux tendu, ce qui accélère les processus de production et incite à des modes de livraison rapides.
Sans remettre en cause les apports réels des technologies numériques dans la société, participant à notre confort et finalement notre bien-être, il est important de garder à l’esprit les coûts environnementaux associés (pollution, destruction des écosystèmes, réchauffement climatique, etc.). Le devenir des impacts environnementaux du numérique dépendra des technologies qui seront développées et adoptées (5G, véhicules autonomes, réalité virtuelle, intelligence artificielle, internet des objets, blockchain, etc.) et des comportements de consommation. Les politiques mises en place pour influer sur ces deux aspects revêtent ainsi un intérêt capital ; elles sont pourtant encore embryonnaires voire inexistantes.
Alors que la tendance est loin d’être à la sobriété numérique, ne devrions-nous pas aussi questionner la notion de progrès par rapport à la question environnementale ? Ces questions de responsabilité et d’éthique scientifique sont plus que jamais d’actualité, et en tant qu’informaticiens nous ne pouvons pas les éluder dans un contexte où les innovations techniques ont presque systématiquement une dimension numérique.
Françoise Berthoud (CNRS), Jacques Combaz (CNRS) et Kevin Marquet (Inria)
[1] : O. Vidal, conférence dans le cycle « Comprendre et Agir », INRIA ,2019
Montée du niveau des mers, érosion côtière, perte de biodiversité… Les impacts sociétaux de ces bouleversements dus au réchauffement climatique ne seront pas dramatiques dans un futur proche si et seulement si nous changeons radicalement nos comportements collectifs et individuels et mettont en place de vraies solutions.
Joanna Jongwane
L’informatique et les mathématiques appliquées contribuent à relever le défi de la transition énergétique, pour changer par exemple l’usage des voitures en ville ou encore pour contrôler la consommation d’énergie dans les bâtiments. A contrario, quand la nature et la biodiversité inspirent les informaticiens, cela aboutit à des projets d’écosystèmes logiciels qui résistent mieux à divers environnements.
Accéder au dossier
C’est sur Interstices, la revue de culture scientifique en ligne qui invite à explorer les sciences du numérique, à comprendre ses notions fondamentales, à mesurer ses enjeux pour la société, à rencontrer ses acteurs que chercheuses et chercheurs nous proposent de découvrir quelques grains de science sur ces sujets. Morceaux choisis :
Accéder au document
«Le niveau des mers monte, pour différentes raisons liées au réchauffement climatique. Les glaciers de l’Antarctique et du Groenland, qu’on appelle calottes polaires ou inlandsis, jouent un rôle majeur dans l’évolution du niveau des mers. Peut-on prévoir l’évolution future de ces calottes polaires et en particulier le vêlage d’icebergs dans l’océan ?»
Accéder au document
«À l’heure de la COP21, toutes les sonnettes d’alarme sont tirées pour alerter sur l’urgence climatique. Si les simulations aident à prédire les évolutions du climat, elles peuvent aussi être vues comme un outil de dialogue science-société, selon Denis Dupré. On en parle avec lui dans cet épisode du podcast audio.»
Accéder au document
«Si au lieu de distribuer des millions de copies identiques, les fabricants de logiciels avaient la possibilité de distribuer des variantes, et que ces variantes avaient la possibilité de s’adapter à leur environnement, ces « écosystèmes logiciels » ne pourraient-ils pas renforcer la résistance de tous les services qui nous accompagnent au quotidien ?»
Extraits d’Interstices, Joanna Jongwane, Rédactrice en chef d’Interstices et Jocelyne Erhel, Directrice de Recherche et Responsable scientifique du comité éditorial, avec Christine Leininger et Florent Masseglia membres du comité exécutif.
Dérèglement climatique ? Problèmes d’énergie et dégradations que nous faisons subir à notre planète ? La Conférence de Paris de 2015 sur le climat (qui inclut la COP21) est une excellente occasion de mettre la transition écologique au cœur du débat. De plus, nous baignons dans une autre transition, la transition numérique dont on mesure chaque jour un peu plus en quoi elle transforme notre monde de façon si fondamentale. Deux disruptions. Comment coexistent-elles ?
www.greenit.fr, un site de partage de ressources à propos d’informatique durable
Commençons par ce qui fâche le fana d’informatique que je suis : le coût écologique du numérique. Le premier ordinateur, Eniac, consommait autant d’électricité qu’une petite ville. Les temps ont changé ; votre téléphone intelligent a plus de puissance de calcul et ne consomme quasiment rien. Oui mais des milliards de telles machines, d’objets connectés, et les data centers ? La consommation énergétique de l’ensemble est devenue une part importante de la consommation globale ; plus inquiétante encore est la croissance de cette consommation. Et puis, pour fabriquer tous ces objets, il faut des masses toujours plus considérables de produits chimiques, et de ressources naturelles, parfois rares. Et je vous passe les déchets électroniques qui s’amoncellent. Il va falloir apprendre à être économes ! Vous avez déjà entendu cette phrase. Certes ! On ne fait pas faire tourner des milliards d’ordinateurs en cueillant silencieusement des fleurs d’Udumbara.
D’un autre coté, le monde numérique, c’est la promesse de nouveaux possibles, scientifiques, médicaux, économiques, sociétaux. C’est, entre tellement d’autres choses, la possibilité pour un adolescent de garder contact avec des amis partout dans le monde; pour un jeune parent, de travailler de chez lui en gardant un enfant malade ; pour une personne au fin fond de la campagne, au bout du monde, d’avoir accès à toute la culture, à tous les savoirs du monde ; pour une personne âgée de continuer à vivre chez elle sous une surveillance médicale permanente. C’est tout cela : de nouveaux usages, de nouveaux partages, de nouveaux modes de vie. Alors, il n’est pas question de « se déconnecter » !
Les transitions écologiques et numériques doivent apprendre à vivre ensemble.
Penser écologie quand on parle de numérique
Quand le numérique prend une telle place dans notre société, il faut que, comme le reste, il apprenne à être frugal. Cela conduit à la nécessité de construire des ordinateurs plus économes en électricité, d’arrêter de dépenser d’énormes volumes de temps de calcul pour mieux cibler quelques publicités. Cela conduit aussi à modifier nos habitudes en adoptant un faisceau de petits gestes : ne pas changer d’ordinateur, de téléphone intelligent, de tablette tous les ans juste pour pouvoir frimer avec le dernier gadget, ne pas inonder la terre entière de courriels, surtout avec des pièces jointes conséquentes, etc. Nous avons pris de mauvaises habitudes qu’il est urgent de changer. Les entreprises doivent aussi limiter leurs gaspillages d’énergie pour le numérique. On peut notamment réduire de manière significative l’impact écologique d’un data center, le rendre plus économe en matière d’énergie, voire réutiliser la chaleur qu’il émet. Bref, il faut apprendre à penser écologie quand on parle de numérique.
Oui, mais les liens entre les deux transitions vont bien plus loin. Le numérique et l’écologie se marient en promouvant des manières nouvelles, collectives de travailler, de vivre. Les réseaux sociaux du Web, des encyclopédies collaboratives comme Wikipedia, ne préfigurent-ils pas, même avec leurs défauts, le besoin de vivre ensemble, de travailler ensemble ? L’innovation débridée autour du numérique n’est-elle pas un début de réponse à l’indispensable nécessité d’innover pour répondre de manière urgente aux défis écologiques, dans toute leur diversité, avec toute leur complexité ?
adapté de pixabay.com
L’informatique et le numérique sont bien des outils indispensables pour résoudre les problèmes écologiques fondamentaux qui nous sont posés. Philippe Houllier, le PDG de l’INRA, peut, par exemple, bien mieux que moi expliquer comment ces technologies sont devenues incontournables dans l’agriculture. Il nous parle dans un article à venir sur binaire de l’importance des big data pour améliorer les rendements en agriculture, un sujet d’importance extrême quand les dérèglements climatiques et la pollution des sols tendent à faire diminuer ces rendements.
On pourrait multiplier les exemples mais il faut peut-être mieux se focaliser sur un fondement de la pensée écologique :
penser global, agir local.
On avait tendance à penser des équipements massifs, globaux, par exemple une centrale nucléaire, une production agricole intensive destinée à la planète, etc. Les temps changent. On parle maintenant d’énergie locale, diversifiée, d’agriculture de proximité. Mais si cette approche conduit à une économie plus durable, elle est plus complexe à mettre en place ; elle demande de faire collaborer de nombreuses initiatives très différentes, de s’adapter très vite et en permanence, de gérer des liens et des contraintes multiples. Elle ne peut se réaliser qu’en s’appuyant sur le numérique ! On peut peut-être faire fonctionner une centrale nucléaire sans ordinateur – même si je n’essaierais pas – mais on n’envisagerait pas de faire fonctionner un « smart-grid » (réseau de distribution d’électricité « intelligent ») sans. Un peu à la manière dont nos ordinateurs s’échangent des données sans cesse, on peut imaginer des échanges d’électricité entre un très grand nombre de consommateurs et plus nouveau de fournisseurs (panneaux solaires, éolienne, etc.), pour adapter en permanence production et consommation, pour en continu optimiser le système. Il s’agit bien d’une question d’algorithme. Et l’informatique est également omniprésente quand nous cherchons à modéliser le climat, les pollutions, à les prévoir.
Nous découvrons sans cesse de nouvelles facettes de la rencontre entre ces deux transitions. Nous découvrons sans cesse de nouveaux défis pour la recherche et le développement à leur frontière.
Le groupement de Service (G.D.S.) ÉcoInfo : des ingénieurs et des chercheurs (CNRS, INRIA, ParisTech, Institut Mines Télécom, RENATER, UJF…) à votre service pour réduire les impacts écologiques et sociétaux des TIC.
Entretien autour de l’informatique : Olivier Marti, climatologue
Selon l’Agence américaine océanique et atmosphérique et la Nasa, l’année 2014 a été la plus chaude sur le globe depuis le début des relevés de températures en 1880. (Voir l’article de l’Obs). Depuis les débuts de l’informatique, la climatologie se nourrit des progrès de l’informatique et du calcul scientifique, et en même temps leur propose sans cesse de nouveaux défis. Dans un entretien réalisé par Christine Froidevaux et Claire Mathieu, Olivier Marti, climatologue au Laboratoire des Sciences du Climat et de l’Environnement, explique ses recherches en calcul scientifique et développement de modèles pour la climatologie, un domaine exigeant et passionnant.
Cet entretien parait simultanément en version longue sur le blog Binaire et en raccourcie sur 01Business.
Olivier Marti
Le métier de climatologue
B : Qu’est-ce qui vous a amené à travailler en climatologie ?
OM : Dans ma jeunesse, j’ai fait de la voile. J’avais une curiosité pour la mer et un goût pour la géographie. J’ai choisi de faire l’ENSTA pour faire de l’architecture navale. Là, j’ai choisi l’environnement marin (aspect physique, pas biologie), et j’ai fait une thèse en modélisation, sur les premiers modèles dynamiques de l’océan ; au début, on ne parlait pas beaucoup de climatologie, ça s’est développé plus tard. Il y a un aspect pluridisciplinaire important, ma spécialité étant la physique de l’océan. J’ai ensuite été embauché au CEA et ai travaillé sur les climats anciens. Par exemple, l’étude du climat du quaternaire amène à étudier l’influence des paramètres orbitaux sur le climat.
B : En quoi consiste votre métier ?
OM : Je fais du développement de modèle. Il faut assembler des composants : un modèle d’océan, un modèle d’atmosphère etc. pour faire un modèle du climat. Mais quand on couple des modèles, c’est-à-dire, quand on les fait évoluer ensemble, on rajoute des degrés de liberté et il peut y avoir des surprises. Il faut qu’informatiquement ces objets puissent échanger des quantités physiques. C’est surtout un travail empirique. On réalise beaucoup d’expériences en faisant varier les paramètres des modèles. C’est vrai aussi que depuis 25 ans, on se dit qu’il faudrait pousser plus loin les mathématiques (convergence numérique, stabilité, etc.), marier calcul scientifique et schémas numériques. En climatologie, on n’a pas accès à l’expérience, c’est mauvais, du point de vue de la philosophie des sciences. On peut faire quelques expériences en laboratoire, mettre une plante sous cloche avec du CO2, mais on n’a pas d’expérience pour le système complet. La démarche du laboratoire est donc de documenter l’histoire du climat. Il y a d’abord un travail de récolte et d’analyse de données, puis une phase de modélisation : peut-on mettre le “système Terre” en équations ?
B : Allez-vous sur le terrain?
OM : J’y suis allé deux fois. En général, on fait en sorte que les gens qui manipulent les données sur l’ordinateur aient une idée de comment on récolte ces données, pour qu’ils se rendent compte, par exemple, qu’avoir 15 décimales de précision sur la température, c’est douteux. J’ai fait une campagne en mer, de prélèvement de mesure d’eau de mer et d’éléments de biologie marine. Lors des campagnes en mer, la plupart des analyses se font en surface sur le bateau : on a des laboratoires embarqués sur lesquels on calibre le salinomètre, etc. J’ai aussi fait une campagne dans le désert du Hoggar, pendant une semaine, pour récolter les sédiments lacustres (il y a 6000 ans, là-bas, il y avait des lacs). Récolter les pollens qui sont dans les sédiments, ça exige des procédés chimiques un peu lourds, donc on ne le fait pas sur place.
Collecte de données dans le Hoggar
B : Qu’est-ce qui motive les chercheurs en climatologie ?
OM : Il n’y a pas un seul profil, car c’est pluridisciplinaire. Chez nous, il y a des gens qui viennent de la dynamique des fluides et d’autres de l’agronomie. Ce n’est pas forcément facile de travailler ensemble ! Les gens qui font du calcul scientifique, quand ils arrivent, n’ont pas de compétences en climatologie, mais en travaillant sur les climats, ils ont l’impression d’être plus utiles à la société que s’ils développaient un logiciel pour faire du marketing par exemple. Ils participent à un projet d’ensemble qui a un rôle dans la société qui est positif, et c’est motivant.
B : Quels sont les liens de votre domaine avec l’informatique ?
OM : On évite d’utiliser le mot « informatique », car cela regroupe des métiers tellement différents. L’informatique en tant que discipline scientifique est bien sûr clairement définie, mais assez différemment de son acception par l’homme de la rue. Nous parlons de calcul scientifique. L’équipe que je dirigeais s’appelle d’ailleurs CalculS. Dans ma génération, si des personnes telles que moi disaient qu’elles faisaient de « l’informatique », elles voyaient débarquer dans leur bureau des collègues qui leur demandaient de “débugger » les appareils. Il y avait une confusion symptomatique et j’aurais préféré que le mot «informatique» n’existe pas. La Direction Informatique du CEA regroupait bureautique et calcul scientifique. Maintenant au contraire, le calcul scientifique ne dépend plus de la direction informatique. Les interlocuteurs comprennent mieux notre métier. Notre compétence n’est pas le microcode, et nous ne savons pas enlever les virus des ordinateurs.
Développer des modèles
B : Utilisez-vous des modèles continus ou discrets ?
OM : Les zones géographiques sont représentées par une grille de maille 200 km (l’océan a une grille plus fine). Le temps, qui est la plus grande dimension, est discret, et on fait évoluer le système pas à pas. Il faut entre 1 et 3 mois pour simuler entre 100 et 1000 ans de climat. On ne cherche pas à trouver un point de convergence mais à étudier l’évolution… On s’intéresse à des évolutions sur 100 000 ans ! Il y a des gens qui travaillent sur le passé d’il y a 500 millions d’années, et d’autres sur le passé plus récent. Nous, on essaie de travailler sur le même modèle pour le passé et pour le futur. Donc, par rapport aux autres équipes de recherche, cela implique qu’on n’ait pas un modèle à plus basse résolution pour le futur et un autre à plus haute résolution pour le passé. L’adéquation des modèles sur le passé est une validation du modèle pour le futur, mais on a une seule trajectoire du système – une seule planète dont l’existence se déroule une seule fois au cours du temps. Nos modèles peuvent éventuellement donner d’autres climats que celui observé, et cela ne veut pas forcément dire qu’ils sont faux, mais simplement qu’ils partent d’autres conditions initiales. On peut faire de la prévision climatique, mais on ne peut pas travailler sur des simulations individuelles, il faut étudier des ensembles. En particulier, les effets de seuil sont difficiles à prédire. On a besoin de puissance de calcul.
B : Dans votre domaine, y a-t-il des verrous qui ont été levés ?
OM : Cette évolution a eu lieu par raffinements successifs. Maintenant on sait que ce sont plutôt les paramètres orbitaux qui démarrent une glaciation, mais que le CO2 joue un rôle amplificateur, et on ne comprend pas complètement pourquoi. On se doute qu’aujourd’hui le climat glaciaire s’explique en partie parce que l’océan est capable de piéger plus de CO2 en profondeur, et je travaille en ce moment pour savoir si au bord du continent antarctique, où l’océan est très stratifié, on peut modéliser les rejets de saumure par la glace de mer ; on essaie de faire cette modélisation dans une hiérarchie de modèles pour voir s’il y a une convergence, ou pour quantifier tel phénomène qu’on n’avait pas identifié il y a 30 ans et qui joue un rôle majeur. L’effet de la saumure est variable selon qu’elle tombe sur le plateau continental ou non. Pour modéliser ces effets, il faut représenter la topographie du fond marin de façon fine, mais là on tombe sur un verrou, parce qu’on ne sait pas modéliser le fond de l’océan. On alterne les simulations longues à basse résolution simplifiée des rejets de sel, avec les modèles à plus haute résolution. Il y a des verrous qui sont levés parce qu’on sait faire des mesures plus fines au spectromètre et parce que la puissance de calcul augmente.
B : Dans dix ou vingt ans, qu’est-ce que vous aimeriez voir résolu?
OM : D’une part, en tant qu’océanographe, j’aimerais comprendre toute la circulation au fond de l’océan – c’est quelque chose de très inerte, de très lent, sauf quelques courants un peu plus rapides sur les bords. Il y a des endroits de l’océan qui sont très isolés à cause du relief. Je voudrais des simulations fines de l’océan pour comprendre son évolution très lente. On progresse, et un jour ce sera traité à des échelles pertinentes pour le climat.
D’autre part, dans l’atmosphère, on tombe sur d’autres problèmes – ainsi, les grands cumulo-nimbus tropicaux, ce sont des systèmes convectifs. Quand on a une maille à 100 km, on essaie d’en avoir une idée statistique. Quand on a une maille à 100 m, on résout ces systèmes explicitement. Mais entre les deux, il y a une espèce de zone grise, trop petite pour faire des statistiques mais trop grande pour faire de la résolution explicite. Dans 50 ans, on pourra résoudre des systèmes convectifs dans des modèles du climat. On commence à avoir la puissance de calcul pour s’en rapprocher.
Plus généralement c’est un exercice assez riche que de prendre des phénomènes à petite échelle et d’essayer de les intégrer aux phénomènes à grande échelle géographique, pour voir leur effet. L’écoulement atmosphérique est décrit par les équations de Navier-Stokes mais on ne peut pas résoudre toute la cascade d’effets vers les petites échelles, alors on fait de la modélisation. On se dit : il doit y avoir une certaine turbulence qui produit l’effet observé sur l’écoulement moyen. On observe les changements de phase, et il y a tout un travail pour essayer de modéliser cela correctement.
Mais c’est très difficile, dans les articles scientifiques, quand quelqu’un a fait un progrès en modélisation, de le reproduire à partir de l’article – d’une certaine façon, cette nouvelle connaissance est implicite. L’auteur vous donne ses hypothèses physiques, ses équations continues, mais ne va pas jusqu’à l’équation discrète et à la façon dont il a codé les choses, ce qui peut être une grosse partie du travail. On commence désormais à exiger que le code soit publié, et il y a des revues dont l’objectif est de documenter les codes, et dont la démarche est de rendre les données brutes et les codes disponibles. Sans le code de l’autre chercheur, vous ne pouvez pas reproduire son expérience. Mais ce sont là des difficultés qui sont en voie de résolution en ce moment.
Un supercalculateur
Les super-calculateurs sont de plus en plus complexes à utiliser.
Dans mon travail, je suis plutôt du côté des producteurs de données. Il y a des climatologues qui vont prendre les données de tout le monde et faire des analyses, donc vous avez un retour sur vos propres simulations, ce qui est extrêmement riche. C’est très intéressant pour nous de rendre les données disponibles, car on bénéficie alors de l’expertise des autres équipes. Cela nous donne un regard autre sur nos données. D’ailleurs, il y a une contrainte dans notre domaine : pour les articles référencés dans le rapport du GIEC, les données doivent obligatoirement être disponibles et mises sous format standard. C’est une contrainte de garantie de qualité scientifique.
B : Y a-t-il libre accès aux données à l’international ?
OM : Tous les 6 ou 7 ans, le rapport du GIEC structure les expériences et organise le travail à l’international. Il y a eu une phase, il y a 10 ans, où on voulait rassembler toutes les données dans un lieu commun, mais ce n’est pas fiable, il y a trop de données. Maintenant on a un portail web (ESGF) qui permet d’accéder aux données là où elles sont. Les gens peuvent rapatrier les données chez eux pour les analyser mais quand il y a un trop gros volume, pour certaines analyses, ils sont obligés de faire le travail à distance.
B : Parlons du « déluge de données, du big data. Vous accumulez depuis des années une masse considérable de données. Il y a aussi des problèmes pour les stocker, etc.
OM : Le big data, pour nous, c’est très relatif, car il y a plusieurs ordres de grandeur entre les données que nous avons et ce qu’ont Google ou Youtube par exemple. 80% du stockage des grands centres de la Recherche publique est le fait de la communauté climat-environnement. Notre communauté scientifique étudie la trajectoire du système, pas l’état à un seul instant. Il y a des phénomènes étudiés sur 1000 ans pour lesquels on met les données à jour toutes les 6 heures (les gens qui étudient les tempêtes par exemple). Mais c’est vrai que le stockage devient un problème majeur pour nous. GENCI finance les calculateurs, mais ce sont les hébergeurs de machines, le CNRS etc., qui financent les infrastructures des centres.
B : Qu’est-ce que les progrès de l’informatique ont changé dans votre domaine, et qu’est-ce que vous pouvez attendre des informaticiens ?
OM : Il y a une plus grande spécialisation. Lorsque j’étais en thèse, un jeune doctorant avait les bases en physique, mathématiques et informatique pour écrire un code qui tournait à 50% de la puissance de la machine. On n’avait pas besoin de spécialiste en informatique. Les physiciens apprenaient sur le tas. Maintenant l’évolution des machines fait qu’elles sont plus difficiles à programmer en programmation parallèle pour avoir un code pertinent et performant, et du coup les physiciens doivent collaborer avec des informaticiens. Les super-calculateurs sont de moins en moins faciles à utiliser. En ce qui concerne la formation, les jeunes qui veulent faire de la physique, et arrivent en thèse pour faire de la climatologie ne sont pas du tout préparés à utiliser un super-calculateur. Ils commencent à être formés à Matlab et à savoir passer des équations à des programmes, mais quand on met entre leurs mains un code massivement parallèle en leur disant de modifier un paramètre physique, on a vite fait de retrouver du code dont la performance est divisée par 10, voire par 100 ! On a besoin de gens qui comprennent bien l’aspect matériel des calculateurs, (comprendre où sont les goulots d’étranglement pour faire du code rapide), et qui sachent faire des outils pour analyser les endroits où ça ralentit. En informatique, les langages de programmation ont pris du retard sur le matériel. Il y a un travail qui est très en retard, à savoir, essayer de faire des langages et compilateurs qui transforment le langage du physicien en code performant. Il faut beaucoup d’intelligence pour masquer cette complexité à l’utilisateur. Aujourd’hui c’est plus difficile qu’il y a vingt ans.
B : Votre travail a-t-il des retombées sociétales ou économiques ?
OM : Nos docteurs sont embauchés chez les assureurs, cela doit vouloir dire que notre travail a des retombées pour eux ! Il y a aussi EDF qui s’intéresse à avoir une vision raisonnable de ce que sera le climat pour l’évolution des barrages, l’enfouissement des déchets nucléaires, etc. Mais, la « prévision du climat », on en a horreur : nous, on fait des scénarios, mais on ne peut pas maîtriser, en particulier, la quantité de gaz à effet de serre qui seront rejetés dans l’atmosphère par l’homme. On fait des scénarios et on essaie d’explorer les climats possibles, mais on évite de parler de prévisions. On participe vraiment à la collaboration internationale pour essayer de faire des scénarios climatiques. Il y a une partie validation – la partie historique, instrumentale, bien documentée, qui permet de voir quels sont les modèles qui marchent bien – et une partie où on essaie de comprendre ce qui ne marche pas. Il y a toute une problématique de mathématiques et statistiques pour l’évolution dans le futur.
B : Y a-t-il beaucoup de femmes chercheurs dans votre domaine?
OM : Cela dépend de ce qu’on appelle « mon domaine ». Dans le laboratoire, il y a un bon tiers de femmes. Mais c’est qu’on est dans les sciences de la Terre. En biologie, il y en a plus de la moitié. Dans les sciences dures, en physique, il y en a moins. Dans les réunions de climatologues, il y a environ un tiers de femmes. Mais dès qu’on est dans une réunion d’informaticiens la proportion chute à moins de 10%. C’est extrêmement frappant. Il y a plus de femmes, mais dans la partie informatique et calcul scientifique, cela ne s’améliore pas beaucoup.
B : Y a-t-il autre chose que vous aimeriez ajouter?
OM : Il faut faire attention de distinguer modélisation et simulation. Nous, on fait de la modélisation : on commence par faire un modèle physique, puis on discrétise pour faire un modèle numérique, puis on fait du code. La simulation c’est ce que vous faites une fois que vous avez le code, le modèle informatique.