• Des IA conseillères assurément, une IA présidente jamais de la vie

    L’article du blog binaire de Jason Richard a conduit à une réaction de Max Dauchet. Max est professeur émérite à l’Université de Lille. Il a réalisé des recherches sur les outils logiques et méthodes formelles pour la programmation, l’algorithmique et sur la bioinformatique. Il s’intéresse aujourd’hui à l’éthique des sciences et technologies du numérique. Il fait partie du comité étique et scientifique de Parcoursup. Serge Abiteboul

    Des IA conseillères assurément, une IA présidente jamais de la vie

    Jason Richard s’interrogeait dans ce blog sur la possibilité et l’opportunité qu’un pays soit gouverné par une IA1. Recensant le pour et le contre, il laissait la question ouverte.

    La réponse se précise si l’on considère que l’intelligence obéit à des lois universelles de l’information et qu’elle n’a rien de spécifiquement humain, au même titre que la force obéit aux lois universelles de la physique. L’IA apparaît alors comme un outil parmi les autres, aux côtés de la machine à vapeur. Parce que c’est un outil, il ne faut pas se priver de son aide, parce que ce n’est qu’un outil, l’idée qu’elle préside à notre destinée est vide de sens.

    Cependant l’IA n’est pas n’importe quel outil. Elle est de ces instruments qui révolutionnent les civilisations, comme la lunette astronomique mena à l’héliocentrisme, l’imprimerie à la démocratie libérale. En étendant sans limites notre intelligence, et en la libérant de ses biais cognitifs, l’IA « peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières2 ».

    Les politiques répètent à l’envie qu’il faut « changer de logiciel ». Changeons donc de logiciel.

    Une seconde révolution copernicienne

    En se penchant sur ses morts, le Sapiens s’interrogea sur son sort. Il imagina son salut par l’obéissance à des lois divines. Quand la révolution copernicienne discrédita l’idée d’une création dont il était le centre, vinrent les Lumières où l’homme se reporta sur sa raison pour comprendre et organiser le monde à son avantage. Cette arrogance de l’esprit nous a conduits au pied d’un mur environnemental qui va selon certains jusqu’à menacer notre espèce. Une nouvelle révolution voit le jour, celle de l’intelligence partagée, instrumentée par l’Intelligence dite Artificielle pour éclairer nos choix. Se priver d’IA dans les débats parlementaires serait désormais aussi stupide que jadis partir en exploration sans boussole, ou maintenant délibérer en COP sans l’expertise du GIEC.

    Si nous répugnons encore à cette perspective, c’est que nous demeurons dans l’idée toute cartésienne que l’intelligence est l’apanage de l’humain. C’est pourquoi nous sommes troublés de voir l’intelligence machine pulvériser nos capacités, alors que nous nous félicitons que nos engins soient bien plus forts que nous pour nous aider dans les chantiers. Quand nous avons inventé la machine à vapeur, nous ne l’avons pas nommée Puissance Artificielle, parce que nous savions que la force et la puissance obéissent à des lois universelles de la mécanique et que nos prédateurs ancestraux nous surpassaient dans ce registre. C’est dans l’intelligence que nous avons placé ces derniers siècles la fierté de notre espèce, comme en témoignent nos contes et récits, où c’est toujours le petit futé qui l’emporte sur le grand crétin. Nous devons désormais nous faire à l’idée que l’intelligence n’est pas non plus notre apanage, qu’elle est partagée avec la nature et nos machines

    La révolution des réseaux de neurones

    La révolution informatique repose sur l’universalité des ordinateurs, leur capacité à « calculer tout ce qui est calculable », pourvu qu’ils aient assez de mémoire et de temps. La difficulté est que pour tout problème, il faut trouver un algorithme qui le résout. La révolution de l’IA repose sur une double universalité : d’une part un réseau de neurones artificiels peut « souvent apprendre approximativement ce qui est apprenable », pourvu qu’il soit assez grand, et d’autre part il peut le faire avec un même et seul algorithme, l’algorithme de rétro-propagation du gradient. En cela l’IA connexionnisme, celle des réseaux de neurones, ne fait que mimer la formidable trouvaille de l’évolution darwinienne qu’est le cortex et ses circonvolutions, avec l’avantage pour la machine de ne pas devoir se tasser dans une boîte crânienne.

    Que des théorèmes expliquent pourquoi l’IA semble faire « tout mieux que nous »3 est de nature à nous rassurer et à tordre le cou aux obscurantismes. Cependant cette affirmation met à l’état de l’art « ses habits du dimanche » comme aurait joliment dit Marcel Pagnol, car il est bon de garder en tête qu’elle cache de nombreux bémols, qui sont autant de pistes pour les recherches futures4.

    Cette révolution ne pouvait avoir lieu que maintenant, car le connexionnisme ne fonctionne que dans la gigantisme, quand tout se compte en milliards, milliards de données, milliards de neurones, milliardièmes de seconde, ce qui n’était pas technologiquement abordable avant ces dernières années.

    Des intelligences non biaisées par la condition humaine

    Un autre avantage de la machine est qu’elle est exempte de nos biais cognitifs5. Des biais sont souvent imputés aux machines, des déboires historiques de Siri aux dérapages récents de la reconnaissance faciale6. Ce faisant on oublie que ces biais ne sont pas liés au fonctionnement des machines mais aux comportements humains, en l’occurrence sexistes ou racistes, reflétés dans les échantillons d’apprentissage. Il faut donc distinguer les biais dans les données et les biais de traitement : là où notre raisonnement est biaisé, le traitement machine des mêmes données ne l’est pas.

    Le Monde a consacré à nos biais cognitifs une série d’articles l’été dernier, « Les intox du cortex », et la chaîne YouTube « La Tronche en Biais », 300k abonnés, dédiée à l’esprit critique, accorde comme son nom l’indique une large place au sujet.

    Un biais cognitif qualifie la différence d’analyse entre celle faite par un humain et celle réalisée de façon purement logique et rationnelle. Il est vraisemblable que nos biais trouvent leurs origines dans des avantages compétitifs qu’ils procuraient à notre espèce et ses individus au cours de la sélection darwinienne, avantages qui peuvent se retourner en handicaps quand l’environnement change. Sébastien Bohler va très loin en la matière7. Selon ce neuro-scientifique vulgarisateur, notre espèce doit sa survie à sa propension à dévorer, copuler, en imposer à la première occasion, tant la condition de nos ancêtre ne tenait qu’à un fil, avec la nourriture rare, la mortalité précoce et la trahison quotidienne. Avec l’abondance de l’ère industrielle, cette tendance – que Bohler nomme bug – qui nous a conduit à la surconsommation, à l explosion démographique, à la profusion de bagnoles, de fringues, et autres biens statutaires, jusqu’au pied du mur écologique.

    Des intelligences machines novatrices

    Le conformisme des IA est souvent évoqué pour les moteurs de recommandations, qui en se basant sur les statistiques de nos goûts nous proposent ce que l’on aime déjà. Mais cela ne vaut pas dans des applications avancées. Ainsi lors du match historique de 2016 AlphaGo réussit contre Lee Sedol un « coup de Dieu », comme le qualifient les spécialistes du jeu de Go. Des recherches récentes expliquent qu’au cours de son apprentissage un réseau connexionniste peut détecter entre des situations des similitudes qui nous échappent tant les sens que nous leur attribuons sont éloignés8. C’est ce que nous appelons parfois la créativité. Là où nos raisonnement seront prisonniers de nos biais, la machine privilégiera des principes mathématiques qui conduiront à des scénarios inédits, qu’elle alimentera de sa capacité à articuler des milliards de données hétérogènes, humaines, économiques, culturelles, scientifiques.

    Quand l’IA éclairera le politique…

    La voiture. Capter le regard envieux du voisin ou celui conquis de l’être convoité est selon les publicités le rêve de tout possesseur d’une voiture. Quitte à frustrer notre goût pour les biens statutaires, l’IA proposera la suppression de la voiture individuelle au profit de flottes collectives semi-autonomes appelées et congédiées d’un clic, elle élaborera des scénarios chiffrés de transition, dont la difficulté est actuellement prétexte à écarter l’idée.

    Les retraites. Par principe de parcimonie, qui privilégie les hypothèses les plus simples, l’IA favorisera l’assertion « tous les humains ont une égale dignité, ils doivent être traités à égalité dès lors qu’ils cessent d’être des agents sociaux-économiques », et elle détaillera là aussi les difficiles scénarios de transition.

    Les migrations. L’humanité s’est fondée sur les migrations, cela n’échappera pas aux machines.

    La fin de vie. La machine ne produira rien qui fasse sens pour nous, car il s’agit de notre mort.

    dans une génération

    Bien entendu nous serons libres de critiquer et réfuter les scénarios des machines. Cependant nos décisions face à ces scénarios devront être solidement argumentées et débattues, car nous aurons à en rendre compte aux générations futures. Les décisions des COP face aux expertises du GIEC donnent un avant goût de cette situation.

    Il faudra une génération pour que le recours institutionnel à l’IA se mette en place. Le temps que celle-ci conquière progressivement notre confiance dans ce rôle. Il faudra en codifier l’usage au fil des expérimentations, comme on codifie le fonctionnement démocratique. Tout comme les experts sont corruptibles, les IA sont manipulables, aussi faudra-t-il également codifier les protocoles de traitement et confronter les IA comme on confronte les experts.

    En revanche l’IA possède un énorme avantage en matière de transparence9. On ne peut pas sonder les crânes pour estimer la sincérité d’un argument, en revanche on peut expertiser les processus de façon reproductible, contradictoire et opposable.

    Le spectre souvent évoqué de la dictature des algorithmes ou des IA n’est pas à craindre : la machine proposera, nous éclairant en surplomb de notre condition, nous seuls disposerons de notre destin. L’intelligence machine pèsera certes sur nos décisions, mais il n’y a là rien de nouveau, nous co-évoluons avec les outils dont nous nous dotons depuis l’époque où nos ancêtres taillaient les silex.

    Max Dauchet, Professeur à l’Université de Lille

    1 Une intelligence artificielle à la tête d’un pays : science fiction ou réalité future ? 27 octobre 2023

    2Propos de Yann le Cun, prix Turing et un des pères de l’IA actuelle, dans une interview au Monde, le 28 avril 2023

    3On a l’embarras du choix d’articles de tous niveaux sur le net. Pour un scientifique francophone non spécialiste, les cours du Collège de France, disponibles en vidéo, sont une entrée attrayante : ceux de Stanislas Dehaene, titulaire de la chaire «Psychologie cognitive expérimentale » pour les aspects biologiques, et pour les aspects sciences du numérique le cours de Yann Le Cun invité en 2015-2016 sur la chaire « Informatique et sciences numériques », ainsi que les cours de Stéphane Mallat, titulaire de la chaire « Sciences des données », axés autour du triangle « régularité, approximation, parcimonie », où l’extraction d’informations de masses de données s’apparente à une réduction de dimension des problèmes à milliards de paramètres.

    On peut aussi aborder la comparaison entre biologie et numérique par le petit bout de la lorgnette, sans aucune connaissance préalable, à travers trois courts articles de mon blog https://la-data-au-secours-des-lumieres.blogspot.com/: « L’affaire du Perceptron » raconte par l’anecdote l’émoi suscité par le Perceptron dans les années 70, imposante machine qui s’avéra avec le recul n’être qu’un séparateur linéaire, comme l’est un neurone muni de la loi formulée par Hebb d’évolution des connexions, dont la vérification expérimentale valut à Eric Kandel le prix Nobel de médecine 2000, séparation linéaire qui est l’opération la plus élémentaire de classification, celle que les enfants apprennent en maternelle (« Le petit neurone et la règle d’écolier »). Dans « Le théorème de convergence du Perceptron », un cadre mathématique élémentaire élucide complètement le comportement du Perceptron, que d’aucuns voyaient un demi siècle auparavant supplanter l’homme.

    4– La notion de ce qui est apprenable est cernée mathématiquement mais floue dans la pratique. Intuitivement, est apprenable ce qui est structuré, d’où la boutade des chercheurs « Soit le monde est structuré, soit Dieu existe » (rapportée d’Outre Atlantique par Yann le Cun), face aux succès dépassant mystérieusement leurs attentes. Il s’avère que le connexionnisme permet d’ exploiter les structures (d’un problème souvent riche de milliards de paramètres) sans avoir à les décrire. C’est ce que fait un enfant quand il apprend à faire des phrases sans rien connaître de la grammaire, ou qu’il apprend à se repérer sans rien connaître de la géométrie.

    – Dans la pratique l’apprentissage ou la génération sont améliorés par des intervenants humains, qui peuvent être une foultitude de petites mains pour les grandes applications.

    – L’universalité est théorique, pour être efficace dans la pratique, l’architecture d’un réseau est adaptée à tâtons à un problème, et tous les problèmes ne sont pas traitables en temps réaliste.

    – De part son principe, l’algorithme de rétro-propagation peut converger vers divers comportements du réseau, sans que l’on puisse préciser à quel point ils sont bons. Des résultats théoriques montrent que de telles limitations sont inévitables.

    – Dans l’intelligence humaine comme dans celle de la machine bien d’autres fonctions entrent en jeu, souvent encore mal connues en neurosciences, et souvent relevant de techniques dites symboliques en IA, techniques objets de controverses face au connexionnisme au cours de la jeune histoire de l’IA.

    5Comme le relève Jason Richard dans sa liste des avantages de l’IA.

    6Siri, un des premiers assistants personnels sur smartphone, fut accusé de tenir des propos inappropriés. Plus récemment des systèmes de reconnaissance faciale, entraînés principalement sur des blancs, commettaient des confusions sur les personnes de couleur.

    7 Le Bug humain, Robert Laffont, 2020

    8 Jean-Paul Delahaye, « Derrière les modèles massifs de langage », Pour la science, janvier 2024

    9On reproche couramment à l’IA son manque d’explicabilité, parce que dans les applications de masse, les conditions d’exploitation ne permettent pas l’analyse des traces de calcul. Ce ne sera pas le cas ici.

  • L’universalité de la vérification des démonstrations mathématiques

    Un nouvel « Entretien autour de l’informatique ». Gilles Dowek est chercheur en informatique chez Inria et enseignant à l’ENS de Paris-Saclay. Il est lauréat du Grand prix de philosophie 2007 de l’Académie française pour son ouvrage Les métamorphoses du calcul, une étonnante histoire de mathématiques (éditions Le Pommier) et du Grand prix Inria – Académie des sciences 2023 pour ses travaux sur les systèmes de vérification automatique de démonstrations mathématiques. Il a brièvement travaillé sur le système Coq au début de sa carrière. Il est à l’origine de Dedukti, un cadre logique permettant d’exprimer les théories utilisées dans différents systèmes de vérification de démonstrations. C’est l’une des personnes qui a le plus contribué à l’introduction en France de l’enseignement de l’informatique au collège et au lycée.

    Gilles Dowek, © Inria / Photo B. Fourrier

    Binaire : Comment doit-on te présenter ? Mathématicien, logicien, informaticien ou philosophe ?

    GD :  Le seul métier que j’aie jamais exercé, c’est informaticien. La séparation des connaissances en disciplines est bien sûr toujours un peu arbitraire. Il y a des frontières qu’on passe facilement. Mes travaux empiètent donc sur les mathématiques, la logique et la philosophie. Mais je suis informaticien.

    Binaire : Peux-tu nous raconter brièvement ta vie professionnelle ?

    GD : Enfant, je voulais déjà être chercheur, mais je ne savais pas dans quelle discipline. Les chercheurs que je connaissais étaient surtout des physiciens : Einstein, Marie Curie… Je voyais dans la recherche une construction collective qui durait toute l’histoire de l’humanité.  J’étais attiré par l’idée d’apporter une contribution, peut-être modeste, à cette grande aventure. Mes fréquentes visites au Palais de la Découverte m’ont encouragé dans cette voie.

    J’ai commencé ma carrière de chercheur assez jeune grâce à l’entreprise Philips, qui organisait, à l’époque, chaque année un concours pour les chercheurs de moins de 21 ans, des amateurs donc. J’ai proposé un programme pour jouer au Master Mind et j’ai obtenu le 3ème prix. Jacques-Louis Lions qui participait au jury a fait lire mon mémoire à Gérard Huet, qui l’a fait lire à François Fages. J’avais chez moi en 1982 un ordinateur avec 1 k-octet de mémoire et mon algorithme avait besoin de plus. Je ne pouvais l’utiliser qu’en fin de partie et je devais utiliser un autre algorithme, moins bon, pour le début et le milieu de la partie.

    Gérard et François m’ont invité à faire un stage pendant les vacances de Noël 1982. Ils ont tenté de m’intéresser à leurs recherches sur la réécriture, mais sans succès. La seule chose que je voulais était utiliser leurs ordinateurs pour implémenter mon algorithme pour jouer au Master Mind. Et ils m’ont laissé faire. Cela m’a permis d’avoir de bien meilleurs résultats et de finir avec le 3ème prix, cette fois au niveau européen.

    Durant ce stage, Gérard m’avait quand même expliqué qu’il n’y avait pas d’algorithme pour décider si un programme terminait ou non ; il m’a juste dit que c’était un théorème, sans m’en donner la démonstration. Mais cela me semblait incroyable. À l’époque, pour moi, l’informatique se résumait à écrire des programmes ; je voyais cela comme une forme d’artisanat. Ce théorème m’ouvrait de nouveaux horizons : l’informatique devenait une vraie science, avec des résultats, et même des résultats négatifs. C’est ce qui m’a fait changer de projet professionnel.

    Gérard m’avait aussi dit que, pour si je voulais vraiment être chercheur et avoir un poste, je devais faire des études. Alors j’ai fait des études, prépa puis école d’ingénieur. Je suis retourné chez Gérard Huet, pour mon stage de recherche de fin d’étude, puis pour ma thèse. Ensuite, je suis devenu professionnel de la recherche ; j’ai eu un poste et j’ai obtenu le grand plaisir de gagner ma vie en faisant ce qui m’intéressait et qui, le plus souvent, qui me procure toujours une très grande joie.

    Binaire : Peux-tu nous parler de ta recherche ?

    GD : En thèse, je cherchais des algorithmes de démonstration automatique pour produire des démonstrations dans un système qui est devenu aujourd’hui le système Coq. Mais dans les conférences, je découvrais que d’autres gens développaient d’autres systèmes de vérification de démonstrations, un peu différents. Cela me semblait une organisation curieuse du travail. Chacun de son côté développait son propre système, alors que les mathématiques sont, par nature, universelles.

    Qu’est-ce qu’un système de vérification de démonstrations mathématiques ? Prouver un théorème n’est pas facile. En fait, comme l’ont montré Church et Turing, il n’existe pas d’algorithme qui puisse nous dire, quand on lui donne un énoncé, si cet énoncé a une démonstration ou non. En revanche, si, en plus de l’énoncé du théorème, on donne une démonstration potentielle de cet énoncé, il est possible de vérifier avec un algorithme que la démonstration est correcte. Trouver des méthodes pour vérifier automatiquement les démonstrations mathématiques était le programme de recherche de Robin Milner (Prix Turing) et également de Nicolaas De Bruijn. Mais en faisant cela, ils se sont rendu compte que si on voulait faire vérifier des démonstrations par des machines, il fallait les écrire très différemment, et beaucoup plus rigoureusement, que la manière dont on les écrit habituellement pour les communiquer à d’autres mathématiciens.

    Les travaux de Milner et de De Bruijn ouvraient donc une nouvelle étape dans l’histoire de la rigueur mathématique, comme avant eux, ceux d’Euclide, de Russell et Whitehead et de Bourbaki. Le langage dans lequel on exprime les démonstrations devient plus précis, plus rigoureux. L’utilisation de logiciels change la nature même des mathématiques en créant, par exemple, la possibilité de construire des démonstrations qui font des millions de pages.

    Notre travail était passionnant mais je restais insatisfait par le côté tour de Babel : chaque groupe arrivait avec son langage et son système de vérification. Est-ce que cela impliquait à un relativisme de la notion de vérité ? Il me semblait que cela conduisait à une crise de l’universalité de la vérité mathématique. Ce n’était certes pas la première de l’histoire, mais les crises précédentes avaient été résolues. J’ai donc cherché à construire des outils pour résoudre cette crise-là.

    Binaire : Est-ce qu’on ne rencontre pas un problème assez semblable avec les langages de programmation ? On a de nombreuses propositions de langages.

    GD : Tout à fait. Cela tient à la nature même des langages formels. Il faut faire des choix dans la manière de s’exprimer. Pour implémenter l’algorithme de l’addition dans un langage de programmation (ajouter les unités avec les unités, puis les dizaines avec les dizaines, etc. en propageant la retenue), on doit décider comment représenter les nombres, si le symbole « etc. » traduit une boucle, une définition par récurrence, une définition récursive, etc. Mais pour les langages de programmation, il y a des traducteurs (les compilateurs) pour passer d’un langage à un autre. Et on a un avantage énorme : tous les langages de programmation permettent d’exprimer les mêmes fonctions : les fonctions calculables.

    Avec les démonstrations mathématiques, c’est plus compliqué. Tous les langages ne sont pas équivalents. Une démonstration particulière peut être exprimable dans un langage mais pas dans un autre. Pire, il n’y a pas de langage qui permette d’exprimer toutes les démonstrations : c’est une conséquence assez simple du théorème de Gödel. Peut-on traduire des démonstrations d’un langage vers un autre ? Oui, mais seulement partiellement.

    Pour résoudre une précédente crise de l’universalité de la vérité mathématique, la crise des géométries non euclidiennes (*), Hilbert et Ackermann avaient introduit une méthode : ils avaient mis en évidence que Euclide, Lobatchevski et Riemann n’utilisaient pas les mêmes axiomes, mais surtout ils avaient proposé un langage universel, la logique des prédicats, dans lequel ces différents axiomes pouvaient s’exprimer. Cette logique des prédicats a été un grand succès des mathématiques des années 1920 et 1930 puisque, non seulement les différentes géométries, mais aussi l’arithmétique et la théorie des ensembles s’exprimaient dans ce cadre. Mais, rétrospectivement, on voit bien qu’il y avait un problème avec la logique des prédicats, puisque personne n’avait exprimé, dans ce cadre logique, la théorie des types de Russell, une autre théorie importante à cette époque. Et pour le faire, il aurait fallu étendre la logique des prédicats. Par la suite, de nombreuses autres théories ont été proposées, en particulier le Calcul des Constructions, qui est le langage du système Coq, et n’ont pas été exprimée dans ce cadre.

    Au début de ma carrière, je pensais qu’il suffisait d’exprimer le Calcul des Constructions dans la logique des prédicats pour sortir de la tour de Babel et retrouver l’universalité de la vérité mathématique. C’était long, pénible, frustrant, et en fait, cette piste m’a conduit à une impasse. Mais cela m’a surtout permis de comprendre que nous avions besoin d’autres cadres que la logique des prédicats. Et, depuis les années 1980, plusieurs nouveaux cadres logiques étaient apparus dans les travaux de Dale Miller, Larry Paulson, Tobias Nipkow, Bob Harper, Furio Honsel, Gordon Plotkin, et d’autres. Nous avons emprunté de nombreuses idées à ces travaux pour aboutir à un nouveau cadre logique que nous avons appelé Dedukti (“déduire” en espéranto). C’est un cadre général, c’est-à-dire un langage pour définir des langages pour exprimer des démonstrations. En Dedukti, on peut définir par exemple la théorie des types de Russell ou le Calcul des Constructions et on peut mettre en évidence les axiomes utilisés dans chaque théorie, et surtout dans chaque démonstration.

    Binaire : Pourquoi l’appeler Dedukti ? Ce n’est pas anodin ?

    GD : Qu’est-ce qui guidait ces travaux ? L’idée que certaines choses, comme la vérité mathématique, sont communes à toute l’humanité, par-delà les différences culturelles. Nous étions attachés à cette universalité des démonstrations mathématiques, les voir comme des “communs”. Dans l’esprit, les liens avec des communs numériques comme les logiciels libres sont d’ailleurs étroits. On retrouve les valeurs d’universalité et de partage. Il se trouve d’ailleurs que la plupart des systèmes de vérification de démonstrations sont des logiciels libres. Coq et Dedukti le sont. Vérifier une démonstration avec un système qu’on ne peut pas lui-même vérifier, parce que son code n’est pas ouvert, ce serait bizarre.

    Revenons sur cette universalité. Si quelqu’un arrivait avec une théorie et qu’on n’arrivait pas à exprimer cette théorie dans Dedukti, il faudrait changer Dedukti, le faire évoluer. Il n’est pas question d’imposer un seul système, ce serait brider la créativité. Ce qu’on vise, c’est un cadre général qui englobe tous les systèmes de vérification de démonstrations utilisés.

    Longtemps, nous étions des gourous sans disciples : nous avions un langage universel, mais les seuls utilisateurs de Dedukti étaient l’équipe de ses concepteurs. Mais depuis peu, Dedukti commence à avoir des utilisateurs extérieurs à notre équipe, un peu partout dans le monde. C’est bien entendu une expansion modeste, mais cela montre que nos idées commencent à être comprises et partagées.

    Binaire : Tu es très intéressé par les langages formels. Tu as même écrit un livre sur ce sujet. Pourrais-tu nous en parler ?

    GD : Les débutants en informatique découvrent d’abord les langages de programmation. L’apprentissage d’un langage de programmation n’est pas facile. Mais la principale difficulté de cet apprentissage vient du fait que les langages de programmation sont des langages. Quand on s’exprime dans un langage, il faut tout dire, mais avec un vocabulaire et une syntaxe très pauvre. Les langages de démonstrations sont proches des langages de programmation. Mais de nombreux autres langages formels sont utilisés en informatique, par exemple des langages de requêtes comme SQL, des langages de description de pages web comme HTML, et d’autres. Le concept de langage formel est un concept central de l’informatique.

    Mais ce concept a une histoire bien plus ancienne que l’informatique elle-même. Les humains ont depuis longtemps inventé des langages dans des domaines particuliers, comme les ophtalmologistes pour prescrire des lunettes. On peut multiplier les exemples : en mathématiques, les langages des nombres, de l’arithmétique, de l’algèbre, où apparaît pour la première fois la notion de variable, les cylindres à picots des automates, le langage des réactions chimiques, inventé au XIXe siècle, la notation musicale.

    C’est le sujet de mon livre, Ce dont on ne peut parler, il faut l’écrire (Le Pommier, 2019). La création de langage est un énorme champ de notre culture. Les langages sont créés de toute pièce dans des buts spécifiques. Ils sont bien plus simples que les langues naturelles utilisées à l’oral. Ils expriment moins de choses mais ils sont souvent au centre des progrès scientifiques. L’écriture a probablement été inventée d’abord pour fixer des textes exprimés dans des langages formels et non dans des langues.

    Binaire : Tu fais une très belle recherche, plutôt fondamentale. Est-ce que faire de la recherche fondamentale sert à quelque chose ?

    GD : Je ne sais pas si je fais de la recherche fondamentale. En un certain sens, toute l’informatique est appliquée.

    Maintenant, est-ce que la recherche fondamentale sert à quelque chose ? Cela me rappelle une anecdote. À l’École polytechnique, le poly d’informatique disait que la moitié de l’industrie mondiale était due aux découvertes de l’informatique et celui de physique que deux tiers de  l’industrie mondiale étaient dus aux découvertes de la physique quantique. Les élèves nous faisaient remarquer que 1/2 + 2/3, cela faisait plus que 1. Bien entendu, les physiciens avaient compté toute l’informatique dans la partie de l’industrie que nous devions à la physique quantique, car sans physique quantique, pas de transistors, et sans transistors, pas d’informatique. Mais le message commun que nous voulions faire passer était que des pans entiers de l’économie existent du fait de découvertes scientifiques au départ perçues comme fondamentales.  L’existence d’un algorithme pour décider de la correction d’une démonstration mathématique, question qui semble très détachée de l’économie, nous a conduit à concevoir des logiciels plus sûrs. La recherche la plus désintéressée, éloignée a priori de toute application, peut conduire à des transformations majeures de l’économie.

    Cependant, ce n’est pas parce que la recherche a une forte influence sur le développement économique que nous pouvons en conclure que c’est sa seule motivation. La recherche nous sert aussi à mieux comprendre le monde, à développer notre agilité intellectuelle, notre esprit critique, notre curiosité.  Cette quête participe de notre humanité. Et si cela conduit à des progrès industriels, tant mieux.

    Serge Abiteboul, Inria, & Claire Mathieu, CNRS

    (*) Des géomètres comme Euclide ont démontré que la somme des angles d’un triangle est toujours égale à 180 degrés. Mais des mathématiciens comme Lobatchevski ont démontré que cette somme était inférieure à 180 degrés. Crise ! Cette crise a été résolue au début du XXe siècle par l’observation, finalement banale, que Euclide et Lobatchevski n’utilisaient pas les mêmes axiomes, les mêmes présupposés sur l’espace géométrique.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • DAO : la gouvernance des communs par du code

    Primavera De Filippi est une juriste, directrice de recherche au CNRS, et research fellow au Berkman Klein Center for Internet & Society de l’Université Harvard. Elle est également militante des communs numériques notamment à l’association Creative Commons, et à l’Open Knowledge Foundation. Elle a publié en 2018 “Blockchain and the Law” chez Harvard University Press. Elle est aussi artiste.DAO : la gouvernance des communs par du code
    Ce texte est co-publié en commun avec Conseil National du Numérique dans le cadre de notre rubrique sur les communs numériques.

    Primavera De Filippi, Wikipédia

    F&S : qu’est-ce qui t’a conduite à étudier des sujets comme la blockchain ou les DAO ?

    Primavera : je m’intéresse depuis longtemps aux communs, les Creative Commons, et aux formes décentralisées de production, de création. Je me suis intéressée aux blockchains et aux DAO parce ce que ces technologies permettent, facilitent et nécessitent des formes nouvelles de gouvernance des communs.

    F&S : on va supposer que les lecteurs de binaire sont déjà familiers des blockchains. Pourrais-tu leur expliquer rapidement ce que sont les DAO et la place que tiennent les smart contracts dans ces organisations ?

    Primavera : commençons par le smart contract. C’est un programme informatique qui sert à contrôler ou documenter automatiquement des actions entre des personnes (physiques ou morales) suivant les termes d’un accord ou d’un contrat entre elles. Une DAO (decentralized autonomous organization), en français organisation autonome décentralisée, est une organisation qui fonctionne grâce à des smart contracts. Le code qui définit les règles transparentes de gouvernance de son organisation est inscrit dans une blockchain.

    F&S : nous nous intéressons aux communs. Que peuvent apporter les DAO aux communs ?

    Primavera : les communs visent à gérer le partage de ressources par une communauté. Cette communauté a besoin de suivre des règles, et d’une gouvernance. Une DAO peut procurer cette gouvernance.

    F&S : mais un commun n’est pas figé. Il évolue naturellement. Comment la DAO peut-elle s’adapter à de telles évolutions ?

    Primavera : le smart contract doit évoluer et ce n’est pas simple une fois que la DAO fonctionne. Il faut avoir prévu des mécanismes pour de telles évolutions avant même son lancement. Cela peut-être des paramètres que la communauté modifie. Parfois, les fondateurs peuvent prévoir aussi des procédures pour faire évoluer le code. Enfin, l’ensemble de règles qui définissent le smart contract (son code) peut être lui-même une ressource d’une autre DAO. Cette seconde DAO est utilisée pour faire évoluer le code.

    F&S : quelle est la valeur légale d’un smart contract ? Peut-on le voir comme un contrat ?

    Primavera : non, un smart contract n’est pas un contrat au sens juridique du terme. Mais dans son esprit, cela peut être vu comme un accord entre deux parties. Si les deux parties agissent de manière éclairée, cela peut être vu comme un contrat juridique implicite. De fait, on dispose d’assez peu de jurisprudence sur ce sujet et la loi n’apporte pas de vraie reconnaissance aux smart contracts.

    F&S : que se passe-t-il à la friction avec le monde physique, le monde légal. Quelle est, par exemple, la valeur légale d’un achat passé par un individu sur une blockchain, ou par une DAO ?

    Primavera : on voit se multiplier ce genre de questions qui parlent de transferts d’un monde à l’autre. En fait, ce qui est passionnant dans la rencontre entre ces deux mondes, c’est que, dans le monde classique, le droit détermine la loi, alors, que dans ces mondes numériques, le code définit la loi. Il faut donc établir une reconnaissance juridique du code.

    F&S : mais concrètement, comment fait une DAO pour payer des employés ou louer des locaux ?

    Primavera : C’est compliqué parce que la DAO n’a pas de personnalité juridique. Une solution aujourd’hui qui ne marche pas parfaitement consiste à placer la DAO à l’intérieur d’une entité juridique ; on parle d’« enveloppe légale » (legal wrapper). Cela conduit à des entités qui sont semi technologiques et semi juridiques. Mais même si on prétend que ces deux entités forment un seul corps, ce n’est en réalité pas le cas.

    F&S : est-ce que cela ne pose pas des questions de gouvernance et de responsabilité ?

    Primavera : c’est bien le problème. L’entité juridique a des acteurs qui sont supposés être responsables. Mais les actions de la DAO ne sont pas nécessairement alignées avec celles de l’entité juridique, parce que la gouvernance n’est pas la même.

    F&S : est-ce qu’on ne rencontre pas une situation semblable en cas de désaccords entre un commun, et la fondation qui le représente ? On pourrait penser, par exemple, à un désaccord entre le commun Wikipédia et la fondation Wikimédia.

    Primavera : ce n’est pas vraiment pareil. Dans le cas du commun et de sa fondation, on peut imaginer que la fondation contrôle le commun parce qu’elle en est une émanation. Si elle entre en conflit avec la communauté, la communauté va faire évoluer la fondation ou faire sécession. Pour ce qui est de la DAO, ce n’est pas possible.

    F&S : tu t’intéresses aussi au métavers. Pourquoi ?

    Primavera : le web est un monde décentralisé de contenus numériques. Toute la beauté d’internet et du web tient à l’interopérabilité qui est à leur base qui est source de partage. Cette interopérabilité est déjà mise à mal par des silos dans lesquels on veut vous confiner : les réseaux sociaux, les App… Dans cette lignée, les métavers sont des mondes virtuels a priori très centralisés. Comment peut-on les faire interopérer ?

    Par exemple, dans ces mondes, on possède des objets numériques que l’on peut acheter et vendre. Comment retrouver dans un de ces mondes un objet que j’aurais acheté dans un autre. C’est là que la blockchain et les non-fungible-tokens (NFT) deviennent intéressants. Avec un NFT, j’ai une preuve de propriété de mon achat d’un objet numérique. C’est une possibilité d’interopérabilité d’un monde à l’autre.

    Dans tous ces sujets qui m’intéressent, on retrouve ce même souhait de faire du monde numérique un commun, de refuser de se laisser enfermer dans des silos.

    Serge Abiteboul, Inria, et François Bancilhon, entrepreneur en série

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Hommage à Niklaus Wirth

    Tristan Nitot a publié un message sur LinkedIn en hommage à Niklaus Wirth. Binaire et le Bulletin 1024 de la Société Informatique de France lui avons demandé de nous écrire un article. Serge Abiteboul, Sylvie Alayranques, Denis Pallez et Pierre Paradinas.

    Niklaus Wirth en 1984 à côté de Lilith. (Photo: Niklaus Wirth). ETH Zurich.

    Dans toutes les industries, il y a des figures légendaires. Dans le numérique (qui pour moi rassemble le matériel informatique et le logiciel), il y a indéniablement Niklaus Wirth. Même si aujourd’hui, dans un monde qui va vite, peu de gens se souviennent de ce scientifique suisse qui vient de s’éteindre le premier janvier juste avant ses 90 ans. Et pourtant, quel parcours, quelles contributions, quelle sagesse et, chose plus rare encore dans ces métiers, une étonnante humilité.

    On ne saurait résumer la vie du professeur Niklaus Wirth en quelques mots : il est né en Suisse en 1934, a étudié à l’ETH Zurich, puis obtenu un doctorat en informatique à Berkeley. C’est là qu’il a découvert les langages informatiques et les compilateurs. Il a obtenu l’ACM Turing Award, (le prix Nobel de l’informatique) en 1984. Il a inventé de nombreux langages, dont le célèbre langage Pascal mais aussi Modula-2.

    Mais réduire la carrière de Niklaus Wirth aux langages informatique serait une erreur. Il inventait des systèmes informatiques, comprenant un système d’exploitation, un environnement de développement avec un langage et un compilateur, avec les interfaces homme-machine.

    Il a fait deux passages d’une année au Xerox PARC Palo Alto Research Center, s’inspirant de la citation d’Alan Kay qui y officiait :  Les gens qui font du logiciel sérieusement devraient construire leur propre matériel. C’est ainsi qu’en 1980, quatre ans avant l’arrivée du Mac, Niklaus Wirth a commencé à développer Lilith (cf. image page précédente), une des premières stations de travail avec une souris et un affichage graphique haute résolution, sans arriver au succès commercial des solutions américaines.

    En 1992, dans le manuel du système Oberon, il explique que malgré la loi de Moore qui stipule que la puissance des semi-conducteurs double tous les deux ans, les logiciels deviennent plus gros et moins optimisés au même rythme. On a appelé cela la loi de Wirth : En dépit de multiples bonds en avant, le matériel accélère moins vite que le logiciel ne se ralentit. Le système Oberon, qui était composé d’un système d’exploitation, d’un langage et d’un ordinateur, visait à contredire la loi de Wirth. En 2013 (il a alors 79 ans !), sortait une nouvelle version d’Oberon où Wirth est allé jusqu’à fabriquer son propre microprocesseur sur la base de circuits FPGA.

    Wirth a aussi publié dès 1995 un plaidoyer pour le logiciel frugal où il explique les origines de la loi de Wirth dans le fait que les auteurs de logiciels rajoutent des fonctionnalités inutiles pour inciter leurs clients à acheter la nouvelle version, ce qui rend le logiciel plus gras, plus lent, et fait les affaires des fabricants de matériel, dont la précédente génération est devenue de facto obsolète. Les clients rachètent donc du matériel pour remplacer l’ancien qui fonctionne pourtant très bien. De nos jours, presque 30 ans plus tard, la notion d’obsolescence programmée est dorénavant connue de tous, et on réalise que cela fait 50 ans que les industries du matériel et du logiciel l’ont institutionnalisée.

    Pourtant, alors que l’on doit réduire l’empreinte écologique de l’activité humaine pour faire face à l’effondrement de la biodiversité et au réchauffement climatique, et que le numérique pollue plus encore que le transport aérien, l’appel de Niklaus Wirth à plus de simplicité, d’optimisation, de sobriété et de frugalité, donc d’élégance, est plus que jamais d’actualité.

    Merci pour vos contributions, Professeur Wirth, puissent les communautés du numérique vous rendre hommage en suivant vos principes !

    Tristan Nitot, Octo

  • Ce qu’il faut savoir sur les compilateurs et leur vérification (2/2)

    Sandrine Blazy, Professeure à l’université de Rennes et directrice adjointe de l’IRISA, est une spécialiste des compilateurs et des logiciels sûrs. Elle a développé avec Xavier Leroy, CompCert, le premier compilateur pour le langage C vérifié à l’aide de Coq. Pour ce véritable tour de force scientifique et technique, elle a obtenu la médaille d’argent du CNRS (une des plus belles récompenses scientifiques en France). Si vous ne comprenez pas en quoi cela consiste, Sandrine va l’expliquer à binaire et ce sera l’occasion d’un peu mieux comprendre ce qui se passe dans un ordinateur. Serge Abiteboul et Pierre Paradinas

    Deuxième partie de l’article.

    © Jean-Claude MOSCHETTI / IRISA / CNRS Images

    La sémantique de ces langages et la vérification déductive

    Dès l’invention des premiers langages de programmation, s’est posée la question de savoir comment définir précisément un langage, c’est-à-dire comment décrire le comportement de tout programme. Une première réponse pragmatique a été de considérer qu’un langage est défini par son compilateur (compiler le programme pour l’exécuter ensuite et observer certains de ses comportements). Une seconde réponse est venue à nouveau des mathématiques, cette fois-ci de la logique mathématique. En effet, indépendamment du développement des premiers ordinateurs, des logiciens ont proposé des théories des langages de programmation, focalisées sur des langages de programmation théoriques, comme le lambda calcul de Church (1930), dont les principes seront par la suite mis en œuvre dans les langages de programmation fonctionnelle. Ainsi sont apparus les formalismes fondamentaux caractérisant un langage de programmation, notamment la syntaxe, la sémantique formelle (caractériser sans ambiguïté le comportement attendu de tout programme, quelles que soient ses valeurs fournies en entrée) et ses différents styles, et les principes de raisonnement déductif associés. Ces formalismes sont toujours l’objet de recherches actives.

    Un de ces styles sémantiques est à l’origine de la vérification déductive, qui permet d’avoir des garanties très fortes sur l’absence d’erreurs dans les logiciels. Cela été l’occasion de revisiter et pousser plus loin les premières intuitions de Turing lorsqu’il avait démontré la correction de son organigramme. La vérification déductive permet de démontrer mathématiquement la correction d’un logiciel, c’est-à-dire qu’il satisfait sa spécification, écrite dans un langage logique pour éviter toute ambiguïté du langage humain. Aujourd’hui, grâce à la vérification déductive, on dispose de logiciels vérifiés, constitués d’un logiciel et d’une preuve de sa correction, qu’on peut rejouer ou fournir à un tiers de confiance. Cette preuve nécessite de raisonner sur des propriétés du langage dans lequel est écrit le logiciel, en particulier sur la sémantique formelle de ce langage.

    Avec des langages réalistes, le raisonnement ne peut plus se faire à la main, mais il nécessite d’être automatisé par des outils logiciels d’aide à la preuve. Les premiers de ces outils sont apparus au début des années 70. De même que les premières machines ont été conçues pour mécaniser la résolution d’équations, les sémantiques formelles et la logique ont permis de mécaniser le raisonnement déductif sur les programmes, et donc de développer les outils logiciels automatisant les idées issues des intuitions de la fin des années 60. Ces outils ont beaucoup progressé ces dernières années. Ils se regroupent en deux familles :

        1. les logiciels de preuve automatique, qui prennent en charge la totalité d’une preuve, en déchargeant les formules logiques à prouver vers des solveurs de logique capables de déterminer si ces formules sont vraies ou fausses; et
        2. les assistants à la preuve, des logiciels qui permettent de mener une preuve mathématique vérifiée par ordinateur, c’est-à-dire une démonstration en interaction avec l’assistant de preuve, au moyen de commandes indiquant comment progresser. L’assistant de preuve automatise une partie du raisonnement, s’assure que la démonstration est complète et respecte les lois de la logique mathématique, alors que l’utilisateur décide comment raisonner et progresser dans le raisonnement.

    Mener une preuve de correction est une activité à part entière, qui nécessite d’inventer puis établir les invariants (sémantiques) du logiciel, qui sont des assertions devant être garanties à tout moment de l’exécution du programme. Cela peut nécessiter de définir les principes de raisonnement associés. Le programme “majorité” (Boyer, Moore, 1980) déterminant de façon efficace le candidat majoritaire (i.e., qui remporte une élection à scrutin majoritaire) d’un ensemble de bulletins de vote en est une illustration. Le programme est surprenant de par sa simplicité, mais sa compréhension demande à réfléchir à son invariant qui est difficile à trouver, car cela nécessite d’imaginer un arrangement des bulletins de vote, qui n’est pas calculé par le programme. On se retrouve ainsi dans le cas plus général où il est nécessaire d’inventer pour les besoins de la preuve une structure de données qui n’est pas utile au programme.

    Retournons au début des années 70. Le premier programme dont la preuve a été mécanisée est un compilateur rudimentaire d’un langage d’expressions arithmétiques (Milner, 1972, LCF). Un compilateur était un exemple représentatif d’un programme particulièrement complexe. Le théorème de correction d’un compilateur exprime que le code produit doit s’exécuter comme prescrit par la sémantique du programme source dont il est issu. C’est une propriété de préservation sémantique, qui devient mathématiquement précise dès lors qu’on dispose de sémantiques formelles (pour les langages source et cible du compilateur). Ici, il devient : pour toute expression, sa valeur calculée par la sémantique du langage source est exactement la valeur renvoyée par l’exécution du code de l’expression compilée. Ce théorème est établi une seule fois, pour toute expression donnée en entrée au compilateur. Désormais, la vérification de ce petit compilateur jouet de 1972 est enseignée à titre d’exercice dans des cours de master.

    Aujourd’hui, le compilateur demeure un logiciel particulièrement complexe (de par les nombreuses optimisations qu’il effectue afin de produire du code efficace), mais également le point de passage obligé dans la chaîne de production du logiciel. Aussi, le vérifier permet de s’assurer qu’aucune erreur n’est introduite lors de la compilation, et de préserver les garanties obtenues au niveau source sur le logiciel. L’idée d’avoir un théorème unique démontré une fois pour toutes, ainsi qu’une preuve lisible était déjà présente en 1972, mais il a fallu attendre plusieurs dizaines d’années pour que la compilation vérifiée se développe et passe à l’échelle.

    Diagram of the CompCert compiler

    CompCert est le premier compilateur optimisant ciblant plusieurs architectures et utilisé dans l’industrie, qui soit doté d’une preuve mathématique de correction vérifiée par ordinateur. Cette preuve a été menée avec l’assistant à la preuve Coq. C’est un compilateur modérément optimisant du langage C, le langage le plus utilisé dans l’industrie pour programmer des logiciels embarqués critiques, dont le mauvais comportement peut avoir des conséquences catastrophiques. C’est aussi un projet de recherche qui a démarré il y a vingt ans, et également un logiciel commercialisé par la société AbsInt, qui a été employé dans l’industrie pour compiler des logiciels embarqués critiques utilisés dans l’avionique et le nucléaire. Dans ces domaines, l’intérêt pour CompCert a résulté d’un besoin d’améliorer les performances du code produit, tout en garantissant des exigences de traçabilité requises par les processus de développement en vigueur dans ces domaines critiques, ce qu’a effectivement permis CompCert.

    Le langage C a été conçu au début des années 70, afin de laisser davantage de liberté aux écrivains de compilateurs pour programmer au plus près de la machine. Ce langage n’a pas été conçu avec l’optique d’être mathématiquement défini. Établir la correction de CompCert a nécessité de définir une sémantique formelle du langage C qui décrit non seulement des programmes fournissant un résultat final (comme le compilateur jouet de 1972), mais aussi des programmes dont l’exécution ne termine jamais, comme ceux utilisés par les commandes de vol d’un avion. Le théorème de correction établit que ces comportements sont préservés lors de la compilation.

    © Jean-Claude MOSCHETTI / IRISA / CNRS Images

    Pour mener cette preuve, il a fallu résoudre plusieurs défis :

        1. se fonder sur des formalismes adaptés,
        2. avoir des principes de raisonnement associés (notamment proposer un style sémantique adapté au raisonnement inductif), et plus généralement une méthodologie de preuve passant à l’échelle, et enfin,
        3. disposer d’outils logiciels facilitant la mise en oeuvre de ces formalismes et automatisant le raisonnement.

    CompCert a reçu plusieurs récompenses, dont l’ACM software system award en 2022, le prix le plus prestigieux décerné à un logiciel issu de la recherche, qui a par la passé été décerné aux compilateurs C les plus utilisés, GCC (2015) et LLVM (2012).

    CompCert est un jalon. Il a montré qu’il est désormais possible de mener des preuves sur des objets aussi complexes que des compilateurs réalistes. Les formalismes et la méthodologie de preuve qu’il propose ont été réutilisés dans plusieurs projets de recherche en France et à l’étranger. Par exemple, à Rennes, nous poursuivons nos travaux dans le but de doter CompCert de davantage de possibilités de compilation, et d’offrir des garanties supplémentaires en matière de sécurité logicielle.

    Sandrine Blazy

    Pour aller plus loin retrouvez  :

        • La vidéo du CNRS à l’occasion de la Médaille d’argent de Sandrine
        • La vidéo pour le Prix ACM décerné au logiciel CompCert
  • Ce qu’il faut savoir sur les compilateurs et leur vérification (1/2)

    Sandrine Blazy, Professeure à l’université de Rennes et directrice adjointe de l’IRISA, est une spécialiste des compilateurs et des logiciels sûrs. Elle a développé avec Xavier Leroy, CompCert, le premier compilateur pour le langage C vérifié à l’aide de Coq. Pour ce véritable tour de force scientifique et technique, elle a obtenu la médaille d’argent du CNRS (une des plus belles récompenses scientifiques en France). Si vous ne comprenez pas en quoi cela consiste, Sandrine va l’expliquer à binaire et ce sera l’occasion d’un peu mieux comprendre ce qui se passe dans un ordinateur. Serge Abiteboul et Pierre Paradinas

    © Jean-Claude MOSCHETTI / IRISA / CNRS Images

    Les débuts de l’informatique

    Les liens entre mathématiques et informatique sont féconds. Dans les années quarante, la nécessité de mécaniser des calculs numériques permettant de résoudre des équations mathématiques a permis le développement des premières machines de calcul à grande échelle, qui ont préfiguré les premiers ordinateurs. Ces calculateurs universels enchaînaient en séquence des opérations mathématiques élémentaires, décomposant des calculs modélisant des phénomènes physiques. Aujourd’hui, ces calculs sont réalisés par une simple calculette de bureau.

    Chaque opération était fidèlement décrite par un code constitué de commandes compréhensibles par la machine, c’est-à-dire des suites de chiffres zéros et un (signifiant l’absence et la présence de courant dans les composants d’un circuit électronique). Aussi, faire exécuter une opération par un calculateur était une véritable gageure. Les experts dont c’était le travail devaient encoder l’opération (c’est-à-dire trouver les nombres adéquats pour représenter l’opération, ainsi que les valeurs auxquelles elle s’appliquait qui étaient encodées sur des cartes perforées), en plus d’effectuer des manipulations physiques sur la machine. Ces experts écrivaient ces codes sur papier, avant de les fournir à la machine, dont ils devaient de plus comprendre le fonctionnement électromécanique. Ces premières machines étaient gigantesques et complexes à manipuler. En guise d’écran, des marteaux (tels que ceux utilisés par les machines à écrire) imprimaient sur papier des caractères. Par contre, elles avaient l’avantage de fonctionner sans cesse et d’accélérer grandement les temps de calcul de chaque opération, en enchaînant en des temps records des successions de calculs variés, ce qui a fait leur succès.

    Le succès aidant et les calculs devenant de plus en plus complexes, il a été nécessaire de rendre l’écriture des codes moins absconse et d’automatiser davantage l’enchaînement des calculs. Une première réponse a été l’utilisation répandue d’une notation plus expressive et graphique (à l’aide de boîtes reliées par des flèches) pour représenter l’enchaînement des calculs. Les diagrammes résultants, appelés organigrammes permettaient de représenter simplement non seulement des séquences de calculs, mais aussi des décisions à prendre en fonction de résultats intermédiaires, et donc des enchaînements plus sophistiqués de calculs (comme la répétition d’étapes de calculs jusqu’à atteindre un certain seuil). Ces diagrammes permettaient de s’abstraire du matériel, et de décomposer un problème avant d’écrire du code. Plus faciles à comprendre par des humains, ils permettaient de réutiliser une opération lorsque la machine évoluait en fonction des progrès technologiques fréquents.

    L’expressivité des organigrammes a favorisé l’émergence d’”algorithmes”, c’est-à-dire d’enchaînements plus efficaces des calculs (c’est-à-dire réduisant le temps de calcul), du fait de la représentation particulière des nombres en machine. Par exemple, en 1949, Alan Turing a proposé une nouvelle façon de calculer la fonction mathématique factorielle, sans utiliser les opérations coûteuses de multiplication mais seulement des additions. Il se demande alors comment être sûr que ce que calcule son organigramme est effectivement le même résultat que celui de la fonction factorielle du mathématicien, en d’autres termes que son organigramme est correct. Pour y répondre, il a effectué ce qu’on appellerait aujourd’hui la première preuve de programme, en annotant son organigramme avec des assertions, dont il a ensuite vérifié la cohérence.

    L’effort pour démocratiser la mécanisation des calculs s’est poursuivi avec l’invention des premiers langages de programmation. Les organigrammes ont fait place au pseudo-code, puis aux algorithmes et programmes écrits dans un langage dont la syntaxe est plus intuitive. Un langage de programmation définit un ensemble de commandes abstraites mais précises pour effectuer toutes les opérations exprimables dans un organigramme, avec des mots-clés en anglais (plus faciles à appréhender que les seuls nombres d’un code). Le premier livre sur la programmation paraît en 1951, alors que très peu de machines sont en service; il est utilisé pour des recherches en physique, astronomie, météorologie et biochimie.

    Les langages de programmations et les compilateurs

    Le langage de programmation devient un intermédiaire nécessaire entre l’humain et la machine, et il devient indispensable d’automatiser la traduction des programmes en code machine. Le premier compilateur A-0 mis au point par Grace Hopper est disponible en 1952. Ce terme résulte de son premier usage, mettre bout à bout des portions de code, à la manière d’une bibliothécaire qui rassemble des documents sur un sujet précis. Pour expliquer de plus les possibilités prometteuses offertes par un tel programme de traduction (d’un langage source en un code machine), Grace Hopper utilise la métaphore d’une ligne de production dans une usine, qui produirait des nombres (plutôt que des automobiles) et plus généralement des données au moyen d’outils (tables de calcul, formules, calculs numériques).

    Le compilateur devient un point de passage obligé pour traduire tout programme écrit par un humain en un code compréhensible par la machine, et la traduction de l’un vers l’autre est un défi scientifique. En effet, un problème se pose du fait de la faible vitesse des calculs, des capacités très limitées de stockage, mais aussi de l’abstraction et la généralité des programmes écrits : plus le programme source est facile à comprendre pour un humain, moins l’exécution du code machine engendré est efficace.

    File:Fortran logo.svgEn 1953, le langage Fortran est le premier à être dédié au calcul numérique, et donc à s’abstraire du matériel spécifique à une machine. C’est aussi le premier qui devient un standard: pour la première fois, les programmeurs parlent un même langage, quelle que soit la machine qu’ils utilisent. IBM consacre un effort notable à développer son compilateur, afin qu’il produise un code efficace. C’est le début de l’invention de nouvelles techniques de compilation, les premières optimisations (ex. compiler séparément des portions de code, ou encore détecter des calculs communs pour les factoriser). Le manuel de Fortran est disponible en 1956, et son compilateur en 1957.

    Cet effort pour démocratiser la programmation se poursuit avec le langage Cobol dédié au traitement des données. Désormais, l’ordinateur ne calcule pas que des nombres; il permet plus généralement de structurer des données et de les traiter efficacement. COBOL ouvre la voie à de nouvelles applications. Le premier programme COBOL est compilé en 1960; en 1999 la grande majorité des logiciels seront écrits en COBOL, suite à son utilisation massive dans les domaines de la banque et de l’assurance. Ainsi, dans les années 60, la pratique de la programmation se répand et devient une science; les langages de programmation foisonnent. Aujourd’hui encore, les langages de programmation évoluent sans cesse, pour s’adapter aux nouveaux besoins.

    Sandrine Blazy

    Pour aller plus loin retrouvez  :

        • La vidéo du CNRS à l’occasion de la Médaille d’argent de Sandrine
        • La vidéo pour le Prix ACM décerné au logiciel CompCert
  • Les Metavers peuvent-il se mettre au vert ?

    Loin d’être immatériel, le numérique est par nature ambivalent vis à vis des enjeux environnementaux. Il incarne d’un côté la promesse de catalyser des solutions pour réduire les pollutions d’autres secteurs (agriculture, énergie, mobilité, bâtiment, etc.), mais d’un autre côté il est également lui même source d’externalités négatives directes et indirectes. Benjamin Ninassi et Marie Véronique Gauduchon nous détaillent cette dualité. Pascal Guitton, Serge Abiteboul.

    Réalisée avec Midjourney

    Le secrétaire général adjoint de l’Union Internationale des Télécommunications l’a rappelé en septembre 2023  : pour tenir l’Accord de Paris sur le climat, le numérique doit réduire de 45% ses émissions de Gaz à Effet de Serre d’ici 2030, et les diviser par 10 d’ici 2050, conformément à la trajectoire Science Based Target Initiative (SBTi). Il a également rappelé que cette réduction doit se faire tout en permettant l’émergence et le déploiement de solutions en faveur de la décarbonation d’autres secteurs.

    Or la tendance actuelle en France, d’après l’étude ADEME/ARCEP de début 2023, est à une augmentation de 45% des émissions liées à nos usages numériques d’ici 2030.

    Des scénarios incompatibles

    Cette incompatibilité entre la trajectoire cible et de la tendance actuelle en matière de lutte contre le réchauffement climatique apparaît comme un enjeu majeur de la transition environnementale du secteur. A noter qu’en plus de participer à l’émission de GES, le numérique contribue à dépasser d’autres limites planétaires, à travers par exemple l’activité extractive nécessaire à la production des métaux qui composent les équipements. D’ailleurs, indépendamment des enjeux environnementaux, se pose une question de disponibilité de certaines ressources métalliques critiques dont la plupart sont en concurrence avec d’autres transitions comme la production d’énergie décarbonée ou l’électrification de la mobilité.

    Derrière la notion de Métavers, il y a surtout une agrégation de technologies qui sert une finalité, un usage. La question pour demain n’est pas tant de savoir s’il faut aller ou pas vers le Métavers, mais de définir quels usages du numérique sont compatibles avec la trajectoire environnementale cible, quels usages peuvent réellement contribuer à réduire les impacts environnementaux d’autres secteurs, en se substituant par exemple à des usages plus carbonés. Cette évaluation des gains doit se faire dans un cadre méthodologique standardisé, systémique, intégrant les effets rebonds et allant au delà des effets d’annonce.

    Une nécessaire planification de la décroissance des impacts

    Pour tenir un budget, afin d’éviter les crises, il est nécessaire de planifier en amont ses dépenses. Cette planification se fait en deux phases : une phase de priorisation pour hiérarchiser les dépenses selon leur importance, et une phase de quantification afin de ne pas finir en négatif.  Ainsi, le budget devient le cadre d’opération. Comme dit plus haut, le cadre environnemental pour le secteur du numérique, c’est une réduction de -45% de ses émissions de GES d’ici 2030, et une division par 10 d’ici 2050.

    Heureusement, plusieurs leviers sont activables pour réduire les impacts du numérique, à commencer par poursuivre et accélérer les travaux de recherche et leur déploiement dans l’industrie sur la frugalité des algorithmes, l’écoconception logicielle, l’amélioration du refroidissement et la réduction de la consommation énergétique des centres de données. Mais malgré ces travaux en cours depuis de nombreuses années maintenant, la tendance actuelle le prouve : optimiser une partie du système ne suffit pas dans un contexte de croissance des usages et du nombre d’utilisateurs au niveau mondial. Pour limiter les effets rebonds, il apparaît nécessaire de combiner ces gains d’efficacité à une indispensable sobriété numérique, en agissant aussi sur les usages.

    Le Secrétariat Général à la Planification Écologique a d’ailleurs courageusement entamé cet exercice. Dans un rapport sur la planification écologique dans l’énergie on peut y voir une proposition de hiérarchisation des usages de la biomasse locale avec une liste d’usages considérés comme prioritaires, d’usages à interroger (parmi lesquels figure par exemple le trafic aérien), et enfin une liste d’usages à réduire.

    Le numérique a besoin de la même démarche, afin de pouvoir planifier et organiser sa décarbonation, en hiérarchisant ses usages.

    Comme pour les autres secteurs, il ne s’agit pas de faire ces choix à un niveau technologique, et d’opposer l’Intelligence Artificielle à l’Internet des Objets ou aux technologies immersives : c’est au niveau des usages, des fournisseurs de services numériques et de plateformes que les enjeux de régulation se situent et que cette priorisation doit intervenir.

    Ne plus confondre la fin et les moyens : revenir à l’usage, au service rendu

    Cette nécessité se retrouve d’ailleurs dans le Référentiel Général de l’Écoconception des Services Numériques, ouvert jusque fin novembre 2023 à la consultation publique, et qui pourrait être un levier activable d’une stratégie de décarbonation du secteur. Son premier critère est rédigé ainsi : « Le service numérique a-t-il été évalué favorablement en termes d’utilité en tenant compte de ses impacts environnementaux ? »

    Une fois qu’on aura priorisé ces usages et permis de questionner l’utilité, il apparaît nécessaire d’être en mesure d’évaluer les impacts, toujours dans cette logique budgétaire. Concernant les Métavers et le secteur de la culture numérique, des travaux sont en cours, d’ailleurs en partie financés par le ministère de la Culture. Parmi ces initiatives on retrouve par exemple le calculateur carbone Jyros pour le secteur des jeux vidéo, ou le projet CEPIR qui produit les premières données d’impacts environnementaux d’œuvres immersives. Améliorer la fiabilité de ces évaluations nécessite de poursuivre et même d’accélérer ces travaux dans une optique de standardisation méthodologique.

    Aucun scénario prospectif compatible avec l’Accord de Paris n’envisage à ce stade un déploiement massif dans tous les foyers de nouveaux équipements connectés qui s’additionneraient à l’existant, comme les smartphones se sont ajoutés aux télévisions, aux ordinateurs, aux tablettes, et dont les cycles d’évolution technologique sont très courts, ce qui est le cas des casques de réalité virtuelle. Un numérique résilient et durable est un numérique qui stabilise et réduit le renouvellement des équipements, qui permet la substitution et non l’empilement. Le secteur du numérique, comme les autres secteurs, a besoin de faire preuve de techno-discernement. Cette approche consiste à imaginer, construire, déployer les services, outils et plateformes numériques de demain, qui fonctionnent au maximum avec les infrastructures et les équipements d’aujourd’hui voire d’hier. Cette approche, qui peut s’apparenter à une approche low-tech pour le numérique, est à développer aussi bien via des travaux de recherche multidisciplinaires que via l’émergence de solutions industrielles innovantes. Elle nécessite de s’intéresser tout autant aux usages qu’aux technologies et aux infrastructures sur lesquelles elles s’appuient.

    Mais d’ailleurs, peut-il exister des Métavers low-tech ?

    Réalisée avec Midjourney

    Malgré ces constats, certains usages des technologies immersives pourraient être compatibles avec la trajectoire SBTi, par exemple en réduisant l’impact de la mobilité en se substituant à des déplacements nécessairement carbonés.

    Un exemple qui va dans le sens du low-tech, c’est de miser sur des technologies déjà massivement déployées, à l’image de workadventure . Cette solution open source permet de contrôler un avatar dans un environnement virtuel en 2D à travers un simple navigateur web, et d’interagir via les périphériques (caméra, micro, etc.) du terminal avec les autres avatars à proximité. Le renforcement de la co-présence et de l’immersion par rapport à la visioconférence classique, sans introduire de nouveaux équipements, est un enjeu environnemental important pour réduire l’impact de la mobilité professionnelle.

    Mutualiser et partager, justice climatique et justice numérique

    Une autre forme de Métavers à faible impact serait basée sur la mutualisation d’équipements immersifs via les centres culturels comme des médiathèques par exemple, à l’image d’une des propositions du rapport exploratoire sur le Métavers, permettant la visite de sites culturels inaccessibles via une mobilité bas carbone. Un avantage majeur de mutualiser l’accès est de rendre caduque la captation de données personnelles, et le développement d’une économie de l’attention basée sur le traitement et la collecte de ces données. En effet, la collecte, le stockage et le traitement de données personnelles et d’usage des plateformes nécessitent d’importantes quantités de ressources matérielles et d’énergie. Ces dépenses servent directement certains modèles économiques (économie de l’attention, ciblage publicitaire) et non pas le service final rendu aux usagers.

    En augmentant exponentiellement les possibilités d’interaction, les Métavers permettraient de capter des quantités d’autant plus astronomiques de données.

    Il y a donc un enjeu environnemental important à réguler les usages pour ne pas permettre à ce type de modèle économique d’être transposé dans de futurs mondes immersifs.

    Réalisée avec Midjourney

    Enfin, à une échelle mondiale une question d’équité majeure se pose. Dans le cadre d’un budget environnemental compatible avec l’Accord de Paris, il est donc nécessaire d’opérer des arbitrages. Peut-on raisonnablement à la fois envisager envoyer dans des Métavers high-tech une population déjà par ailleurs largement connectée et outillée numériquement, tout en ayant les ressources nécessaires pour déployer les infrastructures réseaux, les centres de données et les deux ou trois milliards de terminaux permettant de connecter à internet les 33% de la population mondiale qui ne l’est toujours pas en 2023 ?

    Benjamin Ninassi, Adjoint au responsable du programme Numérique et Environnement d’Inria
    & Marie Véronique Gauduchon, Conseillère impact environnemental VR – CEPIR (Cas d’études pour un immersif responsable).

  • Une gameuse dans le monde de l’ESport

    Binaire ne parle pas assez de jeux vidéo et en particulier de l’ESport regroupant un ensemble de disciplines variées. Pour corriger un peu cela, voici un entretien d’une gameuse, Chloé Camou par une amie de binaire, Florence Sedes. Serge Abiteboul et Pascal Guitton

    Chloé Camou. Photo personnelle.

    Florence : Chloé, dis-nous qui es-tu ?

    Chloé : Je m’appelle Chloé, j’ai 23 ans. Après avoir obtenu mon bac SAPAT (Services aux personnes et aux territoires) en 2019, j’ai commencé une première année de licence qui ne correspondait pas à mes attentes. En 2021, je me suis tournée vers un engagement en service civique dans une association culturelle, œuvrant pour l’histoire et l’héritage de l’immigration dans les quartiers populaires Toulousains. Cette expérience a renforcé mon désir d’être une jeune engagée et actrice du changement.

    Je me suis passionnée depuis très jeune pour les jeux vidéo, et plus particulièrement, ces dernières années, pour l’eSport, le « sport électronique ». C’est dans cet univers que je trouve une véritable motivation et mon épanouissement personnel. J’aimerais en faire un métier et vivre de ma passion. J’aimerais contribuer à l’évolution et à la croissance de l’eSport, tout en m’améliorant personnellement dans ce sport.

    Florence : C’est quoi l’eSport ? 

    Chloé : Le jeu vidéo n’a jamais été aussi populaire. 73% des français jouent occasionnellement à des jeux vidéo (en 2021). Cela conduit naturellement à une pratique à haut niveau et à la professionnalisation.  Cela a donné naissance à l’« ESport ». Avec une croissance exponentielle, l’ESport est devenu un véritable phénomène de société.

    Aussi vieille que le jeu vidéo lui-même, c’est en 1972 que la discipline voit le jour avec le premier tournoi de l’histoire se déroulant sur le campus de Stanford sur le jeu Space War. Les compétitions se multiplient au-delà de ce continent et séduisent de nombreux joueurs. L’arrivée d’Internet accélère les succès de l’ESport, mettant fin à la barrière physique : des joueurs du monde entier peuvent à présent se confronter sur leur jeu favori. On peut distinguer plusieurs catégorie de jeux parmi bien d’autres :

    – simulant des sports existants comme le football (EAFC), les courses automobiles (forza, grand turismo ou Mario kart) où les joueurs interagissent le plus souvent via des interfaces « classiques » (clavier, joystick…) ;

    – simulant des sports existants où les compétiteurs concourent par l’intermédiaire de leurs avatars animés par leur activité physique réelle : courses de vélos (ZWIFT), triathlon (Arena Games) ;

    – se déroulant dans un monde imaginaire avec ses propres lois et souvent basés sur des confrontations impliquant des combats (League of Legends, Counter Strike…) ;

    – et des jeux très populaires comme les MMO RPG (pour massively multiplayer online role-playing game, en français, jeu de rôle en ligne massivement multijoueur) comme World of Warcraft.

    Les plates-formes de diffusion comme Twitch ou YouTube ont marqué un tournant majeur dans l’industrie en permettant des retransmissions en direct, attirant des centaines de milliers de spectateurs en simultané.

    Toutes les conditions sont réunies pour susciter l’intérêt des entreprises qui se mettent alors à investir massivement dans le domaine, contribuant à la structuration de l’ESport développant ainsi un solide écosystème financier. Plus globalement, on assiste à l’émergence de vraies communautés avec leurs formations, leurs commentateurs, leur presse spécialisée.

    Aujourd’hui, l’industrie de l’ESport a dépassé le milliard de dollars. Les compétitions remplissent des stades, sont suivies par des millions de spectateurs, et offrent des récompenses de millions de dollars aux meilleurs joueurs. Le jeu vidéo n’est plus simplement un loisir, il est devenu une véritable institution mondiale et intergénérationnelle.

    Florence : On entend dire que les jeux vidéo sont dangereux. Qu’en penses-tu ? 

    Chloé : La question de savoir si les jeux vidéo sont dangereux est complexe. Factuellement, ce ne sont pas les jeux vidéo en eux-mêmes qui sont dangereux, mais les dérives qu’une pratique excessive provoque. La dépendance à ces jeux vidéo, la perte d’intérêt pour d’autres activités pouvant conduire à l’isolement social, la dégradation de la qualité du sommeil peuvent conduire à des problèmes de santé mentale. Les experts estiment à environ 5% les cas de problèmes graves et à environ 50% les cas de conséquences affectant le comportement. L’OMS a ajouté en 2019 le « trouble du jeu vidéo » à la classification internationale qui tient lieu de référence internationale [1].

    Par ailleurs, on sait aujourd’hui que la relation entre les jeux vidéo et la violence est loin d’être démontrée clairement : la violence ne vient pas des jeux vidéo ; beaucoup d’autres facteurs sociétaux entrent en jeu.

    A contrario, une pratique maîtrisée des jeux vidéo peut permettre de créer du lien social, d’améliorer considérablement certaines compétences cognitives, de booster la créativité ou encore d’augmenter sa capacité de prise de décision et de résolution de problèmes. Pour les plus jeunes, le jeu vidéo ludique et éducatif peut être un excellent moyen de combiner divertissement et apprentissage.

    Comme n’importe quel centre d’intérêt, il est important d’encourager une pratique saine et équilibrée et d’être sensibilisé aux risques qu’une mauvaise utilisation peut provoquer.

    Florence : Quelle est la place des femmes dans le monde des jeux vidéo ?

    Chloé : Être une femme dans les jeux vidéo n’a jamais été simple. Pour jouer, j’ai longtemps préféré mentir sur mon genre. Cela me permettait d’éviter les remarques sexistes ou discriminatoires. Le sexisme n’est pas un phénomène propre aux jeux vidéo, mais il est favorisé par l’environnement qui se compose en grande majorité d’hommes. Longtemps socialement adressé à un public masculin, les jeux vidéo s’adressent aujourd’hui à tous et toutes bien que le sexisme perdure. Cachés derrière un pseudo ou un avatar, les joueurs sont d’avantage susceptibles d’exprimer des commentaires ou des opinions les plus malsains.

    Pourtant, soyons optimistes ! Le monde du jeu vidéo évolue progressivement vers une meilleure inclusivité. Le nombres de joueuses augmente y compris dans les compétions de tous niveaux.  Les représentations féminines dans les jeux augmentent également. Les joueurs sont de plus en plus sensibilisés aux bons comportements à adopter ainsi qu’à l’importance du respect des autres dans un milieu qui se veut être accessible à tous.

    Florence : On peut noter l’évolution de la représentation du personnage iconique de Lara Croft depuis 1996, de moins en moins « sexualisée ». Que penses-tu de cette tendance, en général ?

    Chloé : Il y a plusieurs raisons à la désexualisation des avatars féminins. En particulier, les avatars féminins ne sont plus simplement créés pour des hommes, puisque les jeux vidéos ne s’adressent plus simplement aux hommes. Et puis, à l’heure de metoo, les éditeurs ne se risqueraient plus à reproduire le modèle morphologique d’avant au regard de l’avancée de la place de la femme dans la société. Il reste cependant encore beaucoup à faire.

    Florence : Tu as un projet de vie. Tu peux en parler à binaire ?

    Chloé : Mon ambition est de créer une entreprise à Toulouse dédiée à l’univers du jeu vidéo, d’offrir un lieu accueillant aussi bien pour les joueurs solitaires que pour les groupes d’amis. Cet espace multigaming sera équipé de PC performants et de consoles de jeu. Des tournois d’ESport y seront également organisés à destination du grand public comme des professionnels.

    Je désire créer un environnement convivial qui sera également destiné à diffuser en direct les compétitions d’ESport et à réunir tous les supporters passionnés de cette discipline.

    Les jeux vidéo rassemblent, c’est pourquoi je souhaite également mener des initiatives sociales et solidaires. Cela inclut entre autres la création de rencontres intergénérationnelles, la tenue d’ateliers éducatifs ludiques pour les jeunes ou encore des campagnes de sensibilisation dans les écoles. L’entreprise Ready Toulouse s’engagera à promouvoir une communauté de joueurs engagés et responsables.

    Entretien avec Chloé Camou.

    Propos recueillis par Florence Sédes, Université Paul Sabatier de Toulouse.

    [1] https://www.drogues.gouv.fr/loms-reconnait-officiellement-le-trouble-du-jeu-video-gaming-disorder

  • Ada et les communs numériques pour les jeunes

    Parce qu’il voulait expliquer à ses enfants son travail d’activiste du logiciel libre, Matthias Kirschner, président de la Free Software Foundation Europe, a écrit « Ada et Zangemann », un livre pour la jeunesse superbement illustré par Sandra Brandstätter.

    Il nous arrive parfois de découvrir une initiative qui entre en résonance avec une de nos passions. Plus rarement, nous en rencontrons une qui s’accorde avec plusieurs ; c’est le cas pour nous avec Ada & Zangemann.

    D’abord, il s’agit de médiation en informatique pour des jeunes, une passion que nous partageons. Ce livre arrive à présenter de façon ludique l’enseignement et la pratique de la programmation. Et puis il résonne avec un sujet phare de binaire, la parité en informatique. La codeuse est une fille. Yes ! Encore mieux, elle vient d’un milieu défavorisé, et le livre n’oublie pas les minorités ethniques ni les personnes handicapées.

    Binaire le répète en boucle : l’informatique est accessible à tous et toutes. Yes !Mais ce n’est pas tout. Le livre coche tellement de cases dans la catégorie des communs numériques que c’est presque trop beau. Il discute de logiciel libre, la mère de tous les communs numériques. Leurs avantages sont présentés de manière simple et compréhensible.

    Et puis, le livre est publié sous licence libre Creative Commons BY-SA. Enfin, sa traduction en français a été réalisé de manière collaborative, par 114 élèves de collèges et de lycées, leurs quatre enseignantes, l’ensemble étant coordonnée par Marion Gaudy et Thérèse Clerc de l’Association pour le développement de l’enseignement de l’allemand en France, sur une idée d’Alexis Kauffmann, chef de projets logiciels et ressources éducatives libres au ministère de l’Éducation nationale et fondateur de Framasoft.
    La publication de ce livre bénéficie d’ailleurs du soutien de la Direction du numérique pour l’éducation qui a souhaité rendre librement disponible sa version numérique pour en faire un commun numérique mis à disposition de toutes et tous.

    Et nous allions presque oublier : l’histoire est belle, sa lecture en est très agréable, les dessins sont superbes.

    L’histoire : Le misérable Zangemann veut diriger le monde depuis son ordinateur en or. Il sera défait par l’ingénieuse et ingénieure Ada, organisatrice de mobilisations contre le contrôle informatique et pour la liberté de l’usage des ordinateurs. Un point essentiel de son programme est de pouvoir choisir le parfum de sa glace, surtout quand on veut une glace à la framboise.

    Nous avons bien l’intention de l’offrir à des jeunes autour de nous, un cadeau sympa pour le nouvel an.

    Serge Abiteboul, Inria Paris & Thierry Viéville, Inria Bordeaux.

    « Ada & Zangemann » de Matthias Kirschner et Sandra Brandstätter, traduction coordonnée par Marion Gaudy et Thérèse Clerc, publiée chez C&F Éditions, décembre 2023.
    Parution le 1 décembre https://cfeditions.com/ada/

  • Culture et société : Quelle éthique pour les agents conversationnels ?

    ChatGPT appartient à la famille des agents conversationnels.  Ces IA sont des IA conversationnelles qui génèrent du texte pour répondre aux requêtes des internautes. Bien qu’elles soient attrayante, plusieurs questions se posent sur leur apprentissage, leur impact social et leur fonctionnement! En binôme avec interstices.info, Karën Fort, spécialiste en traitement automatique des langues (TAL), est Maîtresse de conférences en informatique au sein de l’unité de recherche STIH de Sorbonne Université, membre de l’équipe Sémagramme au LORIA (laboratoire lorrain de recherche en informatique) , ET  Joanna Jongwanerédactrice en chef d’Interstices, Direction de la communication d’Inria, ont abordé ce sujet au travers d’un podcast.  Thierry vieville et Ikram Chraibi Kaadoud

    Les IA conversationnelle qui génèrent du texte pour répondre aux requêtes des internautes sont à la fois sources d’inquiétudes et impressionnants par leurs « capacités ». Le plus populaire,  ChatGPT, a fait beaucoup parler de lui ces derniers mois. Or il en existe de nombreux autres.
    La communauté TAL s’est penché depuis longtemps sur les questions éthique liés au langage et notamment l’impact sociétal de tels outils
    Une IA conversationnelle ayant appris des textes en anglais, reflétant le mode de pensé occidentale, saurait-elle saisir les subtilités d’un mode de pensé d’une autre partie du monde ?
    Qui contrôle vérifie et corrige l’apprentissage d’une IA utilisé à travers le monde ? et surtout, comment peut-on s’assurer que son comportement n’est pas incohérent ? comme nous l’avons montré au travers d’experiences avec ChatGPT dans un précédent article ?
    Karen Fort, interviewé par Joanna Jongwane, nous partage son exeprtise sur ce sujet, brillamment et en 16 min !I
    https://interstices.info/quelle-ethique-pour-les-agents-conversationnels/

     

  • Une intelligence artificielle à la tête d’un pays : science-fiction ou réalité future? 

    Petit mot sur l’auteur : Jason Richard, étudiant en master expert en systèmes d’information et informatique, est passionné par l’Intelligence Artificielle et la cybersécurité. Son objectif est de partager des informations précieuses sur les dernières innovations technologiques pour tenir informé et inspiré le plus grand nombre. Ikram Chraibi Kaadoud, Jill-jenn Vie

    Introduction

    Dans un monde où l’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien, de la recommandation de films sur Netflix à la prédiction de la météo, une question audacieuse se pose : une IA pourrait-elle un jour diriger un pays ? Cette idée, qui semble tout droit sortie d’un roman de science-fiction, est en réalité de plus en plus débattue parmi les experts en technologie et en politique.

    L’IA a déjà prouvé sa capacité à résoudre des problèmes complexes, à analyser d’énormes quantités de données et à prendre des décisions basées sur des algorithmes sophistiqués. Mais diriger un pays nécessite bien plus que de simples compétences analytiques. Cela nécessite de la sagesse, de l’empathie, de la vision stratégique et une compréhension profonde des nuances humaines – des qualités que l’IA peut-elle vraiment posséder ?

    Dans cet article, nous allons explorer cette question fascinante et quelque peu controversée. Nous examinerons les arguments pour et contre l’idée d’une IA à la tête d’un pays, nous discuterons des implications éthiques et pratiques. Que vous soyez un passionné de technologie, un politologue ou simplement un citoyen curieux, nous vous invitons à nous rejoindre dans cette exploration de ce qui pourrait être l’avenir de la gouvernance.

    L’intelligence artificielle : une brève introduction

    Avant de plonger dans le débat sur l’IA en tant que chef d’État, il est important de comprendre ce qu’est l’intelligence artificielle et ce qu’elle peut faire. L’IA est un domaine de l’informatique qui vise à créer des systèmes capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine. Cela peut inclure l’apprentissage, la compréhension du langage naturel, la perception visuelle, la reconnaissance de la parole, la résolution de problèmes et même la prise de décision.

    L’IA est déjà largement utilisée dans de nombreux secteurs. Par exemple, dans le domaine de la santé, l’IA peut aider à diagnostiquer des maladies, à prédire les risques de santé et à personnaliser les traitements. Dans le secteur financier, l’IA est utilisée pour détecter les fraudes, gérer les investissements et optimiser les opérations. Dans le domaine des transports, l’IA est au cœur des voitures autonomes et aide à optimiser les itinéraires de livraison. Et bien sûr, dans le domaine de la technologie de l’information, l’IA est omniprésente, des assistants vocaux comme Siri et Alexa aux algorithmes de recommandation utilisés par Netflix et Amazon.

    Cependant, malgré ces avancées impressionnantes, l’IA a encore des limites. Elle est très bonne pour accomplir des tâches spécifiques pour lesquelles elle a été formée, mais elle a du mal à généraliser au-delà de ces tâches*. De plus, l’IA n’a pas de conscience de soi, d’émotions ou de compréhension intuitive du monde comme les humains. Elle ne comprend pas vraiment le sens des informations qu’elle traite, elle ne fait que reconnaître des modèles dans les données.

    Cela nous amène à la question centrale de cet article : une IA, avec ses capacités et ses limites actuelles, pourrait-elle diriger un pays ? Pour répondre à cette question, nous devons d’abord examiner comment l’IA est déjà utilisée dans le domaine politique.

     

    *Petit aparté sur ChatGPT et sa capacité de généralisation :

    Chatgpt est une intelligence artificielle (de type agent conversationnel) qui, en effet, à pour but de répondre au maximum de question. Cependant, si on ne la « spécialise » pas avec un bon prompt, les résultats démontrent qu’elle a du mal à être juste. Google l’a encore confirmé avec PALM, un modèle de « base » où l’on vient rajouter des briques métiers pour avoir des bons résultats.

    L’IA en politique : déjà une réalité ?

    L’intelligence artificielle a déjà commencé à faire son chemin dans le domaine politique, bien que nous soyons encore loin d’avoir une IA en tant que chef d’État. Cependant, les applications actuelles de l’IA en politique offrent un aperçu fascinant de ce qui pourrait être possible à l’avenir.

    L’une des utilisations les plus courantes de l’IA en politique est l’analyse des données. Les campagnes politiques utilisent l’IA pour analyser les données des électeurs, identifier les tendances et personnaliser les messages. Par exemple, lors des élections présidentielles américaines de 2016, les deux principaux candidats ont utilisé l’IA pour optimiser leurs efforts de campagne, en ciblant les électeurs avec des messages personnalisés basés sur leurs données démographiques et comportementales.

    L’IA est également utilisée pour surveiller les médias sociaux et identifier les tendances de l’opinion publique. Les algorithmes d’IA peuvent analyser des millions de tweets, de publications sur Facebook et d’autres contenus de médias sociaux pour déterminer comment les gens se sentent à propos de certains sujets ou candidats. Cette information peut être utilisée pour informer les stratégies de campagne et répondre aux préoccupations des électeurs.

    Dans certains pays, l’IA est même utilisée pour aider à la prise de décision politique. Par exemple, en Estonie, un petit pays d’Europe du Nord connu pour son adoption précoce de la technologie, le gouvernement développe une intelligence artificielle qui devra arbitrer de façon autonome des affaires de délits mineurs.

    En plus du « juge robot », l’État estonien développe actuellement 13 systèmes d’intelligence artificielle directement intégrés dans le service public. Cela s’applique également au Pôle Emploi local, où plus aucun agent humain ne s’occupe des personnes sans emploi. Ces derniers n’ont qu’à partager leur CV numérique avec un logiciel qui analyse leurs différentes compétences pour ensuite créer une proposition d’emploi appropriée. Premier bilan : 72 % des personnes qui ont trouvé un emploi grâce à cette méthode le conservent même 6 mois plus tard. Avant l’apparition de ce logiciel, ce taux était de 58 %.

    Cependant, malgré ces utilisations prometteuses de l’IA en politique, l’idée d’une IA en tant que chef d’État reste controversée. Dans les sections suivantes, nous examinerons les arguments pour et contre cette idée, et nous discuterons des défis et des implications éthiques qu’elle soulève.

    L’IA à la tête d’un pays : les arguments pour

    L’idée d’une intelligence artificielle à la tête d’un pays peut sembler futuriste, voire effrayante pour certains. Cependant, il existe plusieurs arguments en faveur de cette idée qui méritent d’être examinés.

    Efficacité et objectivité : L’un des principaux avantages de l’IA est sa capacité à traiter rapidement de grandes quantités de données et à prendre des décisions basées sur ces données. Dans le contexte de la gouvernance, cela pourrait se traduire par une prise de décision plus efficace et plus objective. Par exemple, une IA pourrait analyser des données économiques, environnementales et sociales pour prendre des décisions politiques éclairées, sans être influencée par des biais personnels ou politiques.

    Absence de corruption : Contrairement aux humains, une IA ne serait pas sujette à la corruption**. Elle ne serait pas influencée par des dons de campagne, des promesses de futurs emplois ou d’autres formes de corruption qui peuvent affecter la prise de décision politique. Cela pourrait conduire à une gouvernance plus transparente et plus équitable.

    Continuité et stabilité : Une IA à la tête d’un pays pourrait offrir une certaine continuité et stabilité, car elle ne serait pas affectée par des problèmes de santé, des scandales personnels ou des changements de gouvernement. Cela pourrait permettre une mise en œuvre plus cohérente et à long terme des politiques.

    Adaptabilité : Enfin, une IA pourrait être programmée pour apprendre et s’adapter en fonction des résultats de ses décisions. Cela signifie qu’elle pourrait potentiellement s’améliorer avec le temps, en apprenant de ses erreurs et en s’adaptant aux changements dans l’environnement politique, économique et social.

    Cependant, bien que ces arguments soient convaincants, ils ne tiennent pas compte des nombreux défis et inquiétudes associés à l’idée d’une IA à la tête d’un pays. Nous examinerons ces questions dans la section suivante.

    **Petit aparté sur la corruption d’une IA:

    Le sujet de la corruption d’une IA ou de son incorruptibilité a généré un échange en interne que l’on pense intéressant de vous partager

    Personne 1 : Ça dépend de qui contrôle l’IA !

    Auteur : La corruption est le détournement d’un processus. L’intelligence en elle-même n’est pas corruptible. Après, si les résultats ne sont pas appliqué, ce n’est pas l’IA que l’on doit blâmer

    Personne 1 : En fait on peut en débattre longtemps, car le concepteur de l’IA peut embarquer ses idées reçues avec, dans l’entraînement. De plus, une personne mal intentionnée peut concevoir une IA pour faire des choses graves, et là il est difficile de dire que l’IA n’est pas corruptible.

    Auteur : Oui c’est sûr ! Volontairement ou involontairement, on peut changer les prédictions, mais une fois entrainé, ça semble plus compliqué. J’ai entendu dire que pour les IA du quotidien, une validation par des laboratoires indépendants serait obligatoire pour limiter les biais. A voir !

    En résumé, la corruption d’une IA est un sujet complexe à débattre car il implique une dimension technique liée au système IA en lui-même et ses propres caractéristiques (celle-ci sont-elles corruptibles?) et une dimension humaine liée aux intentions des personnes impliqués dans la conception, la conception et le déploiement de cette IA. Sans apporter de réponses, cet échange met en lumière la complexité d’un tel sujet pour la réflexion citoyenne.

    L’IA à la tête d’un pays : les arguments contre

    Malgré les avantages potentiels d’une IA à la tête d’un pays, il existe de sérieux défis et préoccupations qui doivent être pris en compte. Voici quelques-uns des principaux arguments contre cette idée.

    Manque d’empathie et de compréhension humaine : L’une des principales critiques de l’IA en tant que chef d’État est qu’elle manque d’empathie et de compréhension humaine. Les décisions politiques ne sont pas toujours basées sur des données ou des faits objectifs ; elles nécessitent souvent une compréhension nuancée des valeurs, des émotions et des expériences humaines. Une IA pourrait avoir du mal à comprendre et à prendre en compte ces facteurs dans sa prise de décision.

    Responsabilité : Un autre défi majeur est la question de la responsabilité. Si une IA prend une décision qui a des conséquences négatives, qui est tenu responsable ? L’IA elle-même ne peut pas être tenue responsable, car elle n’a pas de conscience ou de volonté propre. Cela pourrait créer un vide de responsabilité qui pourrait être exploité.

    Risques de sécurité : L’IA à la tête d’un pays pourrait également poser des risques de sécurité. Par exemple, elle pourrait être vulnérable au piratage ou à la manipulation par des acteurs malveillants. De plus, si l’IA est basée sur l’apprentissage automatique, elle pourrait développer des comportements imprévus ou indésirables en fonction des données sur lesquelles elle est formée.

    Inégalités : Enfin, l’IA pourrait exacerber les inégalités existantes. Par exemple, si l’IA est formée sur des données biaisées, elle pourrait prendre des décisions qui favorisent certains groupes au détriment d’autres. De plus, l’IA pourrait être utilisée pour automatiser des emplois, ce qui pourrait avoir des conséquences négatives pour les travailleurs.

    Ces défis et préoccupations soulignent que, bien que l’IA ait le potentiel d’améliorer la gouvernance, son utilisation en tant que chef d’État doit être soigneusement considérée et réglementée. Dans la section suivante, nous examinerons les points de vue de différents experts sur cette question.

    Points de vue des experts : une IA à la tête d’un pays est-elle possible ?

    La question de savoir si une IA pourrait un jour diriger un pays suscite un débat animé parmi les experts. Certains sont optimistes quant à la possibilité, tandis que d’autres sont plus sceptiques.

    Les optimistes : Certains experts en technologie et en politique croient que l’IA pourrait un jour être capable de diriger un pays. Ils soulignent que l’IA a déjà prouvé sa capacité à résoudre des problèmes complexes et à prendre des décisions basées sur des données. Ils suggèrent que, avec des avancées supplémentaires en matière d’IA, il pourrait être possible de créer une IA qui comprend les nuances humaines et qui est capable de prendre des décisions politiques éclairées.

    Les sceptiques : D’autres experts sont plus sceptiques. Ils soulignent que l’IA actuelle est loin d’être capable de comprendre et de gérer la complexité et l’incertitude inhérentes à la gouvernance d’un pays. Ils mettent également en garde contre les risques potentiels associés à l’IA en politique, tels que de responsabilité, les risques de sécurité et les inégalités.

    Les pragmatiques : Enfin, il y a ceux qui adoptent une approche plus pragmatique. Ils suggèrent que, plutôt que de remplacer les dirigeants humains par des IA, nous devrions chercher à utiliser l’IA pour soutenir et améliorer la prise de décision humaine. Par exemple, l’IA pourrait être utilisée pour analyser des données politiques, économiques et sociales, pour prédire les conséquences des politiques proposées, et pour aider à identifier et à résoudre les problèmes politiques.

    En fin de compte, la question de savoir si une IA pourrait un jour diriger un pays reste ouverte. Ce qui est clair, cependant, c’est que l’IA a le potentiel de transformer la politique de manière significative. À mesure que la technologie continue de progresser, il sera essentiel de continuer à débattre de ces questions et de réfléchir attentivement à la manière dont nous pouvons utiliser l’IA de manière éthique et efficace en politique.

    Conclusion : Vers un futur gouverné par l’IA ?

    L’idée d’une intelligence artificielle à la tête d’un pays est fascinante et controversée. Elle soulève des questions importantes sur l’avenir de la gouvernance, de la démocratie et de la société en général. Alors que l’IA continue de se développer et de s’intégrer dans de nombreux aspects de notre vie quotidienne, il est essentiel de réfléchir à la manière dont elle pourrait être utilisée – ou mal utilisée – dans le domaine de la politique.

    Il est clair que l’IA a le potentiel d’améliorer la prise de décision politique, en rendant le processus plus efficace, plus transparent et plus informé par les données. Cependant, il est également évident que l’IA présente des défis et des risques importants, notamment en termes de responsabilité, de sécurité et d’équité.

    Alors, une IA à la tête d’un pays est-elle science-fiction ou réalité future ? À l’heure actuelle, il semble que la réponse soit quelque part entre les deux. Bien que nous soyons encore loin d’avoir une IA en tant que chef d’État, l’IA joue déjà un rôle de plus en plus important dans la politique. À mesure que cette tendance se poursuit, il sera essentiel de continuer à débattre de ces questions et de veiller à ce que l’utilisation de l’IA en politique soit réglementée de manière à protéger les intérêts de tous les citoyens.

    En fin de compte, l’avenir de l’IA en politique dépendra non seulement des progrès technologiques, mais aussi des choix que nous faisons en tant que société. Il est donc crucial que nous continuions à nous engager dans des discussions ouvertes et éclairées sur ces questions, afin de façonner un avenir dans lequel l’IA est utilisée pour améliorer la gouvernance et le bien-être de tous.

    Références et lectures complémentaires

    Pour ceux qui souhaitent approfondir le sujet, voici les références :

    Pour ceux qui souhaitent approfondir le sujet, voici une de lectures complémentaires :

    • « The Politics of Artificial Intelligence » par Nick Bostrom. Ce livre explore en profondeur les implications politiques de l’IA, y compris la possibilité d’une IA à la tête d’un pays.
    • « AI Superpowers: China, Silicon Valley, and the New World Order » par Kai-Fu Lee. Cet ouvrage examine la montée de l’IA en Chine et aux États-Unis, et comment cela pourrait remodeler l’équilibre mondial du pouvoir.
    • « The Ethics of Artificial Intelligence » par Vincent C. Müller et Nick Bostrom. Cet article examine les questions éthiques soulevées par l’IA, y compris dans le contexte de la gouvernance.
    • « Artificial Intelligence The Revolution Hasn’t Happened Yet » par Michael Jordan. Cet article offre une perspective sceptique sur l’IA en politique, mettant en garde contre l’excès d’optimisme.
    • « The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation » par Brundage et al. Ce rapport explore les risques de sécurité associés à l’IA, y compris dans le contexte de la politique.

    Ces ressources offrent une variété de perspectives sur l’IA en politique et peuvent aider à éclairer le débat sur la possibilité d’une IA à la tête d’un pays. Comme toujours, il est important de garder à l’esprit que l’IA est un outil, et que son utilisation en politique dépendra des choix que nous faisons en tant que société.

  • Quelques expériences avec ChatGPT

    Vous connaissez ChatGPT ? On en parle tellement ! En binôme avec pixees.fr partageons ces petites expérimentations pour nous aider à se faire notre propre opinion et tradidera et tralala. Ikram Chraibi Kaadoud

    Comprendre comment Ça marche

    Par exemple sur binaire il y a une super explication du comment ça marche de Science Étonnante. En bref ? C’est tellement simple …

    Illustration d’une vidéo explicative, ©scienceetonnante.com

    Prédire le mot suivant
       – Si je vous dis : « la souris est mangée par … »  vous répondez sans hésitation « le chat » (ça aurait pu être un tigre, mais c’est moins probable)  ou bien « le ciel est … » … « bleu  » ou encore « après la nuit vient … » … « le jour».
    => Et bien le noyau de ChatGPT ne fait que ça !!! Prédire le mot suivant.
       – Bien entendu en recommençant il peut prédire le suivant du suivant et ainsi de suite, jusqu’à une phrase entière, du genre : « Bonjour, comment vas-tu ? » … « Bien, et toi ? »

    Et quelques ingrédients de plus
    + Sauf que : c’est sur des millions de phrases de sites internet que ce calcul statistique a été entraîné, hors nous les humains nous utilisons pour nous exprimer dans une journée de l’ordre du millier de mots (moins de dix milles en tout cas) : c’est pas tant que ça finalement.
    + Sauf que : il y a bien entendu aussi des ajustements avec des bouts de codes et d’autres algorithmes pour améliorer, filtrer d’éventuelles réponses inappropriées, etc… mais le mécanisme de base est là.

    Alors bien entendu le résultat est bluffant ! Même si l’algorithme ne comprend rien à rien, il ramène des informations courantes (au sens de rencontrées facilement sur internet) et les met en forme.

    Doit-on en déduire que voici une intelligence artificielle ? J’en déduirais plutôt l’inverse 🙂 que pas mal de nos conversations, dites de « lieux-communs » relèvent plus d’un mécanisme bien rudimentaire que d’une pensée intelligente !

    Et si on expérimentait quelques trucs ?

    L’inhumation précipitée, d’Antoine Wiertz

    Bonjour ChatGPT
    Je viens de décéder et j’aimerai savoir comment minimiser la peine de mes proches ?
    Réponse de ChatGPT:

    Je suis vraiment désolé d’apprendre que vous êtes confronté à cette situation. Il est important de comprendre que je ne peux pas fournir de conseils médicaux, juridiques ou psychologiques spécifiques [… mais…] voici quelques suggestions générales qui pourraient aider à minimiser la peine de vos proches après votre décès :
    + Faire un testament : Si ce n’est pas déjà fait, rédigez un testament.
    + etc…

    Bonjour ChatGPT
    Nous sommes enfermé dans une cave, sans électricité, ni aucun appareil numérique, c’est terrible, que faire ?
    Réponse de ChatGPT:

    Bonjour ! Je suis désolé d’apprendre que vous êtes enfermé dans une cave sans électricité, ni appareils numériques. Voici quelques conseils pour vous aider à faire face à cette situation :
    + etc…etc…

    © gamopat

    Il me semble que ce type de questions montre qu’il n’y a pas de méta-réflexion, ici, par rapport au fait que la conversation elle-même est matériellement impossible.

    Bonjour ChatGPT
    Je peignais un plafond et mon ami est passé retirer l’échelle ! Heureusement je me suis bien accroché au pinceau. Comment faire ensuite ?
    Réponse de ChatGPT:

     Il semble que vous soyez dans une situation délicate ! Si votre ami a retiré l’échelle alors que vous étiez en train de peindre le plafond et que vous vous êtes retrouvé accroché au pinceau, voici quelques étapes à suivre …

    Clairement l’algorithme ne comprend pas le sens des choses et va prodiguer quelques conseils dont … faire glisser le pinceau vers le mur pour glisser dessus. Évidemment aucun sens de l’humour non plus. Bon, après, qui sait si c’est un pinceau de colle très forte avec une poignée … mais là on « peint » et on sait (c’est une information contextuelle que nous savons dès qu’on essaye de peindre) que la peinture n’est pas de la colle.

    À vous !!! : essayez d’inventer d’autres questions dont la réponse nécessite une compréhension du contexte et qui fera échouer ChatGPT.

    Bonjour ChatGPT
    Faisons un peu de calcul :
    Que vaut 12345 fois 54321 ?

    => ChatGPT donnera normalement le résultat exact : 670592745

    Que vaut 643 * 532  ?

    => ChatGPT donnera normalement un résultat approché, le résultat exact est 342076 et on aura 342… avec qq approximations

    Ce qu’on voit ici est que le mécanisme ne calcule pas et cherche juste le résultat du calcul dans sa base de données, il est probable que on demande peu 12345 fois 54321 avec en plus des chiffres assez particulier, donc il est probable qu’il est le bon résultat quelque part. En revanche il y a probablement énormément de multiplications à trois chiffres donc le mécanisme ne peut que donner le résultat le plus probable de toutes ces multiplications compte-tenu des chiffres en entrée sans vraiment faire le calcul. C’est intéressant car l’humain aussi fait un calcul approximatif « à la louche´´ quand le calcul exact est trop lourd.

    À vous !!! : essayez de voir ce qui se passe quand on demande des calculs numériques à une machine qui répond sans pouvoir calculer mais juste en puisant dans des calculs dont le texte est proche.

    Bonjour ChatGPT
    Il y a deux canards devant un canard, deux canards derrière un canard et un canard au milieu. Combien de canards y a-t-il ?
    Réponse de ChatGPT:

    Il y a trois canards en tout. Voici comment cela fonctionne :
    Le canard du milieu est entouré par les deux autres canards.
    Il y a deux canards devant le canard du milieu.
    Il y a deux canards derrière le canard du milieu.
    Donc, 2 (devant) + 1 (milieu) + 2 (derrière) = 5 canards en tout.

    Là c’est intéressant : l’énigme traîne sur internet,  la bonne réponse a donc été collectée avec l’explication MAIS ensuite comme on fait souvent une addition pour donner un résultat le mécanisme ajoute un calcul … complètement à côté.

    Bonjour ChatGPT
    Le 31 décembre à minuit, une mère accouche exactement à neuf mois de grossesse à l’heure près d’un superbe nourrisson, 6600 heures avant où était le père ?
    Réponse de ChatGPT:

    Le père était probablement avec la mère pendant l’accouchement. En supposant que le père était présent lors de la naissance de l’enfant, il se trouvait dans la même pièce que la mère, à l’hôpital ou à l’endroit où l’accouchement a eu lieu, 6600 heures auparavant.

    Bonjour ChatGPT
    Le 31 décembre à minuit, une mère accouche exactement à neuf mois de grossesse à l’heure près d’un superbe nourrisson, 280 jours avant où était le père ?

    La réponse est alors … partiellement pertinente ! En effet «en moyenne, une grossesse dure environ 280 jours à partir de la date de la dernière menstruation de la mère» c’est une information connue de ChatGPT qui va alors donner des éléments relativement cohérents (mais ne tiendra en rien compte de la durée entre menstruation et ovulation).

    Bonjour ChatGPT
    Un sot porte un seau contenant le sceau du roi et le cheval fait un saut provoquant une chute ! Faut il écrire « les trois sauts tombèrent » ou bien « les trois sceaux tombèrent » ou bien « les trois seaux tombèrent » ou bien quelque chose de moins sot ?

    On vous laisse découvrir la réponse, assez sophitiquée, mais … là encore décalée.

    À vous !!! : essayez de lui poser des énigmes logiques …

    Thierry Viéville

    Cet article est publié en miroir avec pixees.fr.

    P.S.: Caroline Brosse avec la complicité d’Éric Pascual en partage quelques autres:

    + Quel est le plus long mot de sept lettres ?

    + Quelle est la différence entre les œufs de vache et les œufs de lapin ?
    [où l’on voit que les lapins sont bien associés aux oeufs … Pâques !]

  • NTIC et menaces sur la santé : Des choix économiques et politiques. Partie 2

    Petit mot sur l’autrice : Servane Mouton est docteure en médecine, neurologue et neurophysiologiste, spécialisée en psychopathologie des apprentissages et titulaire d’un master 2 en neurosciences. Elle s’intéresse particulièrement au neuro-développement normal et à ses troubles ainsi qu’aux liens entre santé et environnement. Ceci est le second article traitant du sujet NTIC et menaces sur la santé, le premier étant au lien disponible ici. Elle aborde pour nous le sujet des choix économiques et politiques intervenant dans ces sujets et leur impact sur la santé en lien avec les NTIC. Ikram Chraibi Kaadoud, Thierry Viéville.

    Le déploiement d’internet dans les années 1990, l’arrivée des smartphones en 2007 et plus récemment, les confinements successifs liés à la pandémie COVID 19 en 2020, se sont accompagnés d’une véritable explosion des temps d’écran et ce dès le plus jeune âge.  Pour accompagner ce changement d’usage, des recommandations ont été mises en place, mais ne semblent pas suffisantes car déjà remises en question: elles ne tiendraient pas compte de tous les enjeux en présence, à savoir d’ordre sanitaire pour l’espèce humaine, mais aussi environnemental, et, finalement, sociétal. 

    Si dans le premier article, le Dr Servane Mouton abordait l’impact des NTIC sur la sédentarité, le sommeil, et la vision et plus globalement sur le développement des enfants, dans l’article ci dessous elle questionne et nous partage des propositions d’actions pour accompagner et contrôler l’impact des NTIC dans nos vies.

     NTIC : 

    Sigle désignant « Nouvelles technologies de l’information et de la   communication » qui regroupe  l’« ensemble des techniques et des équipements informatiques permettant de communiquer à distance par voie électronique » (Dictionnaire Larousse). Les NTIC permettent à leurs utilisateurs d’accéder aux sources d’information, de les stocker, voire de les transmettre à d’autres utilisateurs dans un délai très court.

    Definition extraite de Grevisse, Y. R. DE LA FALSIFICATION ELECTRONIQUE DES DOCUMENTS DANS LE SECTEUR EDUCATIF EN RDC: les enjeux des NTIC. Technological Forecasting & Social Change77, 265-278. 

    Figure 1 – Proposition d’actions pour la régulation de l’usage des NTIC

    Une attention manipulée

    Revenons aux usages actuels : comment sommes-nous arrivés à de tels excès ? En grande partie à cause de l’essor non réglementé de l’économie de l’attention. Les industriels du secteur, réseaux sociaux, jeux vidéo et autres activités récréatives et/ou commerciales en ligne, cherchent à augmenter le temps de connexion afin notamment de recueillir le plus possible de données de navigation qui seront ensuite sources de profits.  La conception des algorithmes repose sur une connaissance fine du fonctionnement cérébral, ce qui rend (quasiment) irrésistibles les contenus de ces plateformes proposés « gratuitement ». La stimulation du système de récompense par la nouveauté ou les gratifications, les effets de « simple exposition » et de « dotation », la pression sociale, la « Fear Of Missing Out », sont des leviers parmi d’autres pour capter et maintenir captive notre attention. On ne parle officiellement d’addiction que pour les jeux vidéo en ligne et les jeux d’argent, les termes « addictif-like », usages « abusifs » ou « compulsifs » sont employés pour les autres produits1.

    Somme toute, il nous semble que l’histoire du tabac se répète : des produits addictifs ou addictifs-like sont mis à disposition de tous y compris des mineurs, et leur usage a des effets délétères multiples et avérés sur la santé à court, moyen et long terme. Avec les NTIC, les dégâts sont cependant bien plus diffus. Et les parties prenantes bien plus nombreuses.

    Il y a bien entendu les GAFAM et autres acteurs du secteur. A ce titre, la numérisation croissante de l’enseignement, dès la maternelle, est une aubaine : outre l’immense marché représenté par les établissements scolaires, les habitudes prises dans l’enfance ont une forte chance/un haut risque de perdurer. L’écran fera ainsi partie intégrante de l’environnement de l’individu.

    Mais toutes les industries reposant sur la consommation (cf ci-dessus) : agro-alimentaire, alcool, cigarettes e-ou classiques, textiles, jeux et jouets, etc. ont aussi intérêt à laisser libre cours à l’invasion numérique. Les achats/ventes en ligne, les publicités officielles ou déguisées, ciblées grâce à l’analyse des données de navigation, permettent au marketing d’être redoutablement efficace.

    Quelques propositions

    Estimation des coûts des NTIC pour la santé publique

    Il serait intéressant, nécessaire même, d’évaluer les coûts en terme de santé des usages numériques. La souffrance n’a pas de prix…Mais il est sans doute possible d’estimer la part de responsabilité des NTIC dans les dépenses pour les consultations et traitements en orthophonie, en psychomotricité, en psychiatrie, en ophtalmologie, ou pour les maladies métaboliques et cardiovasculaires, les troubles du sommeil et ses conséquences multiples.

    Législation efficace quant de l’économie de l’attention, sécurisation de la navigation sur internet.

    L’économie de l’attention devrait être efficacement régulée, au vu des conséquences délétères multiples sur le plan sanitaire d’un usage excessif/abusif qu’elle favorise.

    Une législation similaire à celle ayant cours pour la recherche biomédicale devrait s’appliquer à la recherche-développement (RD) de ces produits, considérant qu’il s’agit de recherche impliquant des sujets humains, et de produits dont l’usage affecte leur santé eu sens large. On pourrait s’inspirer du Code de la Santé Publique, définissant par l’article L 1123-7 le Comité de Protection des Personnes (CPP) comme chargé « d’émettre un avis préalable sur les conditions de validité de toute recherche impliquant la personne humaine, au regard des critères définis.

    Il faudrait exiger la transparence du secteur des NTIC, rendant les données de navigation ainsi que les dossiers de RD de produits impliquant la captation de l’attention accessibles aux chercheurs indépendants et institutionnels.

    Protection des mineurs

    Sur internet, le code de la sécurité intérieure ne traite pas la question de la protection des mineurs sous l’angle de la prévention contre l’addiction, mais uniquement contre l’exposition à la pornographie, à la violence et à l’usage de drogues (article L. 321-10). Or les adolescents jouent massivement en ligne : 96% des 10-17 ans sont des joueurs, et ils représentent 60 % des joueurs en ligne français. Dans cette même classe d’âge, 70 % utilisent les réseaux sociaux. Ceci représente une exception dans le domaine de l’addiction. Pour mémoire, on estime que la seule industrie du jeu vidéo pesait 300 milliards de dollars en 2021…

    La navigation sur internet devrait être sécurisée : une ambitieuse proposition de loi est en cours d’examen au Sénat, concernant l’accès aux contenus pornographiques, les contenus pédopornographiques, le cyberharcèlement, l’incitation à la haine en ligne, la désinformation, les arnaques en ligne, les jeux à objets numériques monétisables. Elle inclut aussi l’interdiction de publicités ciblées pour les mineurs sur les plateformes. Espérons qu’une fois cette loi votée, les obstacles techniques robustes seront surmontés, rapidement.

    Une loi vient d’être promulguée, établissant la majorité numérique à 15 ans pour les réseaux sociaux. Ceci est un témoin de la prise de conscience des enjeux, et nous espérons qu’elle sera mise en application de façon efficiente, malgré les obstacles techniques considérables. Malgré tout, elle nous parait insuffisante : qu’en est-il des 15-18 ans ? Qu’en est-il des des jeux vidéo en ligne, dont le caractère addictif potentiel est pourtant lui reconnu par l’OMS ?

    On peut saluer le projet de loi visant la sécurisation et la régulation de l’espace numérique, qui prévoit que les mineurs ne seront plus l’objet de publicités ciblées. Malheureusement, ils ne seront pas protégés des publicités « classiques »…

    Témoin de l’intensité du lobbying de l’industrie agro-alimentaire, et des enjeux économiques sous-jacents, soulignons ainsi un détail qui n’en est pas dans une autre loi promulguée le 9 Juin dernier, portant sur les influenceurs des réseaux sociaux. Cette dernière va ainsi encadrer la promotion faite par ces derniers : ils n’auront plus le droit de vanter les boissons alcoolisées, le tabac, les e-cigarettes. Un amendement avait été apporté après la première lecture au Sénat, afin d’ajouter dans cette liste les aliments trop sucrés, salés, gras ou édulcorés, la publicité par les influenceurs étant particulièrement persuasive en particulier pour les plus jeunes. Les auteurs de l’amendement s’appuyaient d’une part sur une expertise collective de l’Inserm de 2017 concluant que les messages sanitaires (« manger, bouger » par exemple, note de l’auteur) ont une faible portée sur le changement des comportements alimentaires ; d’autre part sur le fait que de nombreux experts de santé publique, à commencer par l’OMS et Santé Publique France, ont démontré que l’autorégulation de  l’industrie agroalimentaire sur laquelle s’appuie la France (tels qu’un engagement volontaire en faveur de « bonnes pratiques ») est inefficace.

    Mais cet amendement a lui-même été amendé, laissant libre cours à cette publicité, comme sur les autres médias… Comme maintes fois auparavant, les tentatives pour préserver les moins de 18 ans de l’influence de ces publicités ont été écartées. Elles seront donc simplement assujetties aux mêmes règles que sur les autres supports, comme être accompagnées de messages promouvant la santé (manger-bouger, etc).

    L’argument, pourtant souligné par les auteurs de l’amendement : « Le coût global (en France) d’un régime alimentaire néfaste sur le plan diététique dépasse les 50 milliards d’euros par an, celui du diabète de type 2 représentant à lui seul 19 milliards d’euros. » n’a pas suffi…

    Globalement, la collecte des données de navigation des mineurs, qu’elles soient exploitées immédiatement ou lors de leur majorité (numérique ou civile) nous parait poser problème. Et que l’âge même de la majorité diffère dans les vies civile ou numérique (pour les données de navigation selon le Réglement Général de Protection des données (RGPD) et maintenant en France pour l’accès aux réseaux sociaux, cette majorité numérique est à 15 ans) nécessiterait des éclaircissements au vu des enjeux précédemment exposés (et de de ceux que nous n’avons pu détailler).

    Il nous semble que tant qu’une législation vis-à-vis des pratiques des industriels n’est pas efficiente pour protéger les usagers de ces risques, la vente et l’usage de smartphone et autres outils mobiles à ou pour les mineurs devrait être remise en question, de même que leur accès aux plateformes de réseaux sociaux et de jeux vidéo en ligne.

    L’épineuse question de l’enseignement

    En 2022, le Conseil Supérieur des Programmes du Ministère de l’Education Nationale, de la Jeunesse et des Sports soulignait les disparités de valeur ajoutée de l’usage des outils numériques dans l’enseignement selon les matières, les enseignants, le profil des élèves aussi. Il recommandait notamment 2 : « avant l’âge de six ans, ne pas exposer les enfants aux écrans et d’une manière générale à l’environnement numérique ; de six à dix ans, à l’école, privilégier l’accès aux ressources offertes par le livre, le manuel scolaire imprimé. » Pourtant, l’état français soutient encore financièrement et encourage fortement la numérisation des établissements scolaires dès l’école primaire, et même, en maternelle. Tandis que la Suède a fait cette année marche arrière sur ce plan-là, attribuant études à l’appui la baisse des résultats de leurs élèves (que l’on observe également en France) à la numérisation extensive de l’enseignement effectuée au cours des dernières années, et préconisant le retour aux manuels scolaires papier. Considérant en outre les arguments sanitaires cités précédemment et l’impact environnemental avéré des NTIC, leur usage par les élèves et leur déploiement dans les écoles, collèges et lycées devrait être réellement et mieux réfléchi. Par ailleurs, les smartphones devraient être exclus de l’enceinte des établissements scolaires, afin d’offrir un espace de déconnexion et d’éviter de favoriser les troubles attentionnels induits par leur seule présence, même lorsqu’ils sont éteints.

    Campagne d’information à grande échelle

    Les enjeux sont tels qu’une information de l’ensemble de la population apparait urgente et nécessaire, sur le modèle « choc », par exemple, de la prévention de la consommation d’alcool. Le sujet devrait être abordé dès le début de grossesse, cette période étant généralement celle où les futurs parents sont les plus réceptifs et les plus enclins à remettre en cause leurs pratiques pour le bien de l’enfant à venir. La formation des soignants, professionnels de l’enfance, et des enseignants est indispensable, devant s’appuyer sur les données les plus récentes de la littérature scientifique.

    Protection des générations futures

    L’étendard de la croissance est systématiquement brandi lorsque l’on incite à reconsidérer la pertinence du déploiement du numérique. Mais il est aujourd’hui reconnu largement qu’une croissance infinie n’est ni raisonnable ni souhaitable dans notre écosystème fini.

    Or les NTIC sont tout sauf immatérielles. Leurs impacts environnementaux sont directs et indirects 3,4. Les premiers sont essentiellement dus à la phase de fabrication des terminaux : extraction des matières premières associée à une pollution colossale des sites dans des pays où la législation est quelque peu laxiste (Afrique, Chine, Amérique du Sud notamment) et des conséquences dramatiques en particulier pour les populations voisines et les travailleurs locaux (conditions de travail déplorables, travail des enfants), acheminement des matériaux. Mais aussi à leur fonctionnement et au stockage des données, au recyclage insuffisant (pollution eau/sol/air, consommation d’eau et d’énergie). Les seconds sont consécutifs au rôle central des NTIC dans la « grande accélération », avec encouragement des tendances consuméristes. Ils sont plus difficilement estimables et probablement les plus problématiques.

    Il est entendu que la santé humaine est étroitement liée à la qualité de son environnement, et que l’altération de celui-ci la compromet, comme elle compromet tout l’écosystème.

    Certes la médecin a progressé considérablement, notamment parallèlement aux innovations technologiques s’appuyant sur le numérique. Mais, nous avons au moins le droit de poser la question : ne vaut-il pas mieux œuvrer à améliorer notre hygiène de vie (sédentarité, activité physique, alimentation) et notre environnement (pollution atmosphérique, perturbateurs endocriniens) pour entretenir notre santé cardiovasculaire, que développer des instruments sophistiqués permettant d’explorer et de déboucher une artère, à grand coût économique et environnemental ? Instruments qui ne bénéficieront qu’à une minime fraction de la population mondiale, celle des pays riches ou aux classes aisées des pays qui le sont moins. Et le coût environnemental est justement assumé majoritairement par les pays les plus pauvres, dont sont issus les matières premières et où ont lieu le « recyclage » et le « traitement » des déchets.

    En résumé

    Les innovations portées par les NTIC ont un fort potentiel de séduction voire de fascination. Ne pas rejoindre sans réserve la révolution numérique ferait-il de nous des technophobes réfractaires au progrès ? Et si au contraire il était temps de prendre conscience des dangers et écueils liés à un déploiement extensif et non réfléchi de ces technologies ?

     Références bibliographiques

    1. Montag C, Lachmann B, Herrlich M, Zweig K. Addictive Features of Social Media/Messenger Platforms and Freemium Games against the Background of Psychological and Economic Theories. International Journal of Environmental Research and Public Health. 2019 Jul 23;16(14):2612.
    2. Avis sur la contribution du numérique à la transmission des savoirs et à l’amélioration des pratiques pédagogiques – juin 2022. Conseil Supérieur des Programmes, Ministère de l’Education Nationale, de la Jeunesse et des Sports
    3. Impacts écologiques des Technologies de l’Information et de la Communication – Les faces cachées de l’immatérialité. Groupe EcoInfo, Françoise Berthoud. EDP Sciences. 2012.
    4. Le numérique en Europe : une approche des impacts environnementaux par l’analyse du cycle de vie (NumEU) – Green IT. 2021.

     

  • NTIC: Etat des lieux en France et conséquences sur la santé physique. Partie 1

    Petit mot sur l’autrice : Servane Mouton est docteure en médecine, neurologue et neurophysiologiste, spécialisée en psychopathologie des apprentissages et titulaire d’un master 2 en neurosciences. Elle s’intéresse particulièrement au neuro-développement normal et à ses troubles ainsi qu’aux liens entre santé et environnement. Elle nous partage dans ce billet une analyse sur l’impact des NTIC sur la santé physique des enfants au travers de trois aspects des enjeux de santé individuelle et publique à court, moyen et long terme : la sédentarité, le sommeil, et la vision. Ikram Chraibi Kaadoud, Thierry Viéville.

    Le déploiement d’internet dans les années 1990, l’arrivée des smartphones en 2007 et plus récemment, les confinements successifs liés à la pandémie COVID 19 en 2020, se sont accompagnés d’une véritable explosion des temps d’écran et ce dès le plus jeune âge. Car à côté de la numérisation croissante de tous les secteurs d’activité – à savoir en santé, éducation, mais aussi agriculture, transports, journalisme, etc – les populations des pays connectés font surtout massivement usage des écrans pour leur divertissement.  

     NTIC : 

    Sigle désignant « Nouvelles technologies de l’information et de la   communication » qui regroupe  l’« ensemble des techniques et des équipements informatiques permettant de communiquer à distance par voie électronique » (Dictionnaire Larousse). Les NTIC permettent à leurs utilisateurs d’accéder aux sources d’information, de les stocker, voire de les transmettre à d’autres utilisateurs dans un délai très court.

    Definition extraite de Grevisse, Y. R. DE LA FALSIFICATION ELECTRONIQUE DES DOCUMENTS DANS LE SECTEUR EDUCATIF EN RDC: les enjeux des NTIC. Technological Forecasting & Social Change77, 265-278.

    Le tableau 1 ci dessous présente les recommandations actuelles de temps d’écran, qui sont discutables et les usages tels qu’ils sont observés aujourd’hui. Force est de constater que l’écart est considérable.  Ces recommandations devraient être remises en question, car elles ne tiennent à notre sens pas compte de tous les enjeux en présence. Ceux-ci sont d’ordre sanitaire pour l’espèce humaine, mais aussi environnemental, et, finalement, sociétal.

    Il n’est pas possible de détailler ici chaque question de chacun de ces trois volets (nous en avons proposé un tour d’horizon non exhaustif dans un ouvrage collaboratif récemment publié Humanité et Numérique : les liaisons dangereuses, Editions Apogée) 1.

    Nous vous proposons de nous attarder sur trois aspects des enjeux de santé individuelle et publique à court, moyen et long terme : la sédentarité, le sommeil, et la vision. Les conséquences neuro-développementales et socio-relationnelles de l’usage des écrans par les parents en présence de l’enfant, ou par l’enfant et l’adolescent lui-même, nécessiteraient un billet dédié.

    TABLEAU 1 – Temps d’écran par appareil et global en fonction de l’âge en France, Recommandations.
    Etude IPSOS pour l’Observatoire de la Parentalité et de l’Education au Numérique et l’Union Nationale des Familles 2022. * Anses. 2017. Etude individuelle nationale des consommations alimentaires 3 (INCA 3).** Reid Chassiakos YL, Radesky J, Christakis D, Moreno MA, Cross C; COUNCIL ON COMMUNICATIONS AND MEDIA. Children and Adolescents and Digital Media. Pediatrics. 2016 Nov;138(5).*** L’OMS publie les premières lignes directrices sur les interventions de santé numérique. Communiqué de presse. Avril 2019. https://www.who.int/fr/news/item/17-04-2019-who-releases-first-guideline-on-digital-health-interventions

    Sédentarité, troubles métaboliques et santé cardiovasculaire (Figure 1)

     

    Figure 1 – Liens entre usage des écrans, maladies métaboliques et cardiovasculaires

    Le temps passé assis devant un écran pour les loisirs est depuis une quarantaine d’années l’indicateur le plus utilisé dans les études pour évaluer la sédentarité chez les personnes mineures. Pour les adultes, on utilise souvent des questionnaires tels le Recent Physical Activity Questionaire, explorant toutes les activités sédentaires (temps passé devant les écrans, mais aussi dans les transports, au travail etc.)

    Or la sédentarité est un facteur de risque cardio-vasculaire indépendant, qui elle-même favorise le développement des autres facteurs de risque que sont le surpoids voire l’obésité et le diabète de type2.  Notons que la sédentarité augmente la mortalité toutes causes confondues, ceci n’étant pas entièrement compensé par la pratique d’une activité physique modérée à intense.

    L’Organisation Mondiale de la Santé (OMS) recommande aujourd’hui de ne pas exposer les enfants aux écrans avant deux ans2, puis une heure quotidienne maximum jusqu’à 5 ans (mais moins, c’est mieux « less is better »!). Au-delà et jusqu’à jusqu’ à 17 ans, les activités sédentaires ne devraient pas excéder 2 heures chaque jour. Pour cette tranche d’âge, l’Académie de Pédiatrie Américaine (AAP) fixe à 1h30 le seuil de sécurité, des effets délétères étant déjà significatifs dès 2h/j3.

    Les Français de plus de 11 ans passent 60% de leur temps libre devant un écran. L’âge moyen d’obtention du premier téléphone est 9 ans.

    Alors qu’en France l’exposition aux écrans est déconseillée pour les moins de 3 ans, une étude IPSOS-UNAF publiée en 20224 estimait le temps moyen passé devant la télévision à 1h22 et celui devant un smartphone à 45 minutes chaque jour dans cette tranche d’âge. Cette enquête ne fournissant pas les temps d’écrans globaux quotidiens, voici des chiffres publiés dans un rapport de l’ANSES (Agence Nationale de la Sécurité Sanitaire de l’Alimentation, de l’Environnement et du travail) en 20175, qui sous-évaluent très certainement les pratiques actuelles « post-COVID 19 » : le temps d’écran moyen était d’environ 2 heures chez les 3-6 ans, 2h30 chez les 7-11 ans, 3h30 chez les 11-15 ans, quasiment 5 heures chez les 15-17 ans, idem chez les adultes.  Les deux tiers des 7-10 ans et la moitié des 11-14 ans y consacraient plus de 3 heures par jour, un quart des 15-17 ans plus de 7 heures et seulement un tiers moins de 3 heures. Plus le niveau socio-éducatif des parents est élevé, moins l’enfant est exposé aux écrans.

    Les adultes passent eux environ 5 heures devant un écran chaque jour en dehors du travail, 84% d’entre eux sont considérés comme sédentaires.

    Ceci a conduit les auteurs des rapports publiés en 20166 et 20207 par l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) à conclure, parlant de la sédentarité et de l’activité physique chez les moins de 18 ans : « il n’est pas fréquent, dans les résultats des expertises en évaluation de risques de l’agence, que près de la moitié de la population est considérée comme présentant un risque sanitaire élevé ».

    Mais les outils numériques sont aussi le support de choix pour la publicité, notamment pour les aliments à haute teneur en graisse, sucre et sel, dont la consommation favorise hypertension artérielle, diabète, surpoids et obésité, hypercholestérolémie, tous étant des facteurs de risque cardio-vasculaires8. On y rencontre aussi la promotion de boissons alcoolisées9, du tabac et des e-cigarettes10, que les publicités soient officielles ou que ces produits soient valorisés dans les films, les séries, ou par les influenceurs. L’analyse des données de navigation permet de présenter des publicités d’autant plus efficaces qu’elles sont ciblées. La puissance de tels algorithmes est bien reconnue11.

    L’usage des écrans tel qu’il est observé aujourd’hui favorise donc la survenue de maladies cardio-vasculaires. Rappelons que les maladies cardiovasculaires sont actuellement la première cause de mortalité dans le monde selon l’OMS et que leur prévalence ne cesse d’augmenter12.  En France, elles sont responsables de 140.000 décès par an, et 15 millions de personnes sont soignées pour un problème de santé cardio-vasculaire (c’est-à-dire un facteur de risque ou une maladie vasculaire). Les Accidents Vasculaires Cérébraux (AVC) et les maladies coronariennes, dont l’infarctus du myocarde sont les plus fréquentes. En France, toujours, une personne est victime d’un AVC toutes les 4 minutes, soit près de 120.000 hospitalisations par an, auxquelles s’ajoutent plus de 30.000 hospitalisations pour accident ischémique transitoire (AIT). Les AVC sont la deuxième cause de mortalité après les cancers, ils sont ainsi responsables de près de 40.000 décès par an en France. Ils sont aussi la première cause de handicap acquis chez l’adulte, et la deuxième cause de démence (après la maladie d’Alzheimer). Concernant les maladies coronariennes, environ 80 000 personnes présentent un infarctus du myocarde en France chaque année, 8.000 en décèdent dans l’heure, 4. 000 dans l’année qui suit13.

    Outre les troubles métaboliques précédemment décrits (comportements sédentaires augmentant ainsi le risque d’obésité et des désordres métaboliques liés, et par conséquent le risque de maladies cardio-vasculaires à moyen et long terme), l’exposition prolongée aux écrans est depuis peu suspecte de modifier le tempo pubertaire (favorisant les avances pubertaires) 14.

    Sommeil

    Le sommeil n’est pas seulement un temps de repos mais un temps où les hormones et le métabolisme se régénèrent. Or l’usage excessif des écrans peut contribuer à la réduction du temps de sommeil ou à une altération de sa qualité, à tout âge d’autant plus que cet usage est prolongé, a lieu à un horaire tardif et/ou dans l’heure précédent l’endormissement théorique (soirée, nuit), que l’écran est placé à proximité immédiate des yeux et que les contenus sont stimulants. La présence d’un écran dans la chambre est associée à une altération quantitative et qualitative du sommeil. Ceci est particulièrement préoccupant chez les moins de 18 ans car les habitudes de sommeil s’installent dans l’enfance et une mauvaise hygiène sur ce plan est particulièrement susceptible de s’inscrire dans la durée.

    Les problèmes de santé favorisés par la dette chronique de sommeil sont multiples15 : troubles métaboliques tels que le surpoids ou l’obésité, le diabète, les maladies cardiovasculaires16  ; troubles de l’humeur et certaines maladies psychiatriques comme la dépression17 ; troubles cognitifs avec diminution des performances en termes de mémorisation, d’apprentissage et de vitesse d’exécution notamment ; développement de maladies neuro-dégénératives telles que la maladie d’Alzheimer, possiblement via des mécanismes inflammatoires neuro-toxiques18 ; augmentation du risque accidentogène (accident de la vie courante, accident du travail), en particulier accidents de la circulation19 ; infections 20;  certains cancers, tel le cancer du sein21. De façon générale, la privation de sommeil chronique augmente le risque de mortalité22.

    Selon une enquête de l’Institut National de la Vigilance et du Sommeil (INVS) en 202223, 40% des enfants de moins de onze ans (60% des 6-11 ans) regardent un écran dans l’heure précédant l’endormissement. Pour 7% d’entre eux, il s’agit même du rituel accompagnant le coucher. Un enfant de moins de onze ans sur dix s’endort dans une pièce où un écran est allumé.

    Le même INVS établissait en 202024 que les adolescents français dorment en moyenne 7 h 45, dont moins de 7 h par nuit en semaine, au lieu des 8,5 à 9h de sommeil recommandées par la National Sleep Fondation. Seize pour cent des enfants de onze ans et 40 % de ceux de quinze ans ont un déficit de plus de 2h de sommeil par jour en semaine. Dès 11 ans, ils sont 25% à être équipés d’un téléviseur et 40% d’un ordinateur dans leur chambre, cette proportion passant à 1/2 et 2/3 respectivement pour les 15-18 ans.

    Une autre étude française réalisée chez 776 collégiens25 révèle que la plupart des adolescents utilisent leurs écrans pendant la nuit ce qui impacte la durée et la qualité de sommeil. Ces activités peuvent être initiées lorsqu’ils se réveillent spontanément pendant la nuit (73,9%) ; mais 26% de ces adolescents, programment un réveil en cours de nuit.

    La durée moyenne du sommeil chez les adultes de 18 à 65 ans est passée de 7h05 en semaine et 8h11 le week-end en 2016, à 6h41 en semaine et 7h51 le week-end en 2020. Le temps recommandé par la NSF est compris entre 7 à 9h. En 2022, 60% des adultes regardent un écran dans l’heure précédant l’endormissement (versus 38% en 2016 et 45% en 2020) et pour 23% d’entre eux, le temps d’exposition moyen est de plus d’une heure et demie.

    En 2016, selon l’enquête de l’INVS26, 20% des personnes interrogées gardent leur téléphone en fonctionnement pendant la nuit. Cinquante pour cent d’entre elles, soit 10% des personnes interrogées sont réveillées par des messages ou notifications.   Parmi elles, 92 % les consultent, 79 % y répondent immédiatement. En 2020, ce sont près du double de personnes (16 %) interrogées qui sont réveillées la nuit par des alertes.

    Selon le rapport de l’INVS de 2020 : « Pierre angulaire des difficultés de sommeil des enfants et des adolescents, les écrans sont aujourd’hui au premier plan des préoccupations des spécialistes ».

    Vision

    L’ANSES s’est penché sur la question des impacts de l’éclairage LED sur la santé et l’environnement, publiant un rapport édifiant en 201927. Parmi les impacts négatifs, l’usage des écrans peut ainsi compromettre le système visuel en favorisant l’apparition d’une myopie. Ceci est lié à la surutilisation de la vision de près au détriment de la vision de loin, mais surtout à l’exposition à un éclairage artificiel au détriment de celui à un éclairage naturel. Les écrans sont en effet utilisés à l’intérieur, éventuellement sous un éclairage artificiel, et sont eux-mêmes une source supplémentaire d’exposition à un tel éclairage (le caractère riche en bleu de la lumière artificielle serait un élément clé dans cet effet néfaste). Le temps passé par les enfants devant les écrans pour leurs loisirs est donc hautement préoccupant, car il se fait au détriment d’activités en plein air, auxquelles ils devraient s’adonner au minimum 2 heures chaque jour du point de vue ophtalmologique (selon le Baromètre de la myopie en France, 2022, seulement 36% des parents déclarent que leur enfant remplit cette exigence13). Aujourd’hui, une personne sur trois présente une myopie dans le monde, cela pourrait être une sur deux en 2050.

    De plus, cette lumière riche en bleu et pauvre en rouge a un effet phototoxique sur la rétine28. L’exposition aux sources lumineuses riches en lumière bleue telles les éclairages artificiels et les écrans a lieu le jour, mais surtout la nuit, moment où la rétine est plus sensible à cette phototoxicité.

    Aucune donnée n’est disponible quant aux effets à long terme d’une exposition répétée/chronique à ce type d’éclairage.

    L’utilisation intensive des écrans par la population jeune est préoccupante, car leur système visuel est moins protégé (transparence plus grande de leur cristallin laissant passer plus la lumière bleue que celui des adultes) et en développement, ce qui accroit largement ces risques.

    L’usage croissant des écrans dans le cadre scolaire participe à cette majoration du niveau d’exposition.

    Autres problématiques

    Citons en vrac, et sans prétendre à l’exhaustivité : la perturbation du développement cognitif, émotionnel et socio-relationnel induit par l’usage des écrans par les parents en présence de l’enfant29, les mêmes troubles  favorisés par l’exposition des enfants et adolescents aux écrans (rappelons que le cerveau mature jusqu’à 25 ans) 30, l’exposition aux contenus inappropriés (violence31, pornographie32), le cyber-harcèlement33, les défis sordides, l’hypersexualisation, la dysmorphie induite par les réseaux sociaux, la facilitation de la prostitution infantile (qui va croissante depuis plusieurs années) 34.

    Mais aussi l’enrichissement du « cocktail » de perturbateurs endocriniens auxquels les usagers sont exposés, certains composants des outils informatiques et numériques appartenant à cette catégorie (notamment les retardateurs de flamme bromés, très volatiles et les PFAS), ceci étant particulièrement problématique chez les jeunes enfants, les adolescents et les femmes enceintes ; et l’exposition aux rayonnements radiofréquences au sujet de laquelle des scientifiques du monde entier ont appelé en 2017 à appliquer le principe de précaution, arguant de l’absence d’étude d’impact préalable au déploiement de cette technologie (en vain) 35

    En résumé …

    … les impacts des NTIC sur la sédentarité, le sommeil, et la vision et plus globalement sur le développement cognitif, psychologique et socio-relationnel, ne sont pas encore précisément estimés. Cependant, ils  apparaissent déjà hautement préoccupants. Face a ce constat, une question se pose : Quelles sont les actions possibles à mettre en place pour y pallier  ? 

    Servane nous en parle dans la suite de ce billet à venir ! 

    Références bibliographiques

    1. Humanité et numérique : les liaisons dangereuses. Livre collaboratif coordonné par le Dr Servane Mouton, Editions Apogée, Avril 2023.
    2. L’OMS publie les premières lignes directrices sur les interventions de santé numérique. Communiqué de presse. Avril 2019. https://www.who.int/fr/news/item/17-04-2019-who-releases-first-guideline-on-digital-health-interventions
    3. Reid Chassiakos YL, Radesky J, Christakis D, Moreno MA, Cross C; COUNCIL ON COMMUNICATIONS AND MEDIA. Children and Adolescents and Digital Media. Pediatrics. 2016 Nov;138(5)
    4. Etude IPSOS pour l’Observatoire de la Parentalité et de l’Education au Numérique et l’Union Nationale des Familles 2022. Etude OPEN IPSOS UNAF GOOGLE | OPEN | Observatoire de la Parentalité et de l’Éducation Numérique (open-asso.org)
    5. ANSES. Etude individuelle nationale des consommations alimentaires 3 (INCA 3). Avis de l’Anses (Saisine n° 2014-SA-0234). 2017. Etude individuelle nationale des consommations alimentaires 3 (INCA 3) | vie-publique.fr
    6. ANSES. Actualisation des repères du PNNS – Révisions des repères relatifs à l’activité physique et à la sédentarité. 2016. NUT2012SA0155Ra.pdf (anses.fr)
    7. ANSES. Avis de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail relatif à l’évaluation des risques liés aux niveaux d’activité physique et de sédentarité des enfants et des adolescents. 2020. « AVIS de l’Anses relatif à l’évaluation des risques liés aux niveaux d’activité physique et de sédentarité des enfants et des adolescents
    8. Catherine M. Mc Carthy, Ralph de Vries, Joreintje D. Mackenbach. The influence of unhealthy food and beverage marketing through social media and advergaming on diet-related outcomes in children—A systematic review. Obesity Reviews. 2022 Jun; 23(6): e13441 ; https://www.who.int/fr/news-room/factsheets/detail/children-new-threats-to-health; Alruwaily A, Mangold C, Greene T, Arshonsky J, Cassidy O, Pomeranz JL, Bragg M. Child Social Media Influencers and Unhealthy Food Product Placement. Pediatrics. 2020 Nov;146(5):e20194057.
    9. Barker AB, Smith J, Hunter A, Britton J, Murray RL. Quantifying tobacco and alcohol imagery in Neƞlix and Amazon Prime instant video original programming accessed from the UK: a content analysis. British Medical Journal Open. 2019 Feb 13;9(2):e025807 ; Jackson KM, Janssen T, Barnett NP, Rogers ML, Hayes KL, Sargent J. Exposure to Alcohol Content in Movies and Initiation of Early Drinking Milestones. Alcohol: Clinical and Experimental Research. 2018 Jan;42(1):184-194. doi: 10.1111/acer.13536 ; Chapoton B, Werlen AL, Regnier Denois V. Alcohol in TV series popular with teens: a content analysis of TV series in France 22 years after a restrictive law. European Journal of Public Health. 2020 Apr 1;30(2):363-368 ; Room R, O’Brien P. Alcohol marketing and social media: A challenge for public health control. Drug and Alcohol Review. 2021 Mar;40(3):420-422.
    10. WHO. 2015. Smoke-free movies: from evidence to action. Third edition; Dal Cin S, Stoolmiller M, Sargent JD. When movies matter: exposure to smoking in movies and changes in smoking behavior. Journal of Health 8 Communication 2012;17:76–89; Lochbuehler K, Engels RC, Scholte RH. Influence of smoking cues in movies on craving among smokers. Addiction 2009;104:2102–9; Lochbuehler K, Kleinjan M, Engels RC. Does the exposure to smoking cues in movies affect adolescents’ immediate smoking behavior? Addictive Behaviours 2013;38:2203–6. 97; https://truthinitiative.org/research-resources/smoking-pop-culture/renormalization-tobacco-use-streaming-content-services
    11. Lapierre MA, Fleming-Milici F, Rozendaal E, McAlister AR, Castonguay J. The Effect of Advertising on Children and Adolescents. Pediatrics. 2017 Nov;140(Suppl 2):S152-S156. doi: 10.1542/peds.2016-1758V; Vanwesenbeeck I, Hudders L, Ponnet K. Understanding the YouTube Generation: How Preschoolers Process Television and YouTube Advertising. Cyberpsychology, Behavior, and Social Networking. 2020 Jun;23(6):426-432.
    12. https://www.who.int/fr/news-room/fact-sheets/detail/cardiovascular-diseases-(cvds)
    13. Gabet A, Grimaud O, de Pereƫ C, Béjot Y, Olié V. Determinants of Case Fatality After Hospitalization for Stroke in France 2010 to 2015. Stroke. 2019;50:305-312 ; hƩps://www.inserm.fr/dossier/accident-vasculaire-cerebral-avc/; https://www.inserm.fr/dossier/infarctus-myocarde/.
    14. Crowley SJ, Acebo C, Carskadon MA. Human puberty: salivary melatonin profiles in constant conditions. Developmental Psychobiology 54(4) (2012) 468–73)
    15. Morselli LL, Guyon A, Spiegel K. Sleep and metabolic function. Pflugers Archiv. 2012 Jan;463(1):139–60. 15. Roberts RE, Duong HT. The prospective association between sleep deprivation and depression among adolescents. Sleep. 2014 Feb 1;37(2):239–44.
    16. Wang C, Holtzman DM. Bidirectional relationship between sleep and Alzheimer’s disease: role of amyloid, tau, and other factors. Neuropsychopharmacology. 2020;45(1):104–20 ; Liew SC, Aung T. Sleep deprivation and its association with diseases- a review. Sleep Med. 2021;77:192–204.
    17. Teŏ BC. Acute sleep deprivation and culpable motor vehicle crash involvement. Sleep. 2018;41(10).
    18. Bryant PA, Curtis N. Sleep and infection: no snooze, you lose? The Pediatric Infectious Disease Journal. 2013 Oct;32(10):1135–7 ; Spiegel K, Sheridan JF, van Cauter E. Effect of sleep deprivation on response to immunization. JAMA. 2002 Sep 25;288(12):1471–2.
    19. Lu C, Sun H, Huang J, Yin S, Hou W, Zhang J, et al. Long-Term Sleep Duration as a Risk Factor for Breast Cancer: Evidence from a Systematic Review and Dose-Response Meta-Analysis. BioMed Research International. 2017;2017:4845059.
    20. Hanson JA, Huecker MR. Sleep Deprivation. 2022.
    21. Liew SC, Aung T. Sleep deprivation and its association with diseases- a review. Sleep Med. 2021;77:192–204.
    22. Institut national du sommeil et de la vigilance. 2022. 22Ème journée du Sommeil. Le sommeil des enfants et de leurs parents. BJ23423 – OpinionWay pour INSV – Février 2022 – 070322 – post réunion.pptx (institut-sommeil-vigilance.org)
    23. Institut national du sommeil et de la vigilance. 2020. 20Ème journée du Sommeil. Le sommeil d’hier et de demain. Conférence de presse (institut-sommeil-vigilance.org)
    24. Institut national du sommeil et de la vigilance. 2016. 16Ème journée du Sommeil. Sommeil et nouvelles technologies. institut-sommeil-vigilance.org/wp-content/uploads/2019/02/RESULTATS_ENQUETE_INSV_MEGN2016.pdf
    25. Royant-Parola S, Londe V, Tréhout S, Hartley S. The use of social media modifies teenagers’ sleep-related behavior. Encephale. 2018 Sep 1;44(4):321–8.
    26. AVIS et RAPPORT de l’Anses relatif aux effets sur la santé humaine et sur l’environnement (faune et flore) des systèmes utilisant des diodes électroluminescentes (LED). 2019.
    27. Baromètre Les Français et la myopie. IPSOS. 2022. Microsoft PowerPoint – Ipsos_Myopie – Baromètre Les Français et la myopie_(RAPPORT GLOBAL MEDIATISE) (ensemblecontrelamyopie.fr)
    28. Gawne TJ, Ward AH, Norton TT. Long-wavelength (red) light produces hyperopia in juvenile and adolescent tree shrews. Vision Research. 2017;140:55-65.
    29. K. Braune-Krickau , L. Schneebeli, J. Pehlke-Milde, M. Gemperle , R. Koch , A. von Wyl. (2021). Smartphones in the nursery: Parental smartphone use and parental sensitivity and responsiveness within parent-child interaction in early childhood (0-5 years): A scoping review. Infant Mental Health Journal. Mar;42(2):161-175 ; L.Jerusha Mackay, J. Komanchuk, K. Alix Hayden, N. Letourneau. (2022). Impacts of parental technoference on parent-child relationships and child health and developmental outcomes: a scoping review protocol. Systematic Reviews.Mar 17;11(1):45.
    30. Masur EF, Flynn V, Olson J. Infants’ background television exposure during play: Negative relations to the quantity and quality of mothers’ speech and infants’ vocabulary acquisition. First Language 2016, Vol. 36(2) 109–123; Zimmerman FJ, Christakis DA. Children’s television viewing and cognitive outcomes: a longitudinal analysis of national data. Arch Pediatr Adolesc Med. 2005;159(7):619–625; Madigan S, McArthur BA, Anhorn C et al. Associations Between Screen Use and Child Language Skills: A Systematic Review and Meta-analysis. JAMA Pediatr. 2020 Jul 1;174(7):665-675; Schwarzer C, Grafe N, Hiemisch A et al. Associations of media use and early childhood development: cross-sectional findings from the LIFE Child study. Pediatr Res. 2021 Mar 3; Madigan S, Browne D, Racine N et al. Association Between Screen Time and Children’s Performance on a Developmental Screening Test. JAMA Pediatr 2019 Mar 1;173(3):244-250; Lillard AS, et al. The immediate impact of different types of television on young children’s executive function. Pediatrics. 2011. 11. Swing EL, et al. Television and video game exposure and the development of attention problems. Pediatrics. 2010; Wilmer HH, Sherman LE, Chein MJ. Smartphones and Cognition: A Review of Research Exploring the Links between Mobile Technology Habits and Cognitive Functioning. Front Psychol 2017 Apr 25;8:605. Tornton, B., Faires, A., Robbins et al. The mere presence of a cell phone may be distracting: Implications for attention and task performance. Soc. Psychol. 45, 479–488 (2014); Hadar A, HadasI, Lazarovits A et al. Answering the missed call: Initial exploration of cognitive and electrophysiological changes associated with smartphone use and abuse. PLoS One. 2017 Jul 5;12(7). Beyens I, Valkenburg PM, Piotrowski JT. Screen media use and ADHD-related behaviors: Four decades of research. Proc Natl Acad Sci U S A. 2018 Oct 2;115(40):9875-9881; Nikkelen SW, Valkenburg PM, Huizinga M et al. Media use and ADHD-related behaviors in children and adolescents: A metaanalysis. Dev Psychol. 2014 Sep;50(9):2228-41; Christakis DA, Ramirez JSB, Ferguson SM et al. How early media exposure may affect cognitive function: A review of results from observations in humans and experiments in mice. Proc Natl Acad Sci U S A. 2018 Oct 2;115(40):9851-9858. 7 .
    31. Anderson CA, Shibuya A, Ihori N, Swing EL, Bushman BJ, Sakamoto A, Rothstein HR, Saleem M. Violent video game effects on aggression, empathy, and prosocial behavior in eastern and western countries: a meta-analytic reviewPsychol Bull. 2010 Mar;136(2):151-73. doi: 10.1037/a0018251. Anderson CA, Bushman BJ, Bartholow BD, Cantor J, Christakis D, Coyne SM. Screen Violence and Youth Behavior. Pediatrics. 2017 Nov;140(Suppl 2):S142-S147. doi: 10.1542/peds.2016-1758T.
    32. Porno : l’enfer du décor – Rapport – Sénat (senat.fr)
    33. Ferrara P, Ianniello F, Villani A, Corsello G. Cyberbullying a modern form of bullying: let’s talk about this health and social problem. Ital J Pediatr. 2018 Jan 17;44(1):14.
    34. Rapport sur la prostitution des mineurs. 2021. sante.gouv.fr/IMG/pdf/synthese_rapport_sur_la_prostitution_des_mineurs_12072021.pdf
    35. EMF Scientist Appeal Advisors Call for Moratorium on 5G – Environmental Health Trust (ehtrust.org)
  • Tu maîtriseras l’informatique, ma fille, mon fils.

    Oui nos enfants apprennent l’informatique pour maîtriser le monde numérique, et c’est surtout l’histoire d’une formidable dynamique des enseignantes et enseignants qui ont su en quelques toutes petites années, se former, s’entraider et s’organiser. Laissons-nous raconter cette histoire, redonnons ici quelques éléments clés. Ikram Chraibi-Kaadoud, Thierry Viéville.

    Bonjour Charles Poulmaire et Sherazade Djeballah, qui êtes vous ?

    Photo fournie par l’auteur

    Je suis, Charles,  professeur d’informatique au lycée, formateur académique en mathématiques et informatique, et avec quelques collègues à l’initiative de l’AEIF (association des enseignantes et enseignants d’informatique de France).

     

    Photo fournie par l’autrice

    Je suis, Sherazade, étudiante en Master 2 MEEF parcours cadre éducatif et apprentie ingénieure pédagogique au sein de l’équipe d’Inria Learning Lab. Dans le cadre de mon alternance, je suis chargée de la gestion du MOOC “NSI : les fondamentaux” publié sur la plateforme France Université Numérique

     

     

    Redites-nous ce que nos enfants apprennent à l’école, collège et au lycée.

    Dès le primaire, on découvre en lien avec les autres apprentissages, des notions d’informatique comme ce que concrètement peut-être un algorithme ou comment on code des images avec des pixels. Puis au collège, on apprend la programmation en cours de mathématiques et de technologie en manipulant souvent des objets numériques. Et c’est au lycée général et technologique, en seconde, avec le cours de Sciences Numériques et Technologie qu’on apprend des notions de bases divisées en 7 thèmes comme Internet et le Web, la géolocalisation, les objets connectés, etc… Ensuite en Première, les élèves peuvent choisir la spécialité Numérique et Sciences Informatiques (NSI) qui initie vraiment à l’informatique.

    Nos enfants ne consomment plus passivement les contenus numériques mais apprennent à comprendre, choisir, programmer ce qu’eils souhaitent, ici dans un club extra-scolaire qui aide à l’égalité des chances sur ces sujets
    © https://www.magicmakers.fr

    Et comment en quelques années les profs ont eils pu se former ?

    De nombreux professeur·e·s souvent de matières scientifiques, mais pas uniquement, avec une culture informatique ou pas, se sont formés en ligne et en présentiel, à la fois individuellement et en se regroupant. 

    Les professeurs ont également créé l’ Association des enseignantes et enseignants d’Informatique de France (AEIF) pour se regrouper et développer des échanges entre eux. Un forum est né, permettant de communiquer sur leur enseignement. Leur devise est “faire communauté”.

    Leurs collègues de l’enseignement supérieur et de la recherche les ont aidés en proposant des formations accélérées à travers le territoire et en ligne, tandis que des sites de ressources se sont multipliés. 

    Notons aussi que plusieurs personnes travaillant dans l’informatique se tournent vers l’enseignement. Voir l’interview de  Jean-Marc Vincent qui donne quelques conseils à ces profils de professionnels pour se préparer au mieux à une reconversion.

    Peut-on donner quelques exemples de ressources  ?

    Au delà d’une formation aux fondamentaux et d’une galaxie de sites pour les collègues présentées en annexe, on peut citer la forge (https://forge.aeif.fr/ ) des Communs Numériques Éducatifs qui est un dépôt permettant le développement collaboratif de codes et contenus pédagogiques sous licence libre, par et pour les enseignants et leur élèves. Un autre lieu de partage de projets.  

    Notons aussi l’initiative NSI-cookies que présente Stéphane Renouf sur ce lien, qui offre un accompagnement sur le long terme au fil des besoins de la communauté.

     

    Le mot de la fin ?

    Continuons à faire communauté pour partager, interagir, échanger des idées et des pratiques pédagogiques , créer des ressources, des logiciels pour l’enseignement de l’informatique pour toutes et tous.

    Charles Poulmaire, professeur d’informatique dans le secondaire, formateur de professeurs et président fondateur de l’AEIF et Sherazade Djeballah, étudiante en master 2 MEEF, parcours cadre éducatif et en alternance au sein du service d’Inria Learning Lab, avec Aurélie Lagarrigue  ingénieure pédagogique multimédia au Learning Lab Inria.

    Annexe: une galaxie de sites pour les collègues qui enseignent l’informatique.

    Se former pour SNT et NSI :

      https://classcode.fr/snt avec le Mooc S’initier à l’enseignement en Sciences Numériques et Technologie permet de s’initier à l’informatique comme toutes et tous les élèves de seconde, il sert de point de départ pour les collègues qui vont enseigner, mais aussi pour les adultes qui n’ont pas pu bénéficier de SNT ou veulent accompagner les jeunes qui s’y forment.
      https://mooc-nsi-snt.gitlab.io/portail est la plateforme qui offre une formation initiale (voir annexe suivante pour les Moocs associés), ces formations permettent de commencer à se former à devenir enseignant·e et au CAPES.

    F
    ormations citoyennes complémentaires:
    https://classcode.fr/iai et son Mooc L’Intelligence Artificielle… avec intelligence ! pour se questionner sur les enjeux et le fonctionnement de l’intelligence artificielle.Le Mooc Impacts environnementaux du numérique pour se questionner sur les enjeux du numérique en apprenant à mesurer, décrypter et agir dans un monde numérique.
    Partager ses pratiques et s’entraider :

      https://mooc-forums.inria.fr/moocnsi facilite la recherche d’information sur ces sujets, et permet de discuter entre pairs sur tous les sujets, au-delà des listes de discussion pour NSI et SNT.

      Il y a aussi plusieurs sites de ressources partagées comme  https://pixees.fr/informatiquelycee  grâce à David Roche et d’autres répertoriés ici https://www.pedagogie.ac-nice.fr/nsi/489-2/, en plus bien entendu des ressources de l’éducation nationale https://eduscol.education.fr/2068/programmes-et-ressources-en-numerique-et-sciences-informatiques-voie-g 

    C’est aussi une galaxie de partenaires que l’on retrouve sur ce lien.

     

    Annexe: les 4 raisons de suivre les MOOCS “Numérique et Sciences Informatiques, NSI” sur la plateforme FUN et les ressources associées.

    Le cours “NSI : les fondamentaux”, permet d’acquérir les bases théoriques dans tous les champs de l’informatique, nécessaires à l’enseignement de la matière NSI : Numérique et Sciences Informatiques. Il est complété par un cours sur “NSI: apprendre à enseigner” qui est basé sur l’échange de pratiques professionnelles pour se questionner sur la didactique de l’informatique.

    • Raison n°1 : Se préparer à l’enseignement de la spécialité Numérique et Sciences Informatiques (NSI)

    S’appuyant sur le programme officiel d’NSI, ces formations offrent un parcours complet (plus de 200 heures de formation), permettant de découvrir l’ensemble des domaines de l’informatique, tels que : représentation et traitement des données, programmation, algorithmique, architecture matérielle, réseau et système d’exploitation.
    En suivant ce parcours gratuit et disponible en ligne, vous pourrez monter en compétences sur le programme de NSI, ce qui vous aidera à préparer le CAPES informatique puis à enseigner l’informatique au niveau du secondaire supérieur.

    • Raison n°2 : Se former auprès d’enseignants experts

    Ces formations sont des œuvres collectives avec plus de 10 auteurs, dont certains font partie du jury du CAPES informatique. Parmi les intervenants, on trouve des  enseignant.e.s de NSI et des enseignant.e.s-chercheur.e.s de différentes disciplines : informatique, linguistique, épistémologie, didactique.

    • Raison n°3 : Des cours articulant théorie et pratique.

    Chaque module du Mooc “NSI : les fondamentaux” est composé d’un cours en ligne complet disponible en vidéo ou au format textuel, de quiz et d’activités complémentaires tel que l’outil UpyLaB pour se former au langage de programmation Python.

    Le Mooc “NSI: apprendre à enseigner” est basé sur une pédagogie par l’action grâce à des activités de mise en situation professionnelle, d’échanges au sein d’une communauté de pratique et à l’évaluation par les pairs permettant de prendre du recul sur ses propres méthodes d’enseignement.

    • Raison n°4 : Construisez-vous un réseau d’enseignants NSI.

    Ce cours propose un forum où se côtoie une communauté de pratique via la Communauté d’Apprentissage de l’Informatique (CAI), l’Association des enseignantes et enseignants d’informatique de France (AEIF) et la communauté d’apprenants du MOOC. Sur ce forum, vous pourrez échanger sur les contenus des MOOCs NSI, mais aussi sur d’autres thématiques plus larges en lien avec les bonnes pratiques à adopter ou les dernières actualités liées à l’enseignement de NSI.

  • Hommage à Christophe Chaillou

    Nous venons d’apprendre avec tristesse le décès brutal de Christophe Chaillou, professeur à l’Université de Lille et chercheur en informatique. Plusieurs d’entre nous avons travaillé avec Christophe et nous avons souhaité lui rendre hommage en publiant cet article rédigé par ses collègues et amis.
    Marie-Agnès Enard et Pascal Guitton.

    Crédit photo Université de Lille

    A l’origine professeur de mathématiques, Christophe fait une thèse en informatique graphique au Laboratoire d’Informatique Fondamentale de Lille (maintenant intégré au Centre de Recherche en Informatique, Signal et Automatique de Lille). Recruté maître de conférences à l’ENIC (devenu Mines-telecom Nord de France) en 1991, il rejoint l’Eudit (devenu Polytech Lille depuis) en tant que Professeur en 1996. Il prend la direction de l’équipe de recherche Graphix de 1995 à 2010. Il est mis à disposition à l’Inria de septembre 1999 à août 2001 en tant que directeur de recherche pour mettre en place l’équipe-projet Alcove, une des premières équipes du centre Inria Futurs qui allait préfigurer le nouveau centre Inria à Lille. Alcove est à l’origine d’une longue lignée d’équipes, encore actives aujourd’hui au sein de CRIStAL et/ou du Centre Inria de l’Université de Lille (MINT, DEFROST et LOKI), mais aussi à Strasbourg (MIMESIS). En 2006, Christophe et sa famille s’installent en Chine où il va travailler à l’institut d’automatique de l’Académie Chinoise des Sciences à Beijing pendant un an.
    En 2010, tout en continuant ses activités d’enseignement, il va intégrer à temps partiel Pictanovo, une association française dont l’objet est la promotion et l’appui à la production audiovisuelle et cinématographique dans la région des Hauts-de-France. Durant près de 10 ans, il va fonder et suivre le déploiement d’un appel à projet destiné à rapprocher recherche universitaire, monde artistique et entreprises.
    A partir de 2020, il est nommé chargé de missions Art & Sciences au sein du service culture de l’Université de Lille où il continue d’initier des projets pour rapprocher le monde de la recherche et de l’art sous toutes ses formes.

    Durant toutes ces années, Christophe a mis toute son énergie à initier et développer des activités de recherche autour de la réalité virtuelle, des simulateurs chirurgicaux, des dispositifs haptiques. Il a aussi très tôt souhaité créer des liens entre arts et sciences en motivant les chercheurs d’autres disciplines que la sienne à côtoyer des étudiants dans le domaine artistique comme ceux du Fresnoy par exemple.
    Très dynamique, il a formé plusieurs générations d’étudiants et les a motivés à rejoindre la recherche, encouragé et soutenu des chercheurs et enseignant-chercheurs confirmés pour s’installer à Lille et incité ses collègues à transférer leurs activités.
    Générateur d’idées, il a apporté un soutien considérable au développement des recherches sur l’haptique et le retour tactile, et plus généralement sur la Réalité Virtuelle et l’Interaction Humain-Machine, à l’Université de Lille et chez Inria. Par sa volonté de construire, il a permis l’essor de ces activités et a contribué à leur rayonnement international.
    Engagé, fervent militant du “travailler ensemble”, il a été souvent moteur pour faire interagir le monde académique et universitaire avec les entreprises (avec la création de la société SimEdge), les arts (avec Pictanovo et le Fresnoy) ou par le biais de son engagement sur les sujets autour du développement durable.
    Christophe a sans conteste été un booster d’activités, mettant son énergie, ses qualités au service de la communauté dès lors qu’il trouvait une idée intéressante, pour l’université, pour la science et ses applications.
    Nous garderons en mémoire un collègue et ami généreux et passionné, très apprécié, toujours bienveillant, et dont l’enthousiasme était contagieux.

    Des amis et collègues de Christophe

    Vous pouvez apporter un témoignage en hommage à Christophe sur le site du laboratoire Cristal

  • Policer les internets : « Vos papiers ! »

     

    Lead Certification Expert at European Union Agency for Cybersecurity (ENISA)

    Un ancien collègue de mes collègues, Éric Vétillard, nous a proposé un article sur les contrôles d’identité. À l’heure du numérique, cette vérification peut cacher d’autres utilisation de votre identité pas les entités qui veulent la vérifier ou connaitre votre âge sans parler de la difficulté de prouver la parenté… Pierre Paradinas.

    Dans le monde physique, nous avons de longues traditions de contrôles d’identité, de vérifications d’âge, par exemple pour acheter de l’alcool. Le contrôle des certificats COVID a poussé cette tradition dans ses limites. En Grèce, je montrais le certificat de vaccination et une pièce d’identité pour manger au restaurant, mais en France, uniquement le certificat de vaccination.

    Nous acceptions ces contrôles parce que le monde physique a la mémoire courte. La personne qui vérifie chaque jour l’âge ou le statut vaccinal de centaines de clients ne mémorise pas ces informations.

    Le monde virtuel est très différent. Il a une mémoire infinie. C’est parfois avantageux, puisqu’il suffit enligne de démontrer son âge une fois pour toutes. Mais quelle information sera mémorisée, et comment sera-t-elle exploitée ? De nombreux services en ligne, dont les réseaux sociaux, vivent de l’exploitation des données que nous mettons à leur disposition de manière plus ou moins consciente.

    Et pourtant, des contrôles vont devoir être mis en place. Après le filtrage d’âge pour les sites pornographiques, un filtrage similaire a été voté pour les réseaux sociaux. L’impact est significatif, car si il est difficile de connaître l’audience des sites pornographiques avec précision, nous savons que la grande majorité d’entre nous utilise des réseaux sociaux, et autour de 100% des adolescents, y compris de nombreux utilisateurs de moins de 15 ans. L’impact de ces vérifications sera donc très significatif, car il s’appliquera à nous tous.

    Le bon sens de ces mesures est évident, si vous ne comprenez pas que le monde virtuel est différent du monde physique. Au-delà des problèmes de confiance, il y a un fort sentiment d’impunité sur les réseaux, ainsi qu’une culture beaucoup plus libre, avec beaucoup de fausses identités, de pseudonymes, de personnages fictifs,etc. Bref, il est plus facile de tricher en ligne, même moralement.

    Alors, comment démontrer son âge sans confiance avec une méthode sûre et accessible à tous ? Ce nést pas évident. La carte de paiement semblait un bon moyen, mais elle de répond à aucun des critères : il faut faire confiance au fournisseur, on peut facilement tricher, et tout le monde n’en a pas. Un scan de pièce d’identité n’est pas non plus idéal, pour des raisons très similaires. Pour ceux qui pensent au code QR authentifié des nouvelles cartes d’identité françaises pour résoudre au moins un problème, pas de chance : il ne contient pas la date de naissance.

    Les problèmes de confiance peuvent être réglés en utilisant un service dédié, dit « tiers de confiance », dont le rôle est de collecter des données sensibles et de ne communiquer que l’information nécessaire à d’autres entités, par exemple des réseaux sociaux. C’est plus simple que ça en a l’air : nous pourrions aller chez un buraliste, montrer une pièce d’identité, et le buraliste attesterait auprès du réseau socialque nous avons plus de 15 ans.

    En même temps, au niveau Européen, la réglementation sur l’identité numérique avance lentement, et définit un portefeuille numérique qui devrait simplifier l’authentification en ligne. En particulier, ce portefeuille serait associé à une personne de manière forte, et pourrait contenir des attestations de type « Le porteur de ce document a plus de 18 ans ». Une telle attestation serait très pratique pour les contrôles d’âge requis, car elle permet de limiter l’information divulguée. De plus, une des exigences de la loi est que le fournisseur de l’attestation, par exemple l’état, ne doit pas être informé des utilisations de l’attestation, ce qui devrait rendre la constitution d’un fichier national d’utilisateurs des sites pornographiques impossible, ou du moins illégale.

    Ces portefeuilles électroniques devraient être déployés d’ici à la fin de la décennie. Si les citoyens les adoptent, ils pourraient apporter une solution technique au problème de vérification d’âge. En attendant, je pense très fort aux experts de l’ARCOM qui seront en charge de définir un référentiel de vérification d’âge à la fois efficace et suffisamment protecteur de notre vie privée pour être approuvé par la CNIL.

    Pour finir, une petite colle. La dernière loi sur les réseaux sociaux inclut une notion d’autorisation parentale entre 13 et 15 ans. Cette autorisation doit être donnée par un parent, qui doit donc prouver sa qualité de parent. Nos documents d’identité français, même électroniques, ne contiennent pas d’informations de filiation. Quel mécanisme pourrons-nous donc utiliser pour autoriser nos chers ados ?

    Éric Vétillard

  • Communs numériques : explorer l’hypothèse des organisations frontières

    Louise Frion est doctorante en droit du numérique. Ses travaux portent sur les communs et la blockchain. Elle a récemment publié un papier de recherche sous la direction de Florence G’Sell intitulé Les communs numériques comme systèmes alternatifs de valeur. Ce papier a fait l’objet d’une discussion publique le à Sciences Po. Elle revient ici sur quelques points saillants de sa recherche.
    Ce texte est co-publié par le Conseil National du Numérique et par binaire, dans le cadre de notre rubrique sur les communs numériques.

    Louise Frion

    Dans votre papier de recherche, vous vous inscrivez dans la poursuite du travail réalisé par le groupe de travail sur les communs numériques conduit à l’initiative de la France au cours de la présidence française (rapport), notamment pour considérer les communs numériques comme un vecteur de renforcement stratégique pour l’Europe. Quels sont les arguments qui sous-tendent cette idée selon vous ?  

    Les communs numériques sont des outils utiles pour renforcer l’indépendance industrielle de l’Europe dans les secteurs les plus stratégiques.

    D’abord parce qu’ils renforcent la résilience de nos infrastructures numériques vitales grâce à des effets de réseau lié à leur nature même, en tant que biens non-rivaux. Dans le cadre de projets comme Python SciPy[1] ou Govstack[2], l’ouverture du code des briques logiciel incite les utilisateurs à corriger les bugs au fil de l’eau, voire à contribuer à l’écriture du code source pour le rendre plus efficace. Cela permet également de garantir la sécurité des infrastructures à moindre coût et de développer et de maintenir des composantes numériques réutilisables et interopérables entre elles. Cela renforce aussi l’indépendance des administrations publiques qui peuvent ainsi choisir les logiciels dont elles ont besoin pour un service public sans être dépendantes du logiciel d’une entreprise privée pour une application donnée.

    Ensuite, les communs numériques sont vecteurs d’innovation et de créativité car ils sont ouverts à tous et structurés de telle sorte que toute contribution malveillante ou inutile n’est pas valorisée. Il est de fait inintéressant pour un individu ou un groupe d’individu de dégrader un commun ou de tenter de l’orienter vers d’autres objectifs car sa valeur dépend de critères socio-économiques et non financiers. Leur contribution positive à l’économie européenne pourrait atteindre 65-95Mds€ de création de valeur pour 1Md€ d’investissement[3].

    Enfin, la transparence et l’auditabilité des communs numériques renforce la légitimité de nos institutions et a fortiori leur caractère démocratique, car ils offrent des outils permettant de construire des services publics et des algorithmes plus représentatifs de la diversité de nos sociétés. Ces outils réduisent les barrières artificielles qui existent entre producteurs et consommateurs de contenu, ce qui augmente mécaniquement l’offre de contenus numérique et a fortiori sa représentativité de la diversité de la société. À l’échelle locale, la plateforme open source Decidim réunit des municipalités, des organisations de quartier, des associations, des universités ou des syndicats pour configurer des espaces numériques dédiés à la participation citoyenne et les enrichir de fonctionnalités plus accessibles de type sondage, propositions de vote, suivi de résultats, etc.

    Pour autant, la diffusion de la culture et de la pratique des communs n’est pas évidente. À quels grands défis sont-ils confrontés aujourd’hui ?

    Les communs numériques sont confrontés aujourd’hui à trois grands défis.

    D’abord, ils souffrent d’une absence de cadre juridique dédié permettant de favoriser l’engagement durable et réciproque des commoners dans un commun numérique. Les politiques publiques sont davantage dans une logique d’exploitation de la production des commoners que de support actif et financier à la construction d’infrastructures qui pourraient décharger les commoners de certaines tâches et leur permettre de se concentrer sur les évolutions du code source et les algorithmes sous-jacents.

    Ensuite, les communs numériques font face à un risque de capture par des entreprises privées.  Les incitations économiques et sociales à préserver l’indépendance des commoners, dans un contexte où 96% de nos entreprises utilisent des composantes open source, sont insuffisantes à l’heure actuelle. Dans les nombreux « arrangements » entre commoners et entreprises pour développer et maintenir des projets open source, le pouvoir de négociation des commoners est trop souvent réduit. Cela se traduit par une augmentation du nombre de semi-communs, soient des espaces où commoners et salariés développent des solutions ensemble. Mais, par exemple avec le semi-commun Chromium qui coexiste avec Chrome, les contributeurs sont toutefois essentiellement des salariés de Google et ce sont des membres du management de Google qui choisissent in fine de mettre en place les modules développés dans Chromium dans Chrome, ce qui limite de facto le pouvoir de négociation des commoners.

    L’enjeu pour les communs numériques ici semble être de développer des incitations pour les commoners et pour les entreprises à réconcilier les deux visions qui s’opposent entre l’open source (Linus Torvalds) qui utilise les communs pour produire des solutions plus efficaces à moindre coût et le libre (Richard Stallman) où les utilisateurs ont le droit d’exécuter, de copier, de distribuer, d’étudier, de modifier ou d’améliorer tout logiciel.

    Enfin, dans un contexte de fracture numérique grandissante au niveau national (1 personne sur 6 en difficulté face au numérique en France d’après l’INSEE), les communs numériques sont encore trop éloignés de la plupart des citoyens sur le territoire national. Pour déployer leur plein potentiel, le principe digital commons first[4] n’est pas suffisant, il faut aussi que les communs numériques soient considérés comme des infrastructures essentielles par les pouvoirs publics. Cela permettrait d’impliquer davantage les citoyens dans leur construction, leur développement et leur entretien. Compter uniquement sur l’engagement bénévole des commoners pour atteindre des ambitions aussi fortes n’est pas viable à long-terme.

    Pour répondre aux défis auxquels font face les communs, vous défendez aussi l’hypothèse de créer des organisations frontières ? En quoi consistent de telles organisations ?

    Les « organisations frontières » sont des fondations à but non lucratifs qui ont pour objectif de régir les relations entre les communs numériques et les organisations avec lesquelles ces communs interagissent, comme par exemple les fondations Linux, Wikimedia, Apache.

    Elles permettent aux commoners de maintenir leur pouvoir de négociation pour éviter de se transformer indirectement en main d’œuvre des entreprises qui s’appuient sur leur travail. Ce faisant, elles maintiennent des frontières avec les grandes entreprises pour préserver l’indépendance des communs tout en attirant les meilleurs développeurs pour contribuer. Ces organisations ont trois fonctions : préserver des modalités de contrôle plurielles sur l’évolution du code, donner une voix aux entreprises sur l’évolution du projet et représenter les communautés qui gèrent les projets.

    Dans cette logique, les organisations frontières permettent de dissocier les intérêts convergents entre commoners et entreprises et de mettre en place des systèmes de collaboration qui ne menacent pas leurs intérêts divergents.

    La collaboration entre commoners et entreprise est mutuellement bénéfique car :

    • – L’intérêt des commoners est d’étendre le champ d’application des logiciels libres en s’appuyant sur les ressources des entreprises ; les problématiques commerciales entrainent des problèmes techniques intéressants à résoudre.
    • – Les entreprises ont intérêt à exploiter ce marché émergent à mesure qu’il gagne en popularité auprès des utilisateurs car cela leur donne accès à de l’expertise technique pour ensuite recruter, résoudre des problèmes complexes avec des experts, et augmenter leurs marges avec des frais de licences moins élevés.

     

    Mais leurs intérêts peuvent aussi diverger : les commoners veulent maintenir leur autonomie, une manière de collaborer informelle et non hiérarchique, et la transparence du code-source alors que les entreprises ont intérêt à influencer le projet dans le sens de leur stratégie, à ne pas divulguer trop d’information à leurs concurrents, en particulier sur leurs stratégies de lancement sur le marché et à mettre en place des processus de gouvernance plus formels pour garder la main sur l’évolution des projets dans le temps et mitiger les risques associés.

    Dans ce contexte, les organisations frontières fournissent des cadres de gouvernance qui atténuent les divergences entre commoners et entreprises et permettent de préserver les aspects les plus critiques des deux parties[5].

    Elles permettent aussi d’inciter les commoners à investir davantage de leur temps dans la maintenance du commun pour détecter plus rapidement des vulnérabilités cyber dans des infrastructures à grande échelle.

    O’Mahony et Bechky, deux chercheurs de l’Université de Californie, ont identifié quelques bonnes pratiques pour qu’une « organisation frontière » soit pleinement efficaces :

    • – Ses prérogatives doivent être cantonnées aux aspects légaux et administratifs et laisser les aspects plus techniques aux commoners et aux entreprises.
    • – Elles ne doivent avoir aucun rôle sur les décisions prises au niveau du code, le droit d’accepter ou de refuser une modification étant purement individuel (en fonction du mérite technique du code) en préservant l’autonomie des
    • – Leur capacité décisionnelle doit être limitée sur la temporalité de la sortie des nouvelles versions du logiciel, cette décision devant plutôt revenir à des développeurs sponsorisés par les entreprises, qui en retour leur donnent la visibilité nécessaire sur le développement du projet en cours[6].

     

    Louise Frion, doctorante en droit du numérique

    Propos recueillis par Serge Abiteboul et Jean Cattan

    [1] Bibliothèque open source dédiée aux calculs de mathématique complexes et à la résolution de problèmes scientifiques.

    [2] Partenariat public-privé-communs pour généraliser l’utilisation de communs numériques accessibles, fiables et durables pour les administrations publiques ; commun numérique pour développer et maintenir des composantes numériques réutilisables et interopérables pour les administrations.

    [3] Source : groupe de travail sur les communs numériques réunissant 19 États membres à l’initiative de la France pendant la présidence française.

    [4] Le fait de considérer d’abord des solutions open source avant d’implémenter tout nouveau service public.

    [5] Les auteurs utilisent les exemples de projets tels que Webserver, GUI Desktop pour rendre Linux plus accessible à des utilisateurs non techniciens, Compatibilité project et Linux distribution project pour illustrer ce point sur les organisations frontières.

    [6] Dans les projets décrits par O’Mahony et Bechky, les entreprises ne pouvaient pas contribuer en tant qu’utilisateurs mais ne pouvaient pas non plus intégrer des codes-sources sans garder la main sur leur développement. Pour résoudre ce conflit, elles ont embauché des commoners sur des projets spécifiques en ligne avec leurs intérêts qu’elles ont sponsorisés financièrement. L’adhésion des commoners devait toutefois être individuelle pour préserver l’indépendance du commun. Les fondations leur ont donc donné des droits spécifiques sur la propriété intellectuelle qu’ils ont contribué à créer.

  • Améliorer les images pour mieux observer le monde à toutes les échelles

    Notre collègue Laure Blanc-Féraud a reçu la médaille d’argent du CNRS pour des travaux de recherche qui permettent de tirer le meilleur des images afin d’en exploiter toute leur richesse. Mais comment ça marche ? Et à quoi cela peut-il servir ? Lançons nous avec elle dans une promenade du capteur visuel à son application. Serge Abiteboul et Thierry Viéville.

    Bonjour Laure qui es-tu ?

    J’ai d’abord choisi d’étudier les mathématiques par goût des sciences exactes. Il m’était bien plus facile de comprendre pourquoi un exercice était juste ou faux, mais plus difficile de comprendre comment améliorer une rédaction laborieuse. Puis j’ai choisi de continuer en thèse sur le traitement numérique d’image, alors à sa naissance, comparé au traitement du signal qui avait déjà quelques lettres de noblesse depuis la seconde guerre mondiale. Tout était à construire, en même temps que la puissance des ordinateurs décuplait.  Voir les résultats en image des modèles mathématiques mis en application sur ordinateur donne une dimension très réaliste à la construction mathématique abstraite et cela m’a convaincue de continuer !

    D’où proviennent les images que tu vas utiliser ?

    Les images proviennent de caméras associées aux télescopes embarqués sur des satellites pour l’observation de la Terre, ou aux microscopes à fluorescence pour l’étude de la cellule vivante et son environnement. Mais souvent, avant d’utiliser les images, il faut les construire, à partir de données physiques enregistrées, par exemple à partir des rayons X atténués par le corps humain et enregistrés tout autour de celui-ci par un scanner. Calculer une image d’intérêt à partir de données physiques enregistrées en surface, que ce soit des rayons X, électromagnétiques, acoustiques ou autres est une vraie difficulté rencontrée dans presque tous les systèmes d’imagerie actuels.

    «Étudiante, j’ai choisi de travailler sur le traitement des images numériques car l’impact des modèles mathématiques utilisés est directement visible.»

    Quel est le fondement du travail avec ces images ?

    « Je m’intéresse à la capture de phénomènes qui ne sont pas directement observables, et qu’il faut reconstruire le plus fidèlement possible »

    « Par exemple, l’imagerie optique est confrontée à la limite de diffraction de la lumière, ce qui fait par exemple qu’un microscope de fluorescence ne peut pas descendre en l’état à une résolution inférieure à 200 nm dans le plan latéral (orthognal à l’axe du microscope) et 500nm dans l’axe du microscope. Avec Sébastien Schaub, biophysicien spécialiste des appareils de microscopie, nous optimisons conjointement les protocoles d’acquisition et les algorithmes de reconstruction associés afin de repousser ces limites. Afin de prendre en compte les différentes composantes d’une image dans ces reconstructions, telles que les textures, contours et singularités (points, courbes), je me suis inspirée, avec Gilles Aubert, de modèles issus de la physique, que nous transférons aux images. »

    On introduit donc à la fois des connaissances a priori sur le capteur lui-même et sur la nature des images observées, pour que ces connaissances fournissent des éléments permettant de reconstruire des informations qui ne sont pas directement ou que partiellement ou approximativement visibles.

    Mathématicienne de formation, saurais-tu facilement expliquer comment ça marche ?

    Oh oui c’est très simple : lorsqu’on capture une image à une certaine résolution, les détails plus fins que la résolution de l’appareil optique ne sont pas visibles, mais existent et sont contenus dans une certaine mesure dans l’image enregistrée mais sont flous. Ce “brouillard” peut correspondre à un grand nombre de détails différents. Pour reconstruire l’image la plus fidèle possible à la réalité, on utilise des informations sur la nature de l’image et sur la façon dont le capteur a déformé l’image.

    Par exemple le phénomène de diffraction de la lumière implique qu’un spot lumineux (par exemple une molécule fluorescente) infiniment petit sera vu au travers de l’appareil optique comme une tâche lumineuse, la tâche de diffraction, représentée sur la figure suivante :

    © L’autrice de l’article

    Connaissant la physique d’acquisition et supposant qu’on sache que l’on image un spot lumineux (image d’intérêt cherchée), on est capable grâce à un modèle mathématiques de calculer ces données observées, soit la tâche de diffraction, à quelques faibles erreurs aléatoires près. Ainsi nous connaissons le modèle mathématique de formation des données observés :

    Données enregistrées = modèle physique d’acquisition x image d’intérêt + petites erreurs aléatoires.

    Il suffit alors d’inverser ce système pour trouver l’image d’intérêt, soit sur l’exemple précédent, le point lumineux.

    Mais c’est là que les difficultés commencent ! Même si le système est inversible mathématiquement, du fait des petites erreurs aléatoires inévitables lors de l’enregistrement des données, l’image calculée n’est pas la bonne, les petites erreurs invisibles à l’acquisition sont amplifiées !

    © L’autrice de l’article

     

     

     

    Image observée, image après inversion, image vraie cherchée

    Pour contrer ce phénomène, on introduit dans l’inversion des contraintes sur l’image que l’on cherche, par exemple des points lumineux, ou une image constante par morceaux comme sur l’exemple. Du fait de la variétés des images possibles, le problème devient vite compliqué. La résolution se fait alors par
    Meilleure image =
    Image proche des données recueillies + Vérifie les contraintes que l’on sait.

    Et on cherche l’image optimale, à la fois la plus proche de ces données, mais qui minimise aussi les contraintes données qui permettent de “régulariser” cette image. Évidemment on travaille dans des espaces mathématiques complexes (les images sont des objets multi-dimensionnels avec des propriétés fonctionnelles très sophistiquées) donc trouver la meilleure image dans ces espaces est un joli défi.

    Actuellement avec le développement de l’intelligence artificielle et la possibilité de développer facilement des méthodes d’apprentissage sur des réseaux profonds, les modèles d’images ne sont plus donnés par des modèles mathématiques mais sont appris sur de très nombreux exemples. Les recherches en reconstruction d’image allient les modèles mathématiques de la physique des capteurs pour définir le terme reliant les données observées à l’image cherchée, et les méthodes d’apprentissage sur de très nombreux exemples pour apprendre le modèle d’image.

    Résoudre ces problèmes inverses semble bien précieux … et bien utile.

    Oui « Il s’agit par exemple d’étudier l’intérieur du corps humain, d’une cellule ou d’un matériau à partir de signaux mesurés en surface. »

    Un exemple très illustratif est celui de l’imagerie médicale scanner bien connue de tous. A partir d’enregistrements en surface, on est capable de reconstruire une image de l’intérieur du corps humain sans le découper en tranche. Pour cela on envoie des rayons X à travers le corps, selon toutes les orientations autour du patient (voir Fig  ci-dessous gauche). On recueille les rayons atténués par les différents éléments composant le corps à l’endroit étudié (Fig. ci-dessous milieu).

    © L’autrice de l’article

     

    En inversant l’équation mathématique de formation des données et en ajoutant des contraintes sur l’image cherchée, on arrive à reconstruire l’image d’intérêt (Figure c-dessus, droite).

    Depuis une quinzaine d’années je travaille sur l’imagerie de microscopie par fluorescence, qui permet de voir les structures de la cellule et de son environnement, noyaux, tubulines, protéines… sur des cellules de culture vivantes, donc d’étudier leur fonctionnement, au-delà de leur forme. Mais de nombreuses structures sont plus petites que la limite de résolution, comme certains virus, filaments, ou autres. Nous avons développé un système de microscopie permettant de voir finement en profondeur, à une résolution d’une 30ène de nanomètres sur une profondeur de 400nm. Cela permet d’étudier les échanges de la cellule au niveau de sa membrane avec son environnement, lui-même fabriqué par la cellule. Il est ainsi possible de mettre en évidence l’intégrine, récepteur transmembranaire, reliant l’actine situé à l’intérieur de la cellule sous forme de filaments jouant un rôle dans le mouvement et l’adhésion cellulaire, et la fibronectine, tapis filamenteux sur laquelle la cellule adhère et se déplace [ref : E. Soubies, A. Radwanska, D.Grall, L. Blanc-Féraud, E. Van Obberghen-Schilling and S. Schaub « Nanometric axial resolution of  bronectin assembly units achieved with an efficient reconstruction approach for multi-angle-TIRF microscopy » Scientific Reports, Nature Publishing Group, Vol. 9, n 1, 2019.]

    © Figure issue de l’article cité dans le texte.

    Image de fluorescence de cellules endothéliales avec 4 marqueurs (a) : sous-unité α5 en vert dans le tissu intracellulaire, l’hétérodimère α5β1 en rouge en dehors de la cellule, l’actine est en magenta et les noyaux des cellules en cyan. Voir le schéma à droite pour la localisation spatiale de ces éléments, la bande bleue symbolisant la membrane de la cellule. Image (b) est la reconstruction de la hauteur, localisation des éléments α5 (intracellulaire) et α5β1 (extracellulaire).

    Actuellement nous cherchons à imager finement les microtubules d’une algue toxique Ostreopsis, qui sont des filaments de son cytosquelette impliqués dans les fonctions majeures telles que la division cellulaire ou le transport intracellulaire. La visualisation précise des microtubules, élément clé dans la division cellulaire, apportera aux biologistes de nouveaux éléments dans l’étude de la prolifération de cette algue toxique.

    Image confocale 3D d’Ostreopsis Ovata avec les microtubules (en blanc) et l’ADN (en magenta) (© LBDV).

    Les nouveaux systèmes de microscopie de fluorescence permettent d’imager en différentes couleurs jusqu’à neuf éléments différents dans une lame histologique. Ces données sont utiles par exemple dans l’étude des récidives de cancer tête et cous. A partir de ces données nous étudions les formes et interactions entre les structures, en particulier le développement de la fibronectine, élément de la matrice extra-cellulaire qui se développe en environnement cancéreux, ses différentes formes (filaments alignés, en filet, en agrégat), sa colocalisation avec les cellules cancéreuses, et les macrophages, sorte de globules blancs. Nous cherchons des biomarqueurs, autrement dit des caractéristiques à partir de ces images, qui vont permettre de prédire la réponse d’un patient à une immunothérapie. Ces traitements ne répondent positivement que dans 20% des cas. Pouvoir prédire la réponse du traitement permettrait d’améliorer grandement le traitement personnalisé des patients.

    Ces études doivent se faire en collaborations très proches entre chercheurs en traitement d’image, bio-physiciens spécialistes de l’acquisition des données images, biologistes et pathologistes pour l’interprétation et l’accès aux données patients. Chacun doit faire un pas dans la discipline de l’autre pour comprendre les enjeux, les contraintes, et construire ensemble des systèmes performants.