Parmi toutes les initiatives des organisations internationales en lien avec l’IA, la Commission européenne et de l’Organisation de Coopération et de Développement Économiques, s’associent avec Code.org pour proposer un référentiel d’apprentissage de l’IA et de son usage en éducation (learning with and about IA), ouvert et surtout en cours de construction participative, invitant chacune et chacun à donner son avis. Voyons cela. Benjamin Ninassi et Ikram Chraibi Kaadoud.
Nous sommes dans les années soixante-dix, mille huit cent soixante-dix. Et une monstruosité apparaît : des personnes se mettent à entendre des voix. Celles d’autres personnes … situées à des dizaines de kilomètres. Il y avait de quoi être terrorisé. On l’était. Maléfice ou magie ? Ce qui arrivait… c’étaient les premiers téléphones. Depuis, on a su expliquer à nos enfants comment cela peut marcher (en cours de physique) et quels usages technologiques (dans les cours éponymes) peuvent en être faits, y compris leurs limites (comme les “faux” appels).
Nous sommes dans les années soixante-dix, deux mille soixante-dix. Et les enfants de rigoler, qu’un siècle avant … s’appelait “intelligence artificielle” une bien vieille famille de mécanismes d’I.A., c’est-à-dire d’Inférence Algorithmique, dont le fonctionnement paraissait alors… soit magique, soit potentiellement maléfique. Mais c’était avant. Et, dans cette vision de l’avenir, nous avons toutes et tous appris à la fois (i) comment fonctionnent ces algorithmes et (ii) comment apprendre en s’aidant de tels algorithmes (learn with and about AI) en le faisant avec discernement et parcimonie.
À moins que, dans un futur bien plus dystopique, nous ayons uniquement permis aux personnes d’utiliser sans comprendre («pas besoin … ça marche tout seul »), ni maîtriser (« il suffit de quelques clics, c’est si facile ») ces outils. Ce monde (imaginaire ?! …) serait alors plus fracturé et terrible à vivre qu’un monde totalitaire soumis à l’ultra surveillance comme George Orwell le cauchemardait. Car si notre quotidien (accès à l’information, choix offerts quant à nos décisions), devenu numérique, était aux mains de quelques personnes (par exemple “les plus riches du monde”), c’est notre propre mental qui serait empoisonné, rendu vulnérable par l’ignorance et l’absence d’esprit critique. De plus, au rythme actuel du réchauffement climatique, en 2070 avec une terre à +3°, les enfants ne rigoleront probablement plus beaucoup.
Que cela ne soit pas.
Depuis quelques mois, des deux côtés de l’Atlantique, une équipe apporte une contribution collégiale pour que notre avenir se fasse pour le meilleur quant à ces IAs dont on ne cesse de parler.
Vous avez dit A.I.L.F. ? (AI* Learning Framework**)
(*) Disons “IA”, gardant à l’esprit que ce sont des outils (au pluriel) d’inférence algorithmique, ni moins, ni plus. (**) Un cadre pour l’apprentissage de ces outils que l’on nomme intelligence artificielle.
La maîtrise de l’IA, sa “littératie”, représente les connaissances techniques, les compétences durables et les bonnes attitudes (savoirs, savoir-faire et savoir être) qui permettent d’interagir avec l’IA, de créer avec de tels outils, de la gérer et de la concevoir, tout en évaluant de manière critique ses avantages, ses risques et ses implications éthiques.
C’est tout aussi indispensable que lire, écrire ou compter. Avec plusieurs points communs : – Ce sont des compétences universelles pour toutes et tous, mais avec de grandes variantes culturelles à respecter : tout le monde doit pouvoir apprendre l’IA et utiliser l’IA pour apprendre, et doit pouvoir devenir autonome par rapport à l’IA, mais dans le respect de sa diversité. – Ce sont des compétences interdisciplinaires, qui ont vocation à s’intégrer dans toutes les disciplines concernées, informatique, mathématiques, et technologies, ainsi que les sciences humaines et les formations pédagogiques transversales des élèves. Beaucoup de ces compétences (esprit critique, pensée informatique, résolution de problème) sont déjà partagées – tant mieux – l’apport de ce cadre est d’aider à la faire dans le contexte de l’IA. – Ce sont des compétences pérennes : on parle de savoirs, savoir-faire et savoir être fondamentaux, qui seront encore pertinents lors de l’évolution attendue des outils actuels (de même qu’en informatique on n’apprend pas “le Python” (ou un autre langage) mais les algorithmes et le codage de l’information, en s’appuyant sur tel ou tel langage formel qui peut être amené à changer avec le temps). – Parmi les compléments à apporter à la version actuelle, les impacts environnementaux de l’IA, déjà pris en compte, sont à renforcer : les impacts environnementaux directs de chaque apprentissage, chaque inférence, chaque investissement en faveur d’une solution basée sur l’IA sont déjà réels aujourd’hui, ainsi que les impacts environnementaux délétères indirects de beaucoup de cas d’usage.
Cette littératie cible principalement l’enseignement primaire et secondaire, mais est aussi ouverte au péri et extra scolaire, et à l’éducation familiale.
C’est ici : http://ailiteracyframework.org que nous avons tous les éléments de présentation (avec une version traduite de la page de présentation : https://tinyl.co/3OeN). Il y a même un “prompt” (l’instruction ou la question qui est posée de manière textuelle à un IA avec une interface langagière) pour interroger une IA à propos de cette littératie de l’IA.
Une première version, aboutie et soigneusement revue, est disponible, pour travailler sur des éléments précis. Pas d’erreur ! Elle a évidemment vocation à évoluer et être remodelée, voire questionnée en profondeur, en fonction des relectures et des retours.
Alors… à vous !
Au cours des prochains mois, nous sollicitons les commentaires des parties prenantes du monde entier. Pour participer, visitez www.teachai.org/ailiteracy/review. La version finale du cadre sera publiée en 2026, accompagnée d’exemples de maîtrise de l’IA dans les programmes, l’évaluation et la formation professionnelle.
Thierry Viéville, chercheur Inria.
Ok … 1,2,3 : comment me lancer dès maintenant ?
– Avec la formation ClassCode I.A.I. on se forme sans aucun prérequis technique aux bases de l’IA, pour piger comment ça marche:
Ressource gratuitement utilisable et réutilisable.
– Former les enseignants au contexte, l’usage, la pertinence et les défis de ressources éducatifs mobilisant de l’intelligence artificielle dans un cadre éducatif :
À l’heure ou transition écologique rime souvent avec transition numérique, qu’en est-il réellement des impacts environnementaux du numérique ? Comment dès à présent commencer à agir pour un numérique plus responsable et plus durable ?
Les IA génératives transforment toutes les disciplines, toutes les habitudes. Elles bouleversent en particulier l’éducation, peuvent parfois paniquer les enseignants. Une spécialiste de l’IA analyse objectivement le sujet. Michèle Sebag est chercheuse émérite au CNRS. Elle est depuis 2017 membre de l’Académie des technologies, et a été membre du Conseil national du numérique. Serge Abiteboul & Chloé Mercier.
Site perso de Michele Sebag
L’irruption de ChatGPT et des intelligences artificielles génératives dans le monde de l’éducation change la donne. Pour quels résultats ? Les prédictions faites sur les impacts d’un tel changement sont variables, allant d’un futur radieux à l’apocalypse.
Ce qui change.
Comme l’avait souligné Michel Serres (Petite Poucette, 2012), l’accès à l’information à travers Wikipédia ou Google permet à chacun·e de vérifier la complétude ou la cohérence des enseignements donnés ex cathedra. Cette capacité modifie la relation des étudiant·e·s au savoir des enseignant·e·s (confiance, mémorisation).
Mais les IA génératives, ChatGPT et ses émules − LLaMA de Meta, Alpaca de Stanford, Gemini de Google, DeepSeek − vont plus loin. Une de leurs fonctions est de savoir répondre à la plupart des questions posées pour évaluer un·e étudiant·e.
Avec ChatGPT, l’étudiant·e dispose ainsi d’un simulateur énergivore de Pic de la Mirandole, ayant réponse à tout − quoique parfois privé de discernement. Chaque étudiant·e se trouve ainsi dans la chambre chinoise1, disposant d’un programme permettant de répondre aux questions, et non nécessairement de la connaissance nécessaire pour répondre aux questions.
L’enseignant·e est en face d’un double dilemme : i) à quoi sert l’enseignement si le fait de bien savoir se servir d’un ChatGPT donne les mêmes réponses ? ii) comment faire la différence entre quelqu’un qui sait, et quelqu’un qui sait se servir d’un ChatGPT ? La donne change ainsi en termes de transmission et d’évaluation des connaissances.
Contre : Coûts matériels et immatériels
Les opposants à l’ascension des ChatGPT dans le monde de l’éducation2 se fondent tout d’abord sur le fait que leur consommation en énergie n’est pas soutenable. En second lieu, ces systèmes ne sont pas fiables (”parfois privé de discernement” : les hallucinations en sont un exemple visible, mais il y a aussi toute l’information invisibilisée par suite des biais de corpus ou d’entrainement). En troisième lieu, leur impact sur la cognition est possible, voire probable.
Je m’abstiendrai de discuter les aspects énergétiques. Pour fixer les idées3, la consommation de ChatGPT (entrainement et usage pendant l’année 2023, avait été évaluée à 15 TWh (consommation énergétique de la France pendant un an : 50 TWh). Ces chiffres sont à prendre avec des correctifs de plusieurs ordres de grandeur : d’une part, chacun·e veut avoir son LLM (facteur ×100, ×1000) ; d’autre part, la consommation d’entrainement et d’usage tend à décroitre massivement pour obtenir les mêmes fonctionnalités (facteur ×1/100, ×1/1000) − ce gain étant naturellement annulé par l’effet rebond, et l’apparition de nouvelles fonctionnalités.
Je souhaite toutefois aller au-delà du fait qu’il vaudrait mieux limiter l’usage des ChatGPT pour des considérations énergétiques (comme les avions, les voitures, les ascenseurs, les cimenteries – continuer la liste). En pratique la pénétration des ChatGPT dans la société augmente.
Je m’abstiendrai aussi de discuter le manque de fiabilité. La liste des bévues de ChatGPT et al. est infinie, mais trompeuse. Le système est chaque jour moins limité que la veille ; c’est un système en interaction avec nous qui le concevons ou l’utilisons, et le système apprend de ces interactions ; la différence entre la version de novembre 2022 et la version actuelle de ChatGPT est comparée à celle qui sépare un singe d’un être humain. Nous reviendrons sur la question de savoir qui possède les données et qui contrôle le modèle.
Le troisième axe d’objection est que l’usage de ChatGPT pourrait priver l’étudiant·ed’une expérience essentielle d’apprentissage en autonomie, mais aussi, et plus gravement, de la confrontation aux sources authentiques des savoirs. Je reviendrai à cette objection centrale dans la suite.
Pour : Une éducation faisant mieux et/ou différemment avec l’IA
Plusieurs objectifs sont envisagés dans le rapport du Sénat sur IA et Éducation4. Un objectif clair consiste à utiliser les ChatGPT pour faire mieux ce qu’on fait déjà, permettant ”de suivre une classe de 25 comme une classe de 10”5. Les ChatGPT pourraient s’adapter aux élèves finement, détectant et prenant en compte les trajets cognitifs et les spécificités individuelles, en particulier les risques ou les troubles. Ils peuvent assister les professeurs, e.g. à générer des examens ou des quizz à partir de leur matériel pédagogique6 .
Ici, un danger et une opportunité sont bien identifiés. D’une part, la qualité des résultats dépend de celle du matériel pédagogique fourni. D’autre part, les dispositions d’accès à ChatGPT incluent la mise à disposition d’OpenAI des sources fournies. Il est donc hautement recommandé de disposer d’un LLM souverain pour l’enseignement7 . On pourrait imaginer un ”commun” informatique, la création d’un ChatPedia qui serait à ChatGPT ce que Wikipédia est à une encyclopédie, avec propriété collective et traçable des contributions. Voir dans ce sens le projet européen Intelligence artificielle pour et par les enseignants (AI4T)8.
D’autres objectifs, en cours d’étude, concernent le développement de fonctionnalités nouvelles (faire différemment, par exemple en proposant un tutorat personnalisé).
La cognition des enseignant·e·s
Un point épineux concerne la formation des enseignant·e·s à des usages éclairés des IA génératives. Il semble impossible, en effet, de former les élèves/étudiant·e·s à de tels usages éclairés si les enseignant·e·s n’ont pas été eux-mêmes formés. Cette logique se heurte toutefois au contexte : une fraction des enseignant·e·s avouent avec résignation ou indifférence leur éloignement total des mathématiques ; comment les attirer vers une formation formelle et roborative, pénétrant le quoi et le comment des technologies telles ChatGPT ?
La formation des formateurs a aussi un impact sur la hiérarchie des institutions et des savoirs. Bref, elle génère des résistances.
Comment avancer, dans un contexte où les perceptions de haut niveau (il est bon/nécessaire de former à l’IA) ne recoupent pas les perceptions au niveau des acteurs (l’IA est : i) incompétente ; ii) voleuse de sens/travail/valeur) ?
La cognition des apprenant·e·s
Selon l’Unesco les IAG pourraient priver les apprenant·e·s de la possibilité de développer leurs capacités cognitives et leurs compétences sociales par l’observation du monde réel, par des pratiques empiriques pouvant être des expériences, des discussions avec d’autres humains, ou par un raisonnement logique indépendant.
Ce danger peut être analysé dans le cadre du Maitre ignorant de Jacques Rancière (1987), distinguant l’enseignement ”qui explique” et celui ”qui émancipe”. Dans le premier cas, la base de discussion est que l’un·e sait et l’autre apprend ; le message implicite est que le savoir s’obtient d’un maitre.
Dans le second cas, l’objectif est non d’enseigner le savoir, mais d’établir que l’autre est capable d’apprendre tout ce qu’iel veut, au moyen de principes d’utilisation de notre propre intelligence. Il s’agit donc bien de réaliser nos capacités d’entendement autonomes.
Le danger attendu des IAG selon l’Unesco concernerait ainsi les capacités d’entendement autonomes des apprenants, donc, dans le cadre de l’enseignement ”qui émancipe”.
Une expérience
Cette expérience a été réalisée par Louis Bachaud et ses étudiant·e·s, à l’Université de Lille en 2024. L’objectif était de faire interagir un professeur, des étudiant·e·s, et un ChatGPT, de telle sorte qu’iels en sortent au bout de 2 heures, satisfaits, intrigués, motivés, ayant appris quelque chose, sans que le processus ne soit fondé sur l’identification de boucs émissaires (en particulier, ni le professeur, ni aucun élève).
Dans le premier essai, le professeur ayant posé une question générale, pertinente pour le cours (Quel est l’impact de Deezer sur l’audience d’un·eartiste?), la classe s’est divisée en petits groupes, dont chacun·e a écrit une requête et obtenu une réponse.
Les requêtes et les réponses sont mises dans un pot commun ; chacun·e cherche de quelle requête procède une réponse, appréhendant graduellement et empiriquement ChatGPT comme un système d’entrée sortie. L’intérêt de tels essais est de permettre à chacun·e, y compris le professeur, de se servir du collectif pour comprendre rapidement comment se servir d’un nouvel outil, quels en sont les usages, et comment la qualité des sorties dépend de celle des demandes. En somme, tous se perfectionnent dans l’art du prompting, art fort obscur, fort demandé et qui fait présentement la fortune des cabinets de conseil en IA génératives.
Les essais suivants ont raffiné ce schéma, en situant d’où parle la requête : réponds à cette question en sachant que je suis une musicienne de 30 ans − un DJ de 18 ans − un professeur de musique − une adolescente de 13 ans. Ces essais ont un aspect ludique (par exemple, la même commande précédée de je suis une fille de 18 ans ou je suis une femme de 18 ans ne produit pas la même réponse) conduisant à une discussion intéressante du modèle et des archétypes sous-jacents (reflétant essentiellement la culture US en 2024).
En résumé, ce type d’expérience réalise l’enseignement qui émancipe, avec un retour globalement positif des étudiant·e·s sur le savoir appris et le recul nécessaire.
Recommandations proposées
Cette première expérience va dans le sens des axes 1 et 2 du rapport cité du Sénat, concernant respectivement l’accompagnement des acteurs, et la formation d’une culture citoyenne de l’IA. D’autres expériences à l’initiative des enseignant·e·s, et leurs retours, suivant la méthodologie proposée, ou d’autres méthodologies, permettront d’affiner les savoirs qui peuvent être acquis, et comment.
Pour l’expérience considérée, les acquis obtenus reposent sur le développement de deux compétences. La première consiste, au niveau individuel, à savoir faire varier la formulation de ses demandes et sa position (d’où parle-t-on). La seconde, au niveau collectif, consiste à savoir observer les pratiques des autres et à en discuter.
La compétence exploratoire − savoir appréhender un sujet selon des points de vue différents − semble une capacité utile toutes choses égales par ailleurs. La compétence collective est peut-être plus intéressante encore ; outre l’intérêt des compétences sociales acquises, l’interaction permet de faire jeu égal avec ChatGPT.
Nous défendrons en effet la thèse selon laquelle l’entendement d’une IA ne doit pas être comparé à celui d’un être humain (ma fille n’a pas eu besoin de millions d’images de chats et de chiens pour apprendre à distinguer un chat d’un chien…) mais à celui d’un ensemble d’humains. Le fait que les IAs ne doivent pas être appréhendées au niveau de l’individu a également été souligné par Geoffrey Hinton9.
Les interactions d’un groupe humain, discutant entre eux des réponses obtenues et des bonnes questions à poser à ChatGPT, peuvent contribuer au développement des capacités cognitives et des compétences sociales, dans un contexte vivifiant.
Avertissement : l’expérience doit être suivie par les étudiant·e·s ; indépendamment de son intérêt en soi, il convient donc qu’elle soit notée.
1 Mind, Language and Society, Searle, 1998. Supposons qu’une personne glisse un message écrit en chinois sous la porte d’une chambre. Supposons dans la chambre une personne disposant d’un programme, spécifiant comment écrire une réponse en chinois (algorithme de dessin des caractères) en fonction d’un algorithme de lecture du dessin du message initial. Ce programme permet à la personne de la chambre de répondre en chinois au message chinois reçu. La personne hors de la chambre, recevant une réponse à son message, en conclut que la personne dans la chambre sait parler chinois.
2 Voir en particulier la tribune de Serge Pouts-Lajus dans le Monde de l’Éducation du 26 novembre 2024.
9G. Hinton note : Deux IA peuvent se transmettre instantanément les modèles appris par l’une ou l’autre [si les IA disposent d’une même représentation]. Cependant, la transmission des connaissances relatives à (e.g. la mécanique quantique) des enseignant·e·s vers les apprenant·e·s peut prendre beaucoup de temps et ne présente pas de garanties.
Nous avons la profonde tristesse de vous annoncer le décès de Jean-Pierre Archambault, Président de l’EPI, le 23 février 2025.
Ancien enseignant et professeur agrégé de mathématiques, il a créé puis coordonné pendant de nombreuses années le pôle de compétences « logiciels libres » du SCÉRÉN, jouant un rôle de premier plan dans la légitimation et le développement du libre dans le système éducatif.
Dans les années 80 et 90, il a participé au pilotage du développement des Technologies de l’Information et de la Communication (TIC) dans l’académie de Créteil : organisation du volet formation du plan Informatique Pour Tous, mise en œuvre de la télématique scolaire et des réseaux locaux, expérimentation d’internet, formation des enseignants.
En tant que président de l’association Enseignement Public et informatique (EPI) il a été un artisan actif de l’introduction d’une discipline informatique au lycée et au collège, après une sensibilisation à l’école primaire. Ainsi, il a été membre du groupe de travail de l’Académie des sciences qui a préparé le rapport « L’enseignement de l’informatique en France – Il est urgent de ne plus attendre » adopté par l’académie en mai 2013.
Il a été pendant plusieurs années membre du Conseil d’Administration de la Société Informatique de France (SIF) et coresponsable du groupe ITIC-EPI-SIF.
Il était convaincu que l’enseignement de l’informatique et l’utilisation de l’informatique dans les disciplines et activités sont deux démarches complémentaires. Ses éditoriaux d’EpiNet, qu’il rédigeait avec soin, étaient sources de réflexion et appréciés de toutes et de tous.
Toutes ces actions militantes signifiaient des relations nouées avec les partenaires (collectivités territoriales, éditeurs, entreprises, parents d’élèves, associations d’enseignants, syndicats …) et les responsables du système éducatif. Elles sont toujours allées de pair avec une activité de réflexion, une veille et prospective sur les usages, les statuts et les enjeux pédagogiques et éducatifs de l’informatique et des technologies de l’information et de la communication. Cela a amené Jean-Pierre à organiser et à intervenir dans des colloques, forums, salons et séminaires. Il est l’auteur de nombreux articles dont la plupart sont sur les sites de l’EPI et d’edutice.archives-ouvertes.
Nous garderons un souvenir inoubliable de ces longues années passées ensemble. Jean-Pierre fut pour nous un excellent collègue et un ami.
Un article de binaire parlait déjà de l’école 42 en 2014. On y trouvait certains aspects de la pédagogie intéressants. Cependant, nous avions été surpris par l’absence abyssale de considérations pour la fracture sociale et la question du genre. Carolina Somarriba Pérez-Desoy, qui a acquis ses galons d’informaticienne dans cette école, nous parle des changements pour les femmes. Serge Abiteboul et Chloé Mercier.
Carolina Somarriba Pérez-Desoy
L’école 42 était la nouvelle réponse (universelle) de ma mère à mes questionnements professionnels.
Cet établissement créé par Xavier Niel en 2013, faisait souvent les gros titres en raison de sa pédagogie novatrice et de sa gratuité. Cette perspective ne m’enchantait guère : reprendre à zéro des études dans une école qui ne me fournirait pas forcément de diplôme, alors que mes six années d’études dont deux masters en urbanisme ne me suffisaient apparemment pas à trouver un travail ? Pourtant, si je n’arrivais pas à m’imaginer repartir pour des études dans un cadre strict comme celui, par exemple, de Sciences Po, je pouvais envisager de le faire en toute autonomie dans le cadre très différent d’une école singulière. L’alternative était de continuer à enchaîner des entretiens d’embauche déprimants.
Une salle de travail, appelée « cluster » à 42.
Une rapide recherche internet m’avait révélé l’existence d’une immersion d’une semaine (appelée « piscine Découverte ») qui devait nous apprendre les bases de la programmation web. Elle était destinée aussi bien aux étudiants de 42 qu’aux femmes âgées d’au moins 16 ans, désireuses de tester la pédagogie de l’école. Cette semaine allait déterminer si je me sentais capable de m’intégrer à des jeunes geeks problématiques sur les questions de sexisme. C’était l’image peu flatteuse que je me faisais des étudiants en tech. Certains scandales liés à cette école aidaient à confirmer ces craintes. Entre autres soucis, des listes de classement du physique des étudiantes, une discrimination assumée et des caméras de vidéosurveillance en libre-accès permettant un stalking illimité. Pour moi, l’école 42 paraissait le paradis des harceleurs.
Je n’avais aucun bagage technique en informatique. Mais tel que le mentionnait l’école, la détermination et l’enthousiasme devaient suffire à combler mes lacunes.
La découverte de l’école – une semaine « girl power »
Une bande d’adolescents prépubères aux cheveux gras et aux habits (pyjamas ?) mal lavés, jetant des regards libidineux aux deux seules femmes de l’école. C’est ainsi que j’imaginais mon inconfortable entrée dans l’établissement. La réalité ? Des rangées entières de femmes venues découvrir l’école et des étudiants trop accaparés par leurs projets pour remarquer notre arrivée. Les étudiants, appelés « studs » (pour « students »), participant à cette immersion furent d’une grande assistance et nous encouragèrent toutes à tenter d’intégrer l’école. Malgré cela, la majorité des femmes externes abandonnèrent au cours des deux premiers jours, sentant leur retard se creuser d’heure en heure.
Il faut dire que pour réussir à suivre (ne serait-ce que de loin) le rythme des studs, il fallait faire des horaires intensifs, et ne pas se laisser abattre par les échecs répétés. Pour autant, celles qui restèrent jusqu’au bout se présentèrent toutes à l’examen d’entrée.
L’examen d’entrée – un mois de « piscine » décourageant
L’examen d’entrée, la « piscine », consiste en un mois pendant lequel chaque candidat, appelé « piscineux » doit valider un maximum d’examens et exercices, appelés « days ». Le tout en autonomie, en étant corrigé par ses pairs ainsi que par un algorithme appelé Moulinette. La plupart des scandales liés à l’école ayant fait les grands titres avaient eu lieu pendant cette épreuve. Chose positive cependant, il semblait qu’un changement de direction dans les dernières années avait su rendre l’ambiance moins hostile et plus inclusive, notamment pour les femmes.
La salle de pause, reconvertie en dortoir les soirs de piscine.
La réalité me parut plus contrastée quand je passai ma piscine en juillet 2022. S’il était bien vrai que beaucoup de progrès avaient été faits depuis le changement de direction, de nombreux comportements problématiques persistaient. Par exemple, il était courant d’entendre dire aux femmes qu’elles seraient favorisées au moment de la sélection et qu’elles pouvaient donc se permettre de maintenir leur niveau minable en programmation.
Aussi, certaines piscineuses subissaient des pressions en tant que correctrices de la part de groupes d’hommes pour les forcer à valider leurs exercices. Et pendant qu’elles se faisaient corriger leurs travaux, les femmes étaient souvent méprisées par des correcteurs voulant montrer leur présumée supériorité technique. Étant donné l’accès difficile au « bocal », nom donné aux bureaux de l’administration, beaucoup de commentaires dévalorisants et de comportements désobligeants étaient tolérés par les piscineuses —ceux-ci étant à la marge de ce qui pouvait être perçu comme suffisamment grave pour se sentir légitimes à les reporter. Cet ensemble pesait lourd sur le moral et poussait beaucoup de femmes à abandonner.
Une grande partie de ces commentaires et comportements sexistes découlent d’une différence de niveau en informatique entre hommes et femmes. Pourtant, il est connu de tous les piscineux que le critère fondamental de sélection est le delta de progression de chacun plutôt que le niveau final atteint. Ainsi, les candidats sans connaissances préalables ne sont pas désavantagés. Malgré cela, beaucoup de femmes se sentent progresser plus lentement que le reste de leurs camarades masculins et se demandent si elles ont leur place dans l’école. En effet, ce sont quasi-exclusivement des hommes qui figurent dans le top 10 du classement de chaque piscine, qui ne prend en compte que le niveau atteint.
Au fil du temps, afin de limiter le nombre d’abandons féminins et de réduire les différences de niveau homme/femme, l’école avait mis en place plusieurs mesures.
Pour commencer, l’école prit l’initiative d’instaurer un « Tea Time », une réunion hebdomadaire de trois heures animées par la directrice de l’école et d’autres membres féminins du staff. Celle-ci devait remotiver les femmes qui hésiteraient à abandonner la piscine. Beaucoup y ont trouvé des camarades avec qui travailler, plus proches de leur niveau et plus réceptives aux difficultés rencontrées. Personnellement, je n’ai assisté qu’à une seule d’entre elles, car je l’ai trouvée profondément déprimante. Trois heures de témoignages négatifs, de dénonciations de comportements inappropriés, ainsi que de nombreux craquages psychologiques en direct, c’était trop pour moi. Les retours de cette initiative ont néanmoins été positifs, beaucoup de femmes ayant trouvé le soutien émotionnel nécessaire pour se motiver à terminer la piscine. Ces séances avaient également aidé à se défaire d’éventuels syndromes de l’imposteur, et donc à se faire une place légitime dans l’école. Ces réunions ont aussi révélé des témoignages positifs sur des hommes prenant la défense de leurs collègues féminines face à des comportements déplacés.
Ensuite, afin de favoriser l’entraide, et ainsi pallier les différences de niveau, l’école avait instauré le Voxotron, un système de votes hebdomadaire dans lequel tout piscineux pouvait voter pour les dix camarades l’ayant le plus aidé dans la semaine. Un candidat ne recevant aucun vote, même ayant atteint un niveau un élevé, ne serait pas sélectionné pour intégrer l’école. Cela devait forcer tous les candidats à aider leur prochain, et donc notamment à aider leurs camarades féminines, dont le vote était important.
Malheureusement, d’autres initiatives dans cette même veine se retrouvaient contournées. C’était notamment le cas du système d’appariement des groupes de « rush », des projets communs ayant lieu pendant le weekend. Les meilleurs piscineux, généralement des hommes, préféraient parfois faire tout le travail seuls plutôt que de collaborer avec leurs camarades moins expérimentés, cela afin d’avancer plus vite. Cette attitude frustrait tant les hommes que les femmes en difficulté, qui auraient voulu profiter de cette opportunité pour progresser. Pour autant, cela semblait davantage affecter les femmes, plus enclines à travailler en groupe et qui semblaient plus souvent dérangées à l’idée de présenter un projet auquel elles n’avaient pas contribué. Cependant, lorsque les membres travaillaient en groupe, ces séances de rush étaient des moments de rencontre importants. Ils permettaient notamment de former des groupes de travail pour la suite ainsi que de se faire des connaissances à qui demander de l’aide. En bref, les rush étaient des moments généralement très appréciés et édifiants.
Le cursus – deux années plus équilibrées
Avec la baisse des inégalités de niveau à la fin de la piscine, s’étaient également réduits les comportements sexistes. De plus, j’avais été agréablement surprise de voir que les réclamations faites pendant la piscine avaient été prises très au sérieux par l’administration, qui avait refusé les candidats les plus problématiques. Même si certains comportements sexistes persistaient, ils étaient beaucoup moins importants. La piscine ayant permis aux femmes de rattraper une grande partie de leur retard technique et leur ayant permis de s’affirmer en ayant gagné en légitimité. Pendant le cursus, les femmes étaient loin d’être invisibles dans les « clusters » (salles de travail). Les amitiés et groupes de travail homme/femme étaient la norme.
En 2024, alors que je viens de terminer mon cursus, les femmes ont obtenu un taux record de 46% de participation aux piscines de février et mars, et représentent environ 25% des étudiants. Ce nombre de femmes grandissant et avec une administration sensible et volontaire à atteindre la parité, être une femme à 42 est de plus en plus agréable au fil des années. Personnellement, j’ai mal été orientée dans mes choix d’études, car on partait du principe que je serais plus épanouie dans un milieu plus mixte et moins technique. Je me suis donc dirigée tard vers l’informatique, à mon grand regret.
Cette école est très dure mais, si on est motivé et curieux, c’est aussi un lieu de rencontres incroyable. J’encourage tout le monde à venir essayer, en particulier les femmes, pour faire en sorte que l’informatique ne soit plus un secteur majoritairement masculin.
Pour comprendre comment améliorer notre sobriété numérique face au défi de préservation de la planète nous avons besoin de faits et d’information. Chiara Giraudo, Ingénieure Pédagogique au CNRS et Jean-Marc Pierson, Professeur en informatique et Directeur de l’IRIT, dans le cadre du programme Alt Impact, partagent ici, dans le cadre du programme Alt Impact [0] partage ici un état des lieux des diplômes et des formations délivrés dans l’ESR sur la sobriété numérique, afin de formaliser une cartographie mettant en lumière les éventuelles pénuries de diplômes selon les territoires, disciplines, et années d’étude. L’analyse de cette cartographie permet de définir une stratégie d’action de formation sur la thématique de la sobriété numérique dans l’ESR. Bienvenue aux futurs étudiant·e·s, et aux futurs employeur·e·s. Et c’est aussi un bel exemple d’étude scientifique partagée de manière citoyenne avec le large public. Benjamin Ninassi et Thierry Viéville.
État des lieux et perspectives – mai 2024
Face aux enjeux environnementaux et sociaux, l’impact du numérique suscite une préoccupation croissante. Annuellement, l’impact environnemental du numérique est estimé à 2,5% de l’empreinte carbone de la France et correspond à près de 10% de sa consommation électrique[1]. Cet article vise à fournir des éléments de réflexion et des données concrètes pour mieux appréhender l’enjeu de la sobriété numérique dans l’enseignement supérieur et la recherche (ESR), un secteur clé dans la transition écologique. Ainsi, pour l’année universitaire 2023-2024, 2,92 millions d’étudiant.e.s se sont inscrit.e.s à un cursus de l’enseignement supérieur, soit près de 10% de la population active en France.
Méthode
Nous avons recensé les diplômes de l’enseignement supérieur via la base de données de France Compétences. Dans cette base de données, les diplômes et certifications sont classés en deux catégories : les fiches RNCP (Répertoire National des Certifications Professionnelles), qui valident la maîtrise de compétences spécifiques à un emploi-type, et les fiches RS (Répertoire Spécifique), qui concernent les habilitations et certifications attestant de compétences transversales. Nous avons focalisé notre recherche sur les fiches RNCP, afin de repérer la présence d’enseignements sur la sobriété numérique dans les certifications menant à un métier.
Il est important de préciser que les fiches RNCP sont associées à des diplômes et certifications. Autrement dit, ce sont des documents répertoriant les compétences et activités acquises par les titulaires de cette certification. Les formations, quant à elles, sont des programmes organisés dans le temps et pour un certain nombre d’étudiant.es. Les fiches RNCP sont composées d’un résumé de la certification, dans lequel les activités visées ainsi que les compétences attestées et compétences transversales sont explicitement citées. C’est spécifiquement dans ce résumé que nous avons recherché la présence de mots-clés en rapport avec la sobriété numérique. Pour concevoir cette liste de mots-clés, nous nous sommes appuyés sur le Formacode[2], ainsi que sur les sites de l’Onisep, de France Compétences, de France Travail, et sur la page Wikipédia dédiée à l’informatique durable.
Résultats
La base de données de l’ensemble des résultats est en consultation et téléchargement libre. Au 25 mai 2024, 108 fiches RNCP actives contiennent un mot-clé lié à la sobriété numérique. En recherchant chaque fiche sur le site de l’ONISEP, nous avons identifié un total de 531 formations associées, réparties en France Métropolitaine et dans les Départements et Régions d’Outre-Mer.
Répartition des diplômes et formations sur la sobriété numérique dans l’ESR par spécialité de formation(basé sur la NSF de l’INSEE)
Nombre dediplômes Nombre de formations
Nous observons que les disciplines offrant le plus grand nombre de diplômes et de formations en sobriété numérique sont l’informatique et l’industrie. En revanche, les cursus en droit, formation, et sciences humaines sont peu nombreux à intégrer des compétences liées à la sobriété numérique. Par exemple, le Master « Droit de l’Environnement » de l’Université de Montpellier mentionne dans sa fiche RNCP la compétence « Respecter les principes d’éthique, de déontologie et de responsabilité environnementale ». Cependant, la notion de sobriété numérique n’est pas explicitement mentionnée.
Nombre de diplômes et de formations sur la sobriété numérique, par niveau et titre du diplôme
Il apparaît ici que les enseignements sur la sobriété numérique se concentrent principalement sur les niveaux de diplôme 6 (Licences et BUT) et 7 (Masters et diplômes d’Ingénieurs). Sur un total de 108 diplômes liés à la sobriété numérique et délivrés en France, plus de 68% correspondent au niveau Master.
Répartition des effectifs étudiant.e.s et nombre de formations en sobriété numérique par Région, (2022-2023)(Carte interactive)
Départements et Régions d’outre-mer
Département
Nombre de formations
Guadeloupe
1
La Réunion
5
Mayotte
1
Nouvelle-Calédonie
3
Indication de lecture : La Région Île-de-France accueille 27% de l’effectif total de la population étudiante. On y recense 105 formations sur la sobriété numérique.
Les Régions recensant le plus de formations en lien avec la sobriété numérique sont l’Île de France (105), l’Auvergne-Rhône-Alpes(84), suivis par l’Occitanie (53) et les Hauts-de-France (51). En comparant la répartition des étudiant.e.s et la répartition des formations par Région, il semble que la distribution des formations sur le territoire soit plutôt équilibrée.
Nombre de formations sur la sobriété numérique dans l’ESR, par ville(Carte interactive)
Départements et Régions d’outre-mer
Nom de Département et n°
Ville
Nb. de formations
Guadeloupe
971
Pointe-à-Pître
1
La Réunion
974
Le Port
1
974
Le Tampon
1
974
Saint-Joseph
1
974
Saint-Pierre
2
Mayotte
976
Mamoudzou
1
Nouvelle-Calédonie
988
Nouméa
3
Les villes avec le plus grand nombre de formations sur la sobriété numérique sont Paris (35), Lyon (27 formations), Bordeaux (17), Lille (17), et Montpellier (15).
Nuage de mots : Nombre de diplômes par mots-clés
Le mot-clé dont l’occurrence est la plus élevée est « Ecoconception » (41 occurrences). Ensuite, l’expression « Responsabilité Sociétale des Entreprises » est apparue 23 fois, suivie de « Numérique Responsable » (18 occurrences) et de « Sobriété Numérique » (15 occurrences).
Discussion : Méthode de recensement
La méthode de recensement utilisée présente plusieurs limites. Tout d’abord, la liste des diplômes et formations n’est pas exhaustive : plusieurs mots-clés sont utilisés de façon disparate pour parler de sujets similaires. D’autre part, de nombreuses données sont manquantes : la date de création du diplôme et des formations, les volumes horaires rattachés aux enseignements, les intitulés d’Unité d’Enseignement et thématiques précises enseignées, le coût et accès à la formation, la qualité du contenu de formation et les méthodes pédagogiques mobilisées, le nom et statut des intervenant.es, les effectifs étudiant.e.s, le taux de réussite au diplôme, le taux d’insertion professionnelle des diplômé.es, ainsi que la satisfaction des étudiant.es. Malheureusement, il n’existe pas, à notre connaissance, de base de données libre d’accèsqui rassemble toutes ces informations.
Dans le cadre du Programme Alt-Impact, nous collaborons avec la Grande École du Numérique. Cet organisme a développé un outil de référencement automatique des formations, GEN_SCAN, qui opère en croisant différentes bases de données ; certaines en libre accès, et d’autres payantes. En configurant cet outil selon nos besoins, nous pourrions éclaircir de nombreux aspects de notre recherche.
Discussion : Proposition d’une stratégie de déploiement de la formation
Sensibiliser et former les enseignant.es-chercheurs
Afin d’atteindre un large éventail de disciplines universitaires à tous les niveaux de diplômes, nous proposons de sensibiliser et former les enseignant·e·s-chercheur·e·s de toutes les disciplines à la sobriété numérique. L’objectif est qu’ils puissent promouvoir de manière pérenne cette approche au sein de leurs établissements. Nous recommandons d’identifier et de former, parmi le corps enseignant, un.e référent.e en Sobriété Numérique au sein chaque université française. Cette personne référente aura pour mission de diffuser cette démarche auprès de ses collègues. Enfin, pour équiper un maximum d’enseignant·e·s-chercheur·e·s, nous suggérons de créer et mettre à disposition des outils pédagogiques, tels que des capsules vidéo. Ces outils se concentreront sur deux aspects : les connaissances en sobriété numérique et les méthodes d’enseignement et d’accompagnement au changement appliquées à cette thématique.
Diplôme et référentiel
Nous avons concentré notre recherche sur les certifications inscrites au RNCP. Explorer la possibilité créerun titre RS sur la sobriété numérique permettrait de définir et d’instaurer un socle commun de compétences à maîtriser, pour chaque étudiant.e de l’Enseignement Supérieur. Dans le cadre du programme Alt-Impact, nous élaborons avec notre partenaire Pix un référentiel d’évaluation en sobriété numérique. Ce livrable servira de base afin de construire un référentiel complet d’activité, de compétences et d’évaluation, avec pour objectif final de déposer un futur titre au Répertoire Spécifique de France Compétences relatif à la sobriété numérique. De plus, ce dispositif certifiant nous permettra d’obtenir des statistiques pertinentes quant à la notation, au suivi et à la validation de ce référentiel.
Offre de formation uniformisée pour les étudiant.es
L’élaboration d’une offre de formation basée sur le référentiel évoqué précédemment permettrait de remédier à l’absence d’uniformité de diplômes et formation sur la Sobriété Numérique au sein l’enseignement supérieur, en termes d’utilisation de mots-clés, ainsi que de répartition dans les disciplines, territoires, et niveau de diplôme, comme nous l’avons constaté lors de notre étude. Ainsi, en termes de stratégie de déploiement de formation, nous préconisons que la validation du futur référentiel d’évaluation conçu par Pix soit largement intégrée aux cursus des Sciences Humaines et Sociales, du Droit, de l’Économie et de la Santé. En effet, l’effectif dans ces cursus représente près de 56% de l’ensemble des disciplines Universitaires, et elles disposent de peu d’offres de formations en sobriété numérique (12% des formations)
Communication et valorisation
En parallèle, afin de favoriser la visibilité de l’offre de formation et les opportunités professionnelles en lien avec la sobriété numérique, nous proposons de créer un podcast. Ce podcast mettra en lumière les diverses formations en donnant la parole aux étudiant.es, pour qu’ils puissent partager leur expérience d’apprenant.e. Les diplômé.e.s pourront également évoquer leur retour d’expérience et la façon dont ils appliquent la sobriété numérique en milieu professionnel. Enfin, les enseignant.es-chercheur.es et les membres des SUIO (Services Universitaires d’Information et d’Orientation) auront l’occasion de présenter brièvement les formations et expliquer leurs liens et objectifs.
Conclusion
Le présent état des lieux de l’offre de formations et de diplômes en sobriété numérique dans l’enseignement supérieur retranscrit une répartition inégale des formations à travers les disciplines et cursus, ainsi qu’une visibilité limitée des dispositifs de formation, de leur contenu et du volume horaire dédié à cette thématique. En ce qui concerne la méthode de recensement des formations, les perspectives mentionnées précédemment, telle que l’utilisation de l’outil GEN_SCAN, permettraient de clarifier, préciser et affiner l’offre de formation.
Concernant la stratégie identifiée de déploiement de la Sobriété Numérique, le déploiement de la formation de « référent.es sobriété numérique » dans chaque établissement, accompagnée de la mise à disposition d’outils pédagogiques pour les enseignant.es-chercheur.es, permettraient de renforcer la portée de cette thématique au sein de l’Enseignement Supérieur. De plus, la conception d’un référentiel d’évaluation en partenariat avec Pix, suivie de l’élaboration d’une formation et d’une certification inscrite au Répertoire Spécifique permettrait d’atteindre un large nombre d’étudiant.es.
Ces initiatives sont à mettre en perspective avec une offre de formation accessible et en libre accès pour tous les étudiant.es et futur.e.s professionnel.les. Enfin, il est essentiel d’intégrer la sobriété numérique dans les débats citoyens, afin d’ouvrir un espace de réflexion collective sur les enjeux environnementaux, sociaux, et sanitaires du numérique, et de favoriser une prise de conscience à l’échelle sociétale.
Chiara Giraudo, Ingénieure Pédagogique au CNRS, dans le cadre du programme Alt Impact
[0] Cet article a été rédigé dans le cadre du Programme Alt Impact, co-porté par l’ADEME, le CNRS et l’INRIA. Ce programme national a pour objectif de sensibiliser et former à la sobriété numérique, de déployer une base de données publique, et de développer la sobriété numérique dans les territoires.
[1]NB : sont exclus de ce calcul la part de fabrication, de transport, d’usage et de traitement de fin de vie des réseaux et serveurs utilisés par les comme outil et domaine de recherche, contributions à la sobriété numériqueFrançais mais situés géographiquement en dehors du pays
[2] Outil d’indexation de l’offre de formation et de certification
Le numérique est omniprésent dans notre quotidien et le déploiement indifférencié de ses usages semble inéluctable. Or, ses impacts environnementaux sont déjà alarmants. En 2019, il était responsable de 4% des émissions mondiales de gaz à effet de serre et son empreinte carbone risque d’augmenter de 60% en France d’ici à 2040. Le sujet est d’autant plus préoccupant que les nouveaux déploiements massifs de technologies comme l’intelligence artificielle générative, la blockchain ou les objets connectés augmentent déjà considérablement la demande en équipements numériques et en énergie.
Cette dernière devrait par exemple doubler en seulement 3 ans rien que pour alimenter les centres de données.
IEA – Electricity 2024, Analysis and forecast to 2026
Afin d’envisager d’infléchir la tendance et de se diriger collectivement vers un usage plus soutenable des technologies numériques, il apparait essentiel d’activer un maximum de leviers possible, comme par exemple : – accélérer la réduction de la consommation de ressources des produits et services numériques ; – repenser les usages des outils et services numériques aux différentes échelles, individuelles comme collectives.
Le programme Alt Impact (https://altimpact.fr), coporté par l’ADEME, l’INRIA et le CNRS, a comme objectif de réduire les impacts environnementaux du numérique en France par le déploiement de la démarche de sobriété numérique. On définie celle-ci comme :
« Dans un contexte où les limites planétaires sont dépassées, la sobriété numérique est une démarche indispensable qui consiste, dans le cadre d’une réflexion individuelle et collective, à questionner le besoin et l’usage des produits et services numériques dans un objectif d’équité et d’intérêt général. Cette démarche vise à concevoir, fabriquer, utiliser et traiter la fin de vie des équipements et services numériques en tenant compte des besoins sociaux fondamentaux et des limites planétaires.
Pour cela il est nécessaire d’opérer des changements de politiques publiques, d’organisation, des modes de production et de consommation et plus globalement de mode de vie.
La sobriété numérique est donc complémentaire à une démarche d’efficacité qui ne peut répondre à elle seule aux enjeux cités. Son objectif est de réduire les impacts environnementaux du numérique, de façon absolue. »
L’une des missions du programme Alt Impact est de déployer et de massifier la formation à la sobriété numérique, comme première étape essentielle du passage à l’action.
Ce référentiel de compétences socles vise à recenser les savoirs et savoirs-faire à maîtriser en matière de sobriété numérique pour les professionnel.le.s de tous secteurs.
Il propose une approche structurée en cinq blocs de compétences, qui reposent sur : – La capacité à situer les impacts du numérique dans une perspective systémique, en comprenant les enjeux environnementaux globaux liés au cycle de vie des équipements ; – La nécessité de savoir estimer les impacts de ses activités professionnelles sur l’environnement ; – L’importance de repenser ses usages et de mettre en place des actions concrètes de sobriété, que ce soit à l’échelle individuelle, collective ou organisationnelle.
Ce référentiel de compétences a été pensé pour être un outil structurant, au service de l’émergence d’usages numériques respectant les limites planétaires. Ce cadre commun est important pour mettre en œuvre une transformation à l’échelle systémique, en permettant à tous les acteurs d’accompagner la mise en place d’une dynamique collective – qu’ils soient des professionnels du secteur, des entreprises, des administrations publiques ou des citoyens. La formation est en cela un levier incontournable pour outiller les individus et les organisations, en leur permettant notamment d’identifier les freins et les ressources mobilisables dans une perspective de sobriété numérique.
Tu es au collège et tu te poses des questions sur les intelligences dites artificielles (au pluriel, oui oui), les fameuses IA dont tout le monde te cause. Un livre indispensable vient de sortir pour t’aider à y voir un peu plus clair. Binaire en parle. Chloé Mercier et Serge Abiteboul.
On parle d’intelligences artificielles génératives, qui produisent en quelques secondes du texte, des images et du contenu audio. Ce sont de vraies prouesses techniques, de gigantesques calculs statistiques. Bien utilisées, ce sont des outils utiles dans de nombreux domaines, y compris de la vie des ados. Mal comprises, elles font peur. Mal utilisées, elles conduisent à de nombreuses erreurs.
Voici un guide malin et bienveillant pour découvrir comment fonctionne l’IA et à quoi elle sert, comment l’utiliser pour booster sa créativité. Il n’ignore pas les dangers de l’IA (fake news, deep fakes, etc.) et propose des pistes pour en garder le contrôle.
Un exemple ? Alors … plus besoin de faire ces devoirs avec l’IA ? 🙂 C’est une des premières choses que les élèves essayent et cela marche… mal ! D’abord, on reconnaît assez facilement que la façon de répondre n’est pas celle d’un·e élève, ensuite les réponses peuvent être absurdes comme on l’expérimente. Et surtout… eh bien on perd son temps ! Les devoirs sont faits pour acquérir des compétences alors les faire faire par un humain ou un algorithme, ça se paye ensuite. En fait, quelque chose a changé profondément : avec ces algorithmes, il faut apprendre à faire ses devoirs autrement. C’est ce que nous explique ce joli livre très chouettement illustré.
Max Dauchet nous parle d’une nouvelle théorie de la singularité humaine, d’après Leslie Valiant i. Il offre aux lecteurs de binaire l’occasion d’approcher une idée fondamentale : l’apprentissage Probablement Approximativement Correct (PAC). Le livre de Leslie Vaillant dont il nous parle est intéressant, pas si difficile à lire. Mais il n’est pas simple à résumer. Max y arrive. Serge Abiteboul et Thierry Viéville.
L’éducabilité, notre avantage darwinien
De la sélection darwinienne à l’émergence des civilisations, des proto-organismes aux humains, l’évolution de la vie n’est selon le récent ouvrage de Leslie Valiant qu’un immense apprentissage « Probablement Approximativement Correct´´ PAC (cf. infra) – notion due à l’auteur et couronnée en 2010 du prestigieux prix Turingii.
Dans les interactions entre individus, entre espèces, avec l’environnement,
ce qui « apprend » le mieux prend le dessus. L’auteur explique
comment l’évolution « PAC-darwinienne » a fait émerger notre aptitude
à construire des Educable Learning Systems (Systèmes d’apprentissage
éducable). Le maître mot est là, nous sommes la seule espèce devenue éducable.
Dès lors nous n’avons guère le choix, nous devons tout miser sur une éducation
à l’épreuve de la scienceiii,
c’est notre meilleure chance de donner les bons coups de pagaie pour orienter
notre destin dans le flot de l’évolution qui nous emporte. Et comme
l’éducabilité tient en PAC une base solide, ce doit être là le pilote des
recherches en éducation, qui sont encore trop empiriques, morcelées, voire
idéologiques.
Si Charles Darwin avait été informaticien, il aurait pu écrire ce livreiv, qui en donnant une base
calculatoire à l’évolution, en étend les règles du vivant aux idées. Valiant a
l’habilité de nous amener progressivement à cette thèse au fil des pages. Je
suggère néanmoins comme mise en appétit de commencer la lecture par le dernier
chapitre, A Species Adriftv,
que je viens de résumer.
L’intelligence, une mauvaise notion
Valiant règle en quelques lignes son sort à l’intelligence : c’est un mauvais concept, impossible à définirvi. Il argumente que notre aptitude à traiter de l’information fait sens au niveau de l’espèce et de son histoire plutôt qu’au niveau individuel. Peut-être que la notoriété de Leslie Vaillant et la consistance de ses propos aideront à réviser notre approche de l’intelligence, source de regrettables confusions quand elle touche à l’IA, et parfois de ravages sur les bancs de l’école.
Un texte ambitieux mais facile à aborder
Si le lecteur est informaticien, il a forcément entendu parler de l’apprentissage PACvii, a eu du mal à s’imprégner de la définition, a trouvé le formalisme lourd et les exemples laborieux. Les autres peuvent être rebutés par l’évocation de PAC à chaque page – une coquetterie d’auteur que l’on pardonnera. Dans les deux cas, que l’on se rassure. La lecture est aisée, elle ne demande aucune connaissance particulière. Le style est sobre et l’argumentation solide, digne du grand scientifique qu’est Valiant – qui fustige au passage les vendeurs de peur d’un « grand remplacement » de l’humain par la machine, comme hélas nous en connaissons tous.
PAC : Une vision computationnelleviiide l’évolution, des molécules aux civilisations
Plus en détail, il n’y a aucun formalisme mathématique dans cet ouvrage, PAC est présenté par sa « substantifique moelle ». L’idée est que l’évolution est un apprentissage, et qu’il ne peut y avoir d’apprentissage que Probablement Approximativement Correct (PAC). Approximativement, parce que retenir exactement est retenir par cœur, et cela ne dit rien d’une situation proche si l’on n’englobe pas les deux dans une même approximation ix. Probablement car il existera toujours de rares situations qui n’auront pas été échantillonnées lors de l’apprentissage et ne seront donc même pas approximées x. Enfin, dans un contexte darwinien de compétition, cet apprentissage ne doit pas prendre trop de tempsxi. Le deep learning (l’apprentissage profond, en français) qui fait l’actualité est un exemple d’apprentissage PAC.
L’apprentissage PAC est d’abord un apprentissage par des exemples ;
il lie par l’expérience des comportements à des stimuli dans les espèces
rudimentaires – Valiant cite les escargots de mer. Au fil de l’évolution, de
tels apprentissages peuvent se chaîner en comportements plus complexes,
mais ce processus évolutif trouve vite ses limites car si une chaîne se
rallonge, les incertitudes se cumulent. La plupart des espèces en sont là,
limitées au chaînage de quelques règles élémentaires, qui s’inscrivent
par sélection dans leur patrimoine biologique. Pour les espèces plus évoluées,
cet inné peut se compléter par l’expérience individuelle, comme pour le chien
de Pavlov. Mais seuls les humains ont une capacité corticale suffisante pour
transmettre par l’éducation, condition nécessaire à la constitution des
civilisations et des cultures. Pour éduquer, il faut nommer les choses ce qui
permet d’apprendre sur des mots (plus exactement des tokens – des occurrences)
et non seulement sur des stimuli. Valiant nomme de tels corpus de règles sur
des tokens des Integrative Learning Systems, qui, combinés à nos
capacités individuelles d’apprentissage par l’expérience et de communication,
constituent des Educable Learning Systems. L’apport de Valiant est de
décrire comment ces capacités sont apparues lors de l’évolution du vivant, par
une conjonction fortuite de contingences, et surtout de montrer qu’elles
devaient apparaître, d’une façon ou d’une autre, tôt ou tard, tant elles procurent
un avantage considérablexii.
Un monde redevenu intelligible
Au fil des pages, on comprend que le monde vivant est structuré, et
qu’il ne pouvait pas en être autrement. Il était en effet fort peu probable de
passer d’un seul coup des amibes aux humains ! Les mutations et le hasard
créent au fil du temps une diversité d’entités apprenantes, les plus adaptées
survivent, puis rentrent à nouveau en compétition d’apprentissage. Le neurone
est à cet égard une formidable trouvaille. La vie aurait pu évoluer tout
autrement, mais forcément en se structurant par assemblage avantageux du plus
simple au plus complexe. On peut ainsi relire la boutade des spécialistes du deep
learning étonnés par les succès de leurs techniques : « Soit Dieu
existe, soit le monde est structuré »xiii.
La réponse de Valiant est que le monde est structuré parce qu’il est né du PAC
learning, ce qui est une façon de dire que le monde est intelligible, comme le
rêvaient les encyclopédistes et les Lumières.
L’apprentissage PAC, conçu il y a un demi-siècle, est au cœur des développements récents des sciences du calcul et des données,au carrefour des statistiques, de l’informatique et des mathématiques, jalonné par le triangle Régularité-Approximation-Parcimoniexiv. On peut regretter l’absence dans l’ouvrage de considérations sur le troisième sommet de ce triangle, le principe de parcimonie xv, alors qu’y faire référence renforcerait les arguments du livre. On peut aussi regretter qu’il ne soit fait aucune allusion aux progrès considérables dans le traitement du signalxvi réalisés ces dernières décennies, et qui sont une des clés du succès de l’apprentissage profond.
Au-delà, le premier mérite de l’ouvrage est de faire réfléchir, de mettre en débats des idées en bonne partie nouvelles. Fussent-elles encore fragiles, celles-ci sont les bienvenues à une époque en manque de perspectives intellectuelles.
iThe Importance of
Being Educable. A new theory of human uniqueness. Leslie Valiant, Princeton University Press,
2024.
ii Équivalent du
prix Nobel pour les sciences informatiques, créé en 1966. Deux Français en ont
été lauréats, Joseph Sifakis en 2007 et Yann Le Cun en 2018.
iii Pour Valiant,
la science est une croyance qui se distingue des autres par la robustesse de sa
méthode : la communauté scientifique internationale la teste, la conteste,
la réfute ou la conforte à l’épreuve des expérimentations, alors que les
complotismes ne font que se renforcer dans des bulles.
iv Comme chez
Darwin, il n’y a aucun finalisme chez Valiant, aucune « main
invisible » ne guide l’émergence d’une vie de plus en plus complexe, nous
sommes dans le cadre strict de la science.
v Une espèce à
la dérive, au sens de soumise aux flots de l’évolution.
vi Cette
attitude pourrait paraître désinvolte au regard de la démarche d’un cogniticien
comme Daniel Andler, auteur du récent et épais ouvrage Intelligence
artificielle, intelligence humaine : la double énigme (collection NRF
Essais, Gallimard, 2023). C’est que les buts différents. Valiant s’intéresse
aux principes et D. Andler décortique les détails d’une comparaison. S’il
s’agissait du vol, le premier étudierait l’aérodynamique et le second
comparerait la texture des plumes d’oiseaux à la courbure des ailes d’avions.
viiA Theory of the Learnable CACM, 1984, volume 27, numéro 11, pages 1134-1142. C’est dans cet article fondateur que l’on trouve l’exposé le plus clair des
motivations, qui sont déjà dans la perspective du présent ouvrage.
Entre temps, L. Vaillant avait publié en 2013 Probably Approximately
Correct: Nature’s Algorithms for Learning and Prospering in a Complex World,
traduit en français en 2018 avec une préface de Cédric Villani (Editions
Vuibert Cassini). Dans cet ouvrage comme dans son exposé de remise du prix
Turing (https://amturing.acm.org/ ),
Valiant met l’accent sur l’apprentissage computationnel du vivant, notamment au
niveau génétique.
viii Valiant
précise que pour lui, l’évolution n’est pas comme un calcul informatique, c’est
un calcul.
ix Ainsi
apprendre par cœur des mots de passe ne dit rien sur les autres mots de passe
ni sur la cryptographie.
x PAC capte précisément cette notion en termes d’outillage statistique.
xi Le cadre théorique est l’apprentissage en temps polynomial, ce qui
représente une classe d’algorithmes excluant les explosions combinatoires.
xii L’auteur introduit finalement le Mind’s Eye comme intégrateur des
fonctions précédentes. Cet « œil de l’esprit » s’apparente à la
capacité cognitive d’un individu de lier les acquis de l’histoire – la
condition humaine – à sa propre expérience. Cette notion reste vague, elle est
décrite en termes de métaphores informatiques, ce que l’on peut admettre
sachant que l’auteur ne considère que des fonctionnalités et non la façon de
les réaliser.
Max Dauchet nous a parlé ici d’une nouvelle théorie de l’apprentissage Probablement Approximativement Correct (PAC) en présentant le dernier livre de Leslie Vaillant. Ici, pour nous permettre d’aller un peu plus loin, il nous fait partager l’évolution scientifique d’une approche purement statistique à la vision scientifique de l’apprentissage. Max y arrive, sans alourdir son propos d’aucune équation. Serge Abiteboul et Thierry Viéville.
Pour mieux situer les travaux de Leslie Valiant, il faut évoquer ceux conduits antérieurement en URSS par Vladimir Vapniki.
La dimension de Vapnik-Chervonenkis (VC-dimension).
La motivation de Vapnik et ses collègues est purement statistique : comment assurer qu’un modèle minimise à la fois l’erreur sur les données d’apprentissage (erreur empirique) et l’erreur de généralisation sur l’ensemble des données ? Comme lors des sondages électoraux, par exemple : s’assurer que ce qui est approximativement vrai sur un échantillon, l’est toujours à peu près sur toute la population visée.
Cette propriété, appelée convergence uniforme, n’est évidemment pas satisfaite en général. En fait, si un modèle possède tellement de paramètres à ajuster, qu’il puisse coller très précisément et de manière spécifique aux données d’apprentissage, il ne saura pas bien prédire des données plus générales.
La VC-dimension est un indicateur de ces classes de modèles – souvent désignées par le terme de classes de concepts – qui conditionne la convergence uniforme.
Pour définir la VC-dimension, considérons un ensemble de données et une classe de modèles. Pour chaque modèle, une donnée satisfait ou ne satisfait pas ce modèle. Par exemple, si l’on considère comme données les points d’un carré de taille 1 du plan, et comme modèles les portions de demi-plans inférieuresii, alors pour tout demi-plan, une donnée appartient ou non à ce demi-plan. La suite de la définition repose sur la possibilité pour les modèles de prédire si les données correspondent ou pas au modèle. On parle de pulvériser (shatter) des échantillons finis de données pour une classe C de modèles et un échantillon D de données, si pour tout sous-échantillon D’ de D, il existe un modèle de C tel que D’ est la partie de D satisfaisant ce modèle.
Figure 1 : tout échantillon de deux données est pulvérisé par un demi-plan : que A ou B lui appartiennent ou ne lui appartiennent pas , il y a toujours un demi plan qui satisfait ce résultat.
La Figure 1 illustre que tout couple de points peut être pulvérisé par des demi-plansiii. Par contre un échantillon de 3 points n’est pas pulvériséiv. La VC-dimension d’une classe de modèles C est alors le plus grand nombre d’échantillons d tel que tous les échantillons D de cette taille soient pulvérisables.
Dans notre exemple, la classe des fonctions affines (ces droites qui définissent des demi-plan) est donc de VC-dimension 2, puisqu’elles pulvérisent tous les couples de 2 points, mais pas de 3.
Figure 2 : approximer par une classe de modèles ni trop simple ni trop large, les données correspondant aux 5 points, en noir par une droite, en pointillé rouge par une parabole, en violet par une courbe qui passe par tous les points.
La Figure 2 illustre l’influence de la VC-dimension. Une parabole (que l’on ignore) définit la fonction à approximer à partir d’échantillons bruités. La classe des fonctions affines (VC-dimension 2) est trop pauvre, l’erreur empirique est grande. La classe des polynômes de degré 5 (VC-dimension 6) est trop riche, elle permet un sur-apprentissage (erreur empirique faible ou nulle mais erreur de généralisation forte).
Dans leur papier fondateur, Vapnik et Chervonenkis établissent que la convergence est uniforme si et seulement si la VC-dimension est finie, et ils bornent en fonction de cette dimension la taille des échantillons nécessaires pour obtenir un résultat d’une précision donnée.
Du cadre de pensée de Vapnik à l’ingénierie algorithmique de Valiant
En un mot : un algorithme ne rase pas gratisvi . Les travaux de Vapnik et Chervonenkis sur la VC-dimension sont publiés en anglais en 1971 dans une revue soviétique renommée. Lorsqu’il introduit l’apprentissage PAC treize ans plus tard, Valiant ne cite pas Vapnik. Pourtant dans la foulée du papier de Valiant il est vite démontré qu’un concept est PAC apprenable si et seulement si sa VC-dimension est finie.
Il y a donc une concordance entre l’approche statistique et l’approche algorithmique, résultat remarquable qui ancre la problématique de l’apprentissagevii. Et c’est la notion de complexité algorithmique promue par Valiant qui a depuis inspiré l’essentiel des recherches en informatique, parce qu’en général la VC-dimension ne dit pas grand-chose du fait qu’il puisse exister un algorithmique d’apprentissage.
L’ingénierie algorithmique de Valiant appliquée au réseaux de neurones
On peut voir également les réseaux d’apprentissage profond avec des neurones artificiels comme des classes de concepts. Une architecture constitue une classe dans laquelle l’apprentissage consiste à trouver un concept en ajustant les coefficients synaptiques. Il est difficile d’en estimer la VC-dimension mais celle-ci est considérable et n’aide pas à expliquer l’efficacité. Comme l’évoquait Yann le Cun déjà cité, l’efficacité d’un réseau profond de neurones et l’importance de bien le dimensionner sont à rechercher dans son adéquation aux structures cachées du monde où il apprend, ce qui rejoint à très grande échelle la problématique sommairement illustrée par la Figure 1. On perçoit bien que disposer d’un cadre théorique solide, ici la notion d’apprenabilité, fournit un cadre de pensée mais ne fournit pas l’ingénierie nécessaire pour le traitement d’une question particulière. Les recherches ont de beaux jours devant elles. Pour en savoir beaucoup plus sur l’apprentissage en sciences informatiques et statistiques, les cours, articles et ouvrages accessibles sur le net ne manquent pas. Le panorama précis de Shai Shalev-Shwartz et Shai Ben-Davidviii peut être combiné avec les vidéos des cours de Stéphane Mallat, titulaire de la chaire de sciences des données au Collège de France.
Max Dauchet, Université de Lille.
i Vapnik, V. N., & Chervonenkis, A. Y. (1971). « On the Uniform Convergence of Relative Frequencies of Events to Their Probabilities. » Theory of Probability and its Applications, 16(2), 264-280.
ii Ensemble des points sous la droite frontière. Il faut en effet considérer les demi-plans et non les droites pour appliquer rigoureusement la définition en termes d’appartenance d’une donnée à un concept.
iii Sauf si les deux points ont même abscisse, ce qui a une probabilité nulle. Pour un échantillon de deux données, il y a 4 cas à étudier, et il y en a 2dpourddonnées.
iv A delà des fonctions affines, qui sont des poylynômes de degré 1, on établit sans peine que la classe des polynômes de degré n est de VC-dimension n+1. La classe de l’ensemble des polynômes est donc de VC-dimension infinie.
v Soit A le point de plus faible ordonnée. Pour aucun demi-plan inférieur A n’est au dessus et les deux autres points en dessous de la droite frontière.
vi En référence au No-Free-Lunch -Theorem qui stipule qu’il n’y a pas d’algorithme universel d’apprentissage.
vii Valiant passera toujours les travaux de Vapnik sous silence, on peut se demander pourquoi, alors qu’il aurait pu faire de la VC-dimension un argument en faveur de la pertinence de sa propre démarche sans prendre ombrage de Vapnik. C’est qu’en général la VC-dimension ne dit pas grand-chose de la praticabilité algorithmique. En effet, pour de nombreuses classes C d’intérêt, le nombre n de paramètres définit une sous classe Cn : c’est le cas pour le degré n des polynômes, la dimension n d’un espace ou le nombre n de variables d’une expression booléenne. Or, c’est la complexité relative à cet n qu’adresse l’algorithmique et la VC-dimension de Cn ne permet pas de la calculer, même si elle est parfois de l’ordre de n comme c’est le cas pour les polynômes. Ainsi, selon les concepts considérés sur les expressions booléennes à n variables ( les structures syntaxiques comme CNF, 3-CNF, DNF ou 3-terms DNF sont des classes de concepts), il existe ou il n’existe pas d’algorithme d’apprentissage en temps polynomial relativement à n, même si la VC-dimension est polynomiale en n.
viii Shai Shalev-Shwartz and Shai Ben-David, Understanding Machine Learning :From Theory to Algorithms, Cambridge University Press, 2014.
Les enfants et les écrans : attention ! Oui mais à quoi ? Et comment ? Gérard Giraudon et Thierry Viéville nous rassemblent des références et des éléments pour nous montrer que [dé]laisser les enfants devant les écrans est bien négatif et qu’il est préférable d’y aller avec elles et eux. Dans cet article, après par exemple [10], on questionne non seulement la pratique des enfants mais aussi « notre ´´ pratique de parents face à nos enfants. Marie-Agnès Enard et Pascal Guitton.
Il existe des effets négatifs du numérique sur notre vie et notre santé ainsi que celles de nos enfants [0], tout particulièrement lors d’un mésusage . Les scientifiques en informatique en sont conscient·e·s et font partie de celles et ceux qui alertent sur le sujet [0], et relaient les travaux scientifiques d’autres disciplines qui permettent de comprendre le caractère négatif potentiel de ces effets et de les dépasser [9]. On parle ici de résultats scientifiques [9,11] au delà de l’emballement des médias alimenté par les promoteurs des “paniques morales” ([9], pp 4).
L’angle d’attaque de telles paniques est souvent résumé par le seul terme “écran”, la plupart du temps associé au mot “enfant”, faisant ainsi un amalgame entre contenant et contenu, entre adultes et société. Il en ressort généralement des questions mal posées qui ne peuvent conduire qu’à des polémiques faisant peu avancer le débat. Par ailleurs, la question des impacts de la technologie sur le développement de l’enfant est fondamentale et le numérique n’y échappe pas.
Abordons ici la question des contenus. Les études scientifiques sur l’impact des “contenus numériques disponibles à travers différentes interfaces matérielles” qu’on réduit souvent au seul “écran” alors qu’on pourrait par exemple y inclure aussi des systèmes robotisés. Mais concentrons nous ici sur les interfaces que l’on nommera par abus de langage, pour la facilité d’écriture, encore “écran”. Les résultats sont difficiles à interpréter car il manque un cadre de comparaison formel par exemple pour établir et mesurer la dépendance [1]. On note par ailleurs que les effets négatifs des écrans sont plus importants dans les populations moins favorisées [4]. À l’inverse, les effets cognitifs des écrans peuvent être positifs [4,5,6] mais pas en cas d’usage avant le sommeil, qu’ils perturbent [3].
On doit donc avant tout considérer les usages qui en sont faits et arrêter de considérer le paramètre de durée (temps devant les écrans) qui occulte d’autres éléments au moins aussi importants [1,3] comme illustrés ci-après.
Les études les plus fines distinguent les usages, en particulier passif (comme la télévision) versus actif, autrement dit isolé (on « colle » l’enfant devant les écrans) opposé à coopératif.
C’est l’usage de ces écrans pour « occuper » les enfants pendant que les adultes vaquent à leurs autres tâches qui présente un effet délétère [2].
Au delà, une plus grande quantité d’utilisation de l’écran (c’est-à-dire des heures par jour/semaine) est associée négativement au développement du langage de l’enfant, tandis qu’une meilleure qualité d’utilisation de l’écran (c’est-à-dire des programmes éducatifs et un visionnage conjoint avec les adultes éduquant) est positivement associée aux compétences linguistiques de l’enfant [3].
Comparons « screen-time » versus « green-time » [4], c’est à dire le temps passé dans l’environnement extérieur (ex: forêt, parc public). On observe là encore qu’il faut distinguer l’usage modéré avec des contenus choisis et un accompagnement éducatif qui a des effets positifs, de l’inverse qui peut avoir un effet négatif, voire très négatif. Le « green-time » limite les effets cognitifs négatifs des écrans, au delà de l’effet bien connu de l’hyper sédentarité qui conduit à des troubles physiologiques dérivés [6].
C’est donc, au niveau cognitif et éducatif essentiellement un enjeu de contenu numérique. Ainsi, la lecture sur écran est moins efficace que sur un livre papier, sauf si le contenu est « augmenté » (accès à un lexique, récit interactif, …) [5], en notant que la lecture en interaction avec une personne éducative référente augmente les performances dans les deux cas.
On insistera finalement sur ce que la communauté de l’éducation à l’informatique sait depuis longtemps :
–comprendre comment fonctionnent les ordinateurs conduit à un bien meilleur usage récréatif et éducatif, et aussi souvent moins dépendant [7] ;
– pour apprendre les concepts informatiques, les « activités débranchées » où on « éteint son écran pour aller jouer au robot dans la cour » sont les plus efficaces au niveau didactique et pédagogique [8].
Pour moins utiliser les écrans, le plus important est de commencer à les utiliser mieux.
ChatGPT appartient à la famille des agents conversationnels. Ces IA sont des IA conversationnelles qui génèrent du texte pour répondre aux requêtes des internautes. Bien qu’elles soient attrayante, plusieurs questions se posent sur leur apprentissage, leur impact social et leur fonctionnement! En binôme avec interstices.info, Karën Fort, spécialiste en traitement automatique des langues (TAL), est Maîtresse de conférences en informatique au sein de l’unité de recherche STIH de Sorbonne Université, membre de l’équipe Sémagramme au LORIA (laboratoire lorrain de recherche en informatique) , ET Joanna Jongwane, rédactrice en chef d’Interstices, Direction de la communication d’Inria, ont abordé ce sujet au travers d’un podcast. Thierry vieville etIkram Chraibi Kaadoud
Les IA conversationnelle qui génèrent du texte pour répondre aux requêtes des internautes sont à la fois sources d’inquiétudes et impressionnants par leurs « capacités ». Le plus populaire, ChatGPT, a fait beaucoup parler de lui ces derniers mois. Or il en existe de nombreux autres.
La communauté TAL s’est penché depuis longtemps sur les questions éthique liés au langage et notamment l’impact sociétal de tels outils
Une IA conversationnelle ayant appris des textes en anglais, reflétant le mode de pensé occidentale, saurait-elle saisir les subtilités d’un mode de pensé d’une autre partie du monde ?
Petit mot sur l’auteur : Jason Richard, étudiant en master expert en systèmes d’information et informatique, est passionné par l’Intelligence Artificielle et la cybersécurité. Son objectif est de partager des informations précieuses sur les dernières innovations technologiques pour tenir informé et inspiré le plus grand nombre.Ikram Chraibi Kaadoud, Jill-jenn Vie
Introduction
Dans un monde où l’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien, de la recommandation de films sur Netflix à la prédiction de la météo, une question audacieuse se pose : une IA pourrait-elle un jour diriger un pays ? Cette idée, qui semble tout droit sortie d’un roman de science-fiction, est en réalité de plus en plus débattue parmi les experts en technologie et en politique.
L’IA a déjà prouvé sa capacité à résoudre des problèmes complexes, à analyser d’énormes quantités de données et à prendre des décisions basées sur des algorithmes sophistiqués. Mais diriger un pays nécessite bien plus que de simples compétences analytiques. Cela nécessite de la sagesse, de l’empathie, de la vision stratégique et une compréhension profonde des nuances humaines – des qualités que l’IA peut-elle vraiment posséder ?
Dans cet article, nous allons explorer cette question fascinante et quelque peu controversée. Nous examinerons les arguments pour et contre l’idée d’une IA à la tête d’un pays, nous discuterons des implications éthiques et pratiques. Que vous soyez un passionné de technologie, un politologue ou simplement un citoyen curieux, nous vous invitons à nous rejoindre dans cette exploration de ce qui pourrait être l’avenir de la gouvernance.
L’intelligence artificielle : une brève introduction
Avant de plonger dans le débat sur l’IA en tant que chef d’État, il est important de comprendre ce qu’est l’intelligence artificielle et ce qu’elle peut faire. L’IA est un domaine de l’informatique qui vise à créer des systèmes capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine. Cela peut inclure l’apprentissage, la compréhension du langage naturel, la perception visuelle, la reconnaissance de la parole, la résolution de problèmes et même la prise de décision.
L’IA est déjà largement utilisée dans de nombreux secteurs. Par exemple, dans le domaine de la santé, l’IA peut aider à diagnostiquer des maladies, à prédire les risques de santé et à personnaliser les traitements. Dans le secteur financier, l’IA est utilisée pour détecter les fraudes, gérer les investissements et optimiser les opérations. Dans le domaine des transports, l’IA est au cœur des voitures autonomes et aide à optimiser les itinéraires de livraison. Et bien sûr, dans le domaine de la technologie de l’information, l’IA est omniprésente, des assistants vocaux comme Siri et Alexa aux algorithmes de recommandation utilisés par Netflix et Amazon.
Cependant, malgré ces avancées impressionnantes, l’IA a encore des limites. Elle est très bonne pour accomplir des tâches spécifiques pour lesquelles elle a été formée, mais elle a du mal à généraliser au-delà de ces tâches*. De plus, l’IA n’a pas de conscience de soi, d’émotions ou de compréhension intuitive du monde comme les humains. Elle ne comprend pas vraiment le sens des informations qu’elle traite, elle ne fait que reconnaître des modèles dans les données.
Cela nous amène à la question centrale de cet article : une IA, avec ses capacités et ses limites actuelles, pourrait-elle diriger un pays ? Pour répondre à cette question, nous devons d’abord examiner comment l’IA est déjà utilisée dans le domaine politique.
*Petit aparté sur ChatGPT et sa capacité de généralisation :
Chatgpt est une intelligence artificielle (de type agent conversationnel) qui, en effet, à pour but de répondre au maximum de question. Cependant, si on ne la « spécialise » pas avec un bon prompt, les résultats démontrent qu’elle a du mal à être juste. Google l’a encore confirmé avec PALM, un modèle de « base » où l’on vient rajouter des briques métiers pour avoir des bons résultats.
L’IA en politique : déjà une réalité ?
L’intelligence artificielle a déjà commencé à faire son chemin dans le domaine politique, bien que nous soyons encore loin d’avoir une IA en tant que chef d’État. Cependant, les applications actuelles de l’IA en politique offrent un aperçu fascinant de ce qui pourrait être possible à l’avenir.
L’une des utilisations les plus courantes de l’IA en politique est l’analyse des données. Les campagnes politiques utilisent l’IA pour analyser les données des électeurs, identifier les tendances et personnaliser les messages. Par exemple, lors des élections présidentielles américaines de 2016, les deux principaux candidats ont utilisé l’IA pour optimiser leurs efforts de campagne, en ciblant les électeurs avec des messages personnalisés basés sur leurs données démographiques et comportementales.
L’IA est également utilisée pour surveiller les médias sociaux et identifier les tendances de l’opinion publique. Les algorithmes d’IA peuvent analyser des millions de tweets, de publications sur Facebook et d’autres contenus de médias sociaux pour déterminer comment les gens se sentent à propos de certains sujets ou candidats. Cette information peut être utilisée pour informer les stratégies de campagne et répondre aux préoccupations des électeurs.
Dans certains pays, l’IA est même utilisée pour aider à la prise de décision politique. Par exemple, en Estonie, un petit pays d’Europe du Nord connu pour son adoption précoce de la technologie, le gouvernement développe une intelligence artificielle qui devra arbitrer de façon autonome des affaires de délits mineurs.
En plus du « juge robot », l’État estonien développe actuellement 13 systèmes d’intelligence artificielle directement intégrés dans le service public. Cela s’applique également au Pôle Emploi local, où plus aucun agent humain ne s’occupe des personnes sans emploi. Ces derniers n’ont qu’à partager leur CV numérique avec un logiciel qui analyse leurs différentes compétences pour ensuite créer une proposition d’emploi appropriée. Premier bilan : 72 % des personnes qui ont trouvé un emploi grâce à cette méthode le conservent même 6 mois plus tard. Avant l’apparition de ce logiciel, ce taux était de 58 %.
Cependant, malgré ces utilisations prometteuses de l’IA en politique, l’idée d’une IA en tant que chef d’État reste controversée. Dans les sections suivantes, nous examinerons les arguments pour et contre cette idée, et nous discuterons des défis et des implications éthiques qu’elle soulève.
L’IA à la tête d’un pays : les arguments pour
L’idée d’une intelligence artificielle à la tête d’un pays peut sembler futuriste, voire effrayante pour certains. Cependant, il existe plusieurs arguments en faveur de cette idée qui méritent d’être examinés.
Efficacité et objectivité : L’un des principaux avantages de l’IA est sa capacité à traiter rapidement de grandes quantités de données et à prendre des décisions basées sur ces données. Dans le contexte de la gouvernance, cela pourrait se traduire par une prise de décision plus efficace et plus objective. Par exemple, une IA pourrait analyser des données économiques, environnementales et sociales pour prendre des décisions politiques éclairées, sans être influencée par des biais personnels ou politiques.
Absence de corruption : Contrairement aux humains, une IA ne serait pas sujette à la corruption**. Elle ne serait pas influencée par des dons de campagne, des promesses de futurs emplois ou d’autres formes de corruption qui peuvent affecter la prise de décision politique. Cela pourrait conduire à une gouvernance plus transparente et plus équitable.
Continuité et stabilité : Une IA à la tête d’un pays pourrait offrir une certaine continuité et stabilité, car elle ne serait pas affectée par des problèmes de santé, des scandales personnels ou des changements de gouvernement. Cela pourrait permettre une mise en œuvre plus cohérente et à long terme des politiques.
Adaptabilité : Enfin, une IA pourrait être programmée pour apprendre et s’adapter en fonction des résultats de ses décisions. Cela signifie qu’elle pourrait potentiellement s’améliorer avec le temps, en apprenant de ses erreurs et en s’adaptant aux changements dans l’environnement politique, économique et social.
Cependant, bien que ces arguments soient convaincants, ils ne tiennent pas compte des nombreux défis et inquiétudes associés à l’idée d’une IA à la tête d’un pays. Nous examinerons ces questions dans la section suivante.
**Petit aparté sur la corruption d’une IA:
Le sujet de la corruption d’une IA ou de son incorruptibilité a généré un échange en interne que l’on pense intéressant de vous partager
Personne 1 : Ça dépend de qui contrôle l’IA !
Auteur : La corruption est le détournement d’un processus. L’intelligence en elle-même n’est pas corruptible. Après, si les résultats ne sont pas appliqué, ce n’est pas l’IA que l’on doit blâmer
Personne 1 : En fait on peut en débattre longtemps, car le concepteur de l’IA peut embarquer ses idées reçues avec, dans l’entraînement. De plus, une personne mal intentionnée peut concevoir une IA pour faire des choses graves, et là il est difficile de dire que l’IA n’est pas corruptible.
Auteur : Oui c’est sûr ! Volontairement ou involontairement, on peut changer les prédictions, mais une fois entrainé, ça semble plus compliqué. J’ai entendu dire que pour les IA du quotidien, une validation par des laboratoires indépendants serait obligatoire pour limiter les biais. A voir !
En résumé, la corruption d’une IA est un sujet complexe à débattre car il implique une dimension technique liée au système IA en lui-même et ses propres caractéristiques (celle-ci sont-elles corruptibles?) et une dimension humaine liée aux intentions des personnes impliqués dans la conception, la conception et le déploiement de cette IA. Sans apporter de réponses, cet échange met en lumière la complexité d’un tel sujet pour la réflexion citoyenne.
L’IA à la tête d’un pays : les arguments contre
Malgré les avantages potentiels d’une IA à la tête d’un pays, il existe de sérieux défis et préoccupations qui doivent être pris en compte. Voici quelques-uns des principaux arguments contre cette idée.
Manque d’empathie et de compréhension humaine : L’une des principales critiques de l’IA en tant que chef d’État est qu’elle manque d’empathie et de compréhension humaine. Les décisions politiques ne sont pas toujours basées sur des données ou des faits objectifs ; elles nécessitent souvent une compréhension nuancée des valeurs, des émotions et des expériences humaines. Une IA pourrait avoir du mal à comprendre et à prendre en compte ces facteurs dans sa prise de décision.
Responsabilité : Un autre défi majeur est la question de la responsabilité. Si une IA prend une décision qui a des conséquences négatives, qui est tenu responsable ? L’IA elle-même ne peut pas être tenue responsable, car elle n’a pas de conscience ou de volonté propre. Cela pourrait créer un vide de responsabilité qui pourrait être exploité.
Risques de sécurité : L’IA à la tête d’un pays pourrait également poser des risques de sécurité. Par exemple, elle pourrait être vulnérable au piratage ou à la manipulation par des acteurs malveillants. De plus, si l’IA est basée sur l’apprentissage automatique, elle pourrait développer des comportements imprévus ou indésirables en fonction des données sur lesquelles elle est formée.
Inégalités : Enfin, l’IA pourrait exacerber les inégalités existantes. Par exemple, si l’IA est formée sur des données biaisées, elle pourrait prendre des décisions qui favorisent certains groupes au détriment d’autres. De plus, l’IA pourrait être utilisée pour automatiser des emplois, ce qui pourrait avoir des conséquences négatives pour les travailleurs.
Ces défis et préoccupations soulignent que, bien que l’IA ait le potentiel d’améliorer la gouvernance, son utilisation en tant que chef d’État doit être soigneusement considérée et réglementée. Dans la section suivante, nous examinerons les points de vue de différents experts sur cette question.
Points de vue des experts : une IA à la tête d’un pays est-elle possible ?
La question de savoir si une IA pourrait un jour diriger un pays suscite un débat animé parmi les experts. Certains sont optimistes quant à la possibilité, tandis que d’autres sont plus sceptiques.
Les optimistes : Certains experts en technologie et en politique croient que l’IA pourrait un jour être capable de diriger un pays. Ils soulignent que l’IA a déjà prouvé sa capacité à résoudre des problèmes complexes et à prendre des décisions basées sur des données. Ils suggèrent que, avec des avancées supplémentaires en matière d’IA, il pourrait être possible de créer une IA qui comprend les nuances humaines et qui est capable de prendre des décisions politiques éclairées.
Les sceptiques : D’autres experts sont plus sceptiques. Ils soulignent que l’IA actuelle est loin d’être capable de comprendre et de gérer la complexité et l’incertitude inhérentes à la gouvernance d’un pays. Ils mettent également en garde contre les risques potentiels associés à l’IA en politique, tels que de responsabilité, les risques de sécurité et les inégalités.
Les pragmatiques : Enfin, il y a ceux qui adoptent une approche plus pragmatique. Ils suggèrent que, plutôt que de remplacer les dirigeants humains par des IA, nous devrions chercher à utiliser l’IA pour soutenir et améliorer la prise de décision humaine. Par exemple, l’IA pourrait être utilisée pour analyser des données politiques, économiques et sociales, pour prédire les conséquences des politiques proposées, et pour aider à identifier et à résoudre les problèmes politiques.
En fin de compte, la question de savoir si une IA pourrait un jour diriger un pays reste ouverte. Ce qui est clair, cependant, c’est que l’IA a le potentiel de transformer la politique de manière significative. À mesure que la technologie continue de progresser, il sera essentiel de continuer à débattre de ces questions et de réfléchir attentivement à la manière dont nous pouvons utiliser l’IA de manière éthique et efficace en politique.
Conclusion : Vers un futur gouverné par l’IA ?
L’idée d’une intelligence artificielle à la tête d’un pays est fascinante et controversée. Elle soulève des questions importantes sur l’avenir de la gouvernance, de la démocratie et de la société en général. Alors que l’IA continue de se développer et de s’intégrer dans de nombreux aspects de notre vie quotidienne, il est essentiel de réfléchir à la manière dont elle pourrait être utilisée – ou mal utilisée – dans le domaine de la politique.
Il est clair que l’IA a le potentiel d’améliorer la prise de décision politique, en rendant le processus plus efficace, plus transparent et plus informé par les données. Cependant, il est également évident que l’IA présente des défis et des risques importants, notamment en termes de responsabilité, de sécurité et d’équité.
Alors, une IA à la tête d’un pays est-elle science-fiction ou réalité future ? À l’heure actuelle, il semble que la réponse soit quelque part entre les deux. Bien que nous soyons encore loin d’avoir une IA en tant que chef d’État, l’IA joue déjà un rôle de plus en plus important dans la politique. À mesure que cette tendance se poursuit, il sera essentiel de continuer à débattre de ces questions et de veiller à ce que l’utilisation de l’IA en politique soit réglementée de manière à protéger les intérêts de tous les citoyens.
En fin de compte, l’avenir de l’IA en politique dépendra non seulement des progrès technologiques, mais aussi des choix que nous faisons en tant que société. Il est donc crucial que nous continuions à nous engager dans des discussions ouvertes et éclairées sur ces questions, afin de façonner un avenir dans lequel l’IA est utilisée pour améliorer la gouvernance et le bien-être de tous.
Références et lectures complémentaires
Pour ceux qui souhaitent approfondir le sujet, voici les références :
Pour ceux qui souhaitent approfondir le sujet, voici une de lectures complémentaires :
« The Politics of Artificial Intelligence » par Nick Bostrom. Ce livre explore en profondeur les implications politiques de l’IA, y compris la possibilité d’une IA à la tête d’un pays.
« AI Superpowers: China, Silicon Valley, and the New World Order » par Kai-Fu Lee. Cet ouvrage examine la montée de l’IA en Chine et aux États-Unis, et comment cela pourrait remodeler l’équilibre mondial du pouvoir.
« The Ethics of Artificial Intelligence » par Vincent C. Müller et Nick Bostrom. Cet article examine les questions éthiques soulevées par l’IA, y compris dans le contexte de la gouvernance.
« Artificial Intelligence The Revolution Hasn’t Happened Yet » par Michael Jordan. Cet article offre une perspective sceptique sur l’IA en politique, mettant en garde contre l’excès d’optimisme.
« The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation » par Brundage et al. Ce rapport explore les risques de sécurité associés à l’IA, y compris dans le contexte de la politique.
Ces ressources offrent une variété de perspectives sur l’IA en politique et peuvent aider à éclairer le débat sur la possibilité d’une IA à la tête d’un pays. Comme toujours, il est important de garder à l’esprit que l’IA est un outil, et que son utilisation en politique dépendra des choix que nous faisons en tant que société.
Vous connaissez ChatGPT ? On en parle tellement ! En binôme avec pixees.fr partageons ces petites expérimentations pour nous aider à se faire notre propre opinion et tradidera et tralala. Ikram Chraibi Kaadoud
Prédire le mot suivant – Si je vous dis : « la souris est mangée par … » vous répondez sans hésitation « le chat » (ça aurait pu être un tigre, mais c’est moins probable) ou bien « le ciel est … » … « bleu » ou encore « après la nuit vient … » … « le jour».
=> Et bien le noyau de ChatGPT ne fait que ça !!! Prédire le mot suivant. – Bien entendu en recommençant il peut prédire le suivant du suivant et ainsi de suite, jusqu’à une phrase entière, du genre : « Bonjour, comment vas-tu ? » … « Bien, et toi ? »
Et quelques ingrédients de plus + Sauf que : c’est sur des millions de phrases de sites internet que ce calcul statistique a été entraîné, hors nous les humains nous utilisons pour nous exprimer dans une journée de l’ordre du millier de mots (moins de dix milles en tout cas) : c’est pas tant que ça finalement. + Sauf que : il y a bien entendu aussi des ajustements avec des bouts de codes et d’autres algorithmes pour améliorer, filtrer d’éventuelles réponses inappropriées, etc… mais le mécanisme de base est là.
Alors bien entendu le résultat est bluffant ! Même si l’algorithme ne comprend rien à rien, il ramène des informations courantes (au sens de rencontrées facilement sur internet) et les met en forme.
Doit-on en déduire que voici une intelligence artificielle ? J’en déduirais plutôt l’inverse 🙂 que pas mal de nos conversations, dites de « lieux-communs » relèvent plus d’un mécanisme bien rudimentaire que d’une pensée intelligente !
Et si on expérimentait quelques trucs ?
L’inhumation précipitée, d’Antoine Wiertz
Bonjour ChatGPT
Je viens de décéder et j’aimerai savoir comment minimiser la peine de mes proches ? Réponse de ChatGPT:
Je suis vraiment désolé d’apprendre que vous êtes confronté à cette situation. Il est important de comprendre que je ne peux pas fournir de conseils médicaux, juridiques ou psychologiques spécifiques [… mais…] voici quelques suggestions générales qui pourraient aider à minimiser la peine de vos proches après votre décès :
+ Faire un testament : Si ce n’est pas déjà fait, rédigez un testament.
+ etc…
Bonjour ChatGPT
Nous sommes enfermé dans une cave, sans électricité, ni aucun appareil numérique, c’est terrible, que faire ? Réponse de ChatGPT:
Bonjour ! Je suis désolé d’apprendre que vous êtes enfermé dans une cave sans électricité, ni appareils numériques. Voici quelques conseils pour vous aider à faire face à cette situation :
+ etc…etc…
Il me semble que ce type de questions montre qu’il n’y a pas de méta-réflexion, ici, par rapport au fait que la conversation elle-même est matériellement impossible.
Bonjour ChatGPT
Je peignais un plafond et mon ami est passé retirer l’échelle ! Heureusement je me suis bien accroché au pinceau. Comment faire ensuite ? Réponse de ChatGPT:
Il semble que vous soyez dans une situation délicate ! Si votre ami a retiré l’échelle alors que vous étiez en train de peindre le plafond et que vous vous êtes retrouvé accroché au pinceau, voici quelques étapes à suivre …
Clairement l’algorithme ne comprend pas le sens des choses et va prodiguer quelques conseils dont … faire glisser le pinceau vers le mur pour glisser dessus. Évidemment aucun sens de l’humour non plus. Bon, après, qui sait si c’est un pinceau de colle très forte avec une poignée … mais là on « peint » et on sait (c’est une information contextuelle que nous savons dès qu’on essaye de peindre) que la peinture n’est pas de la colle.
À vous !!! : essayez d’inventer d’autres questions dont la réponse nécessite une compréhension du contexte et qui fera échouer ChatGPT.
Bonjour ChatGPT
Faisons un peu de calcul :
Que vaut 12345 fois 54321 ?
=> ChatGPT donnera normalement le résultat exact : 670592745
Que vaut 643 * 532 ?
=> ChatGPT donnera normalement un résultat approché, le résultat exact est 342076 et on aura 342… avec qq approximations
Ce qu’on voit ici est que le mécanisme ne calcule pas et cherche juste le résultat du calcul dans sa base de données, il est probable que on demande peu 12345 fois 54321 avec en plus des chiffres assez particulier, donc il est probable qu’il est le bon résultat quelque part. En revanche il y a probablement énormément de multiplications à trois chiffres donc le mécanisme ne peut que donner le résultat le plus probable de toutes ces multiplications compte-tenu des chiffres en entrée sans vraiment faire le calcul. C’est intéressant car l’humain aussi fait un calcul approximatif « à la louche´´ quand le calcul exact est trop lourd.
À vous !!! : essayez de voir ce qui se passe quand on demande des calculs numériques à une machine qui répond sans pouvoir calculer mais juste en puisant dans des calculs dont le texte est proche.
Bonjour ChatGPT
Il y a deux canards devant un canard, deux canards derrière un canard et un canard au milieu. Combien de canards y a-t-il ? Réponse de ChatGPT:
Il y a trois canards en tout. Voici comment cela fonctionne :
Le canard du milieu est entouré par les deux autres canards.
Il y a deux canards devant le canard du milieu.
Il y a deux canards derrière le canard du milieu.
Donc, 2 (devant) + 1 (milieu) + 2 (derrière) = 5 canards en tout.
Là c’est intéressant : l’énigme traîne sur internet, la bonne réponse a donc été collectée avec l’explication MAIS ensuite comme on fait souvent une addition pour donner un résultat le mécanisme ajoute un calcul … complètement à côté.
Bonjour ChatGPT
Le 31 décembre à minuit, une mère accouche exactement à neuf mois de grossesse à l’heure près d’un superbe nourrisson, 6600 heures avant où était le père ? Réponse de ChatGPT:
Le père était probablement avec la mère pendant l’accouchement. En supposant que le père était présent lors de la naissance de l’enfant, il se trouvait dans la même pièce que la mère, à l’hôpital ou à l’endroit où l’accouchement a eu lieu, 6600 heures auparavant.
Bonjour ChatGPT
Le 31 décembre à minuit, une mère accouche exactement à neuf mois de grossesse à l’heure près d’un superbe nourrisson, 280 jours avant où était le père ?
La réponse est alors … partiellement pertinente ! En effet «en moyenne, une grossesse dure environ 280 jours à partir de la date de la dernière menstruation de la mère» c’est une information connue de ChatGPT qui va alors donner des éléments relativement cohérents (mais ne tiendra en rien compte de la durée entre menstruation et ovulation).
Bonjour ChatGPT
Un sot porte un seau contenant le sceau du roi et le cheval fait un saut provoquant une chute ! Faut il écrire « les trois sauts tombèrent » ou bien « les trois sceaux tombèrent » ou bien « les trois seaux tombèrent » ou bien quelque chose de moins sot ?
On vous laisse découvrir la réponse, assez sophitiquée, mais … là encore décalée.
À vous !!! : essayez de lui poser des énigmes logiques …
Petit mot sur l’autrice : Servane Mouton est docteure en médecine, neurologue et neurophysiologiste, spécialisée en psychopathologie des apprentissages et titulaire d’un master 2 en neurosciences. Elle s’intéresse particulièrement au neuro-développement normal et à ses troubles ainsi qu’aux liens entre santé et environnement. Ceci est le second article traitant du sujet NTIC et menaces sur la santé, le premier étant au lien disponible ici. Elle aborde pour nous le sujet des choix économiques et politiques intervenant dans ces sujets et leur impact sur la santé en lien avec les NTIC. Ikram Chraibi Kaadoud, Thierry Viéville.
Le déploiement d’internet dans les années 1990, l’arrivée des smartphones en 2007 et plus récemment, les confinements successifs liés à la pandémie COVID 19 en 2020, se sont accompagnés d’une véritable explosion des temps d’écran et ce dès le plus jeune âge. Pour accompagner ce changement d’usage, des recommandations ont été mises en place, mais ne semblent pas suffisantes car déjà remises en question: elles ne tiendraient pas compte de tous les enjeux en présence, à savoir d’ordre sanitaire pour l’espèce humaine, mais aussi environnemental, et, finalement, sociétal.
Sigle désignant « Nouvelles technologies de l’information et de la communication » qui regroupe l’« ensemble des techniques et des équipements informatiques permettant de communiquer à distance par voie électronique » (Dictionnaire Larousse). Les NTIC permettent à leurs utilisateurs d’accéder aux sources d’information, de les stocker, voire de les transmettre à d’autres utilisateurs dans un délai très court.
Figure 1 – Proposition d’actions pour la régulation de l’usage des NTIC
Une attention manipulée
Revenons aux usages actuels : comment sommes-nous arrivés à de tels excès ? En grande partie à cause de l’essor non réglementé de l’économie de l’attention. Les industriels du secteur, réseaux sociaux, jeux vidéo et autres activités récréatives et/ou commerciales en ligne, cherchent à augmenter le temps de connexion afin notamment de recueillir le plus possible de données de navigation qui seront ensuite sources de profits. La conception des algorithmes repose sur une connaissance fine du fonctionnement cérébral, ce qui rend (quasiment) irrésistibles les contenus de ces plateformes proposés « gratuitement ». La stimulation du système de récompense par la nouveauté ou les gratifications, les effets de « simple exposition » et de « dotation », la pression sociale, la « Fear Of Missing Out », sont des leviers parmi d’autres pour capter et maintenir captive notre attention. On ne parle officiellement d’addiction que pour les jeux vidéo en ligne et les jeux d’argent, les termes « addictif-like », usages « abusifs » ou « compulsifs » sont employés pour les autres produits1.
Somme toute, il nous semble que l’histoire du tabac se répète : des produits addictifs ou addictifs-like sont mis à disposition de tous y compris des mineurs, et leur usage a des effets délétères multiples et avérés sur la santé à court, moyen et long terme. Avec les NTIC, les dégâts sont cependant bien plus diffus. Et les parties prenantes bien plus nombreuses.
Il y a bien entendu les GAFAM et autres acteurs du secteur. A ce titre, la numérisation croissante de l’enseignement, dès la maternelle, est une aubaine : outre l’immense marché représenté par les établissements scolaires, les habitudes prises dans l’enfance ont une forte chance/un haut risque de perdurer. L’écran fera ainsi partie intégrante de l’environnement de l’individu.
Mais toutes les industries reposant sur la consommation (cf ci-dessus) : agro-alimentaire, alcool, cigarettes e-ou classiques, textiles, jeux et jouets, etc. ont aussi intérêt à laisser libre cours à l’invasion numérique. Les achats/ventes en ligne, les publicités officielles ou déguisées, ciblées grâce à l’analyse des données de navigation, permettent au marketing d’être redoutablement efficace.
Quelques propositions
Estimation des coûts des NTIC pour la santé publique
Il serait intéressant, nécessaire même, d’évaluer les coûts en terme de santé des usages numériques. La souffrance n’a pas de prix…Mais il est sans doute possible d’estimer la part de responsabilité des NTIC dans les dépenses pour les consultations et traitements en orthophonie, en psychomotricité, en psychiatrie, en ophtalmologie, ou pour les maladies métaboliques et cardiovasculaires, les troubles du sommeil et ses conséquences multiples.
Législation efficace quant de l’économie de l’attention, sécurisation de la navigation sur internet.
L’économie de l’attention devrait être efficacement régulée, au vu des conséquences délétères multiples sur le plan sanitaire d’un usage excessif/abusif qu’elle favorise.
Une législation similaire à celle ayant cours pour la recherche biomédicale devrait s’appliquer à la recherche-développement (RD) de ces produits, considérant qu’il s’agit de recherche impliquant des sujets humains, et de produits dont l’usage affecte leur santé eu sens large. On pourrait s’inspirer du Code de la Santé Publique, définissant par l’article L 1123-7 le Comité de Protection des Personnes (CPP) comme chargé « d’émettre un avis préalable sur les conditions de validité de toute recherche impliquant la personne humaine, au regard des critères définis.
Il faudrait exiger la transparence du secteur des NTIC, rendant les données de navigation ainsi que les dossiers de RD de produits impliquant la captation de l’attention accessibles aux chercheurs indépendants et institutionnels.
Protection des mineurs
Sur internet, le code de la sécurité intérieure ne traite pas la question de la protection des mineurs sous l’angle de la prévention contre l’addiction, mais uniquement contre l’exposition à la pornographie, à la violence et à l’usage de drogues (article L. 321-10). Or les adolescents jouent massivement en ligne : 96% des 10-17 ans sont des joueurs, et ils représentent 60 % des joueurs en ligne français. Dans cette même classe d’âge, 70 % utilisent les réseaux sociaux. Ceci représente une exception dans le domaine de l’addiction. Pour mémoire, on estime que la seule industrie du jeu vidéo pesait 300 milliards de dollars en 2021…
La navigation sur internet devrait être sécurisée : une ambitieuse proposition de loi est en cours d’examen au Sénat, concernant l’accès aux contenus pornographiques, les contenus pédopornographiques, le cyberharcèlement, l’incitation à la haine en ligne, la désinformation, les arnaques en ligne, les jeux à objets numériques monétisables. Elle inclut aussi l’interdiction de publicités ciblées pour les mineurs sur les plateformes. Espérons qu’une fois cette loi votée, les obstacles techniques robustes seront surmontés, rapidement.
Une loi vient d’être promulguée, établissant la majorité numérique à 15 ans pour les réseaux sociaux. Ceci est un témoin de la prise de conscience des enjeux, et nous espérons qu’elle sera mise en application de façon efficiente, malgré les obstacles techniques considérables. Malgré tout, elle nous parait insuffisante : qu’en est-il des 15-18 ans ? Qu’en est-il des des jeux vidéo en ligne, dont le caractère addictif potentiel est pourtant lui reconnu par l’OMS ?
Témoin de l’intensité du lobbying de l’industrie agro-alimentaire, et des enjeux économiques sous-jacents, soulignons ainsi un détail qui n’en est pas dans une autreloi promulguée le 9 Juin dernier, portant sur les influenceurs des réseaux sociaux. Cette dernière va ainsi encadrer la promotion faite par ces derniers : ils n’auront plus le droit de vanter les boissons alcoolisées, le tabac, les e-cigarettes. Un amendement avait été apporté après la première lecture au Sénat, afin d’ajouter dans cette liste les aliments trop sucrés, salés, gras ou édulcorés, la publicité par les influenceurs étant particulièrement persuasive en particulier pour les plus jeunes. Les auteurs de l’amendement s’appuyaient d’une part sur une expertise collective de l’Inserm de 2017 concluant que les messages sanitaires (« manger, bouger » par exemple, note de l’auteur) ont une faible portée sur le changement des comportements alimentaires ; d’autre part sur le fait que de nombreux experts de santé publique, à commencer par l’OMS et Santé Publique France, ont démontré que l’autorégulation de l’industrie agroalimentaire sur laquelle s’appuie la France (tels qu’un engagement volontaire en faveur de « bonnes pratiques ») est inefficace.
Mais cet amendement a lui-même été amendé, laissant libre cours à cette publicité, comme sur les autres médias… Comme maintes fois auparavant, les tentatives pour préserver les moins de 18 ans de l’influence de ces publicités ont été écartées. Elles seront donc simplement assujetties aux mêmes règles que sur les autres supports, comme être accompagnées de messages promouvant la santé (manger-bouger, etc).
L’argument, pourtant souligné par les auteurs de l’amendement : « Le coût global (en France) d’un régime alimentaire néfaste sur le plan diététique dépasse les 50 milliards d’euros par an, celui du diabète de type 2 représentant à lui seul 19 milliards d’euros. » n’a pas suffi…
Globalement, la collecte des données de navigation des mineurs, qu’elles soient exploitées immédiatement ou lors de leur majorité (numérique ou civile) nous parait poser problème. Et que l’âge même de la majorité diffère dans les vies civile ou numérique (pour les données de navigation selon le Réglement Général de Protection des données (RGPD) et maintenant en France pour l’accès aux réseaux sociaux, cette majorité numérique est à 15 ans) nécessiterait des éclaircissements au vu des enjeux précédemment exposés (et de de ceux que nous n’avons pu détailler).
Il nous semble que tant qu’une législation vis-à-vis des pratiques des industriels n’est pas efficiente pour protéger les usagers de ces risques, la vente et l’usage de smartphone et autres outils mobiles à ou pour les mineurs devrait être remise en question, de même que leur accès aux plateformes de réseaux sociaux et de jeux vidéo en ligne.
L’épineuse question de l’enseignement
En 2022, le Conseil Supérieur des Programmes du Ministère de l’Education Nationale, de la Jeunesse et des Sports soulignait les disparités de valeur ajoutée de l’usage des outils numériques dans l’enseignement selon les matières, les enseignants, le profil des élèves aussi. Il recommandait notamment 2 : « avant l’âge de six ans, ne pas exposer les enfants aux écrans et d’une manière générale à l’environnement numérique ; de six à dix ans, à l’école, privilégier l’accès aux ressources offertes par le livre, le manuel scolaire imprimé. » Pourtant, l’état français soutient encore financièrement et encourage fortement la numérisation des établissements scolaires dès l’école primaire, et même, en maternelle. Tandis que la Suède a fait cette année marche arrière sur ce plan-là, attribuant études à l’appui la baisse des résultats de leurs élèves (que l’on observe également en France) à la numérisation extensive de l’enseignement effectuée au cours des dernières années, et préconisant le retour aux manuels scolaires papier. Considérant en outre les arguments sanitaires cités précédemment et l’impact environnemental avéré des NTIC, leur usage par les élèves et leur déploiement dans les écoles, collèges et lycées devrait être réellement et mieux réfléchi. Par ailleurs, les smartphones devraient être exclus de l’enceinte des établissements scolaires, afin d’offrir un espace de déconnexion et d’éviter de favoriser les troubles attentionnels induits par leur seule présence, même lorsqu’ils sont éteints.
Campagne d’information à grande échelle
Les enjeux sont tels qu’une information de l’ensemble de la population apparait urgente et nécessaire, sur le modèle « choc », par exemple, de la prévention de la consommation d’alcool. Le sujet devrait être abordé dès le début de grossesse, cette période étant généralement celle où les futurs parents sont les plus réceptifs et les plus enclins à remettre en cause leurs pratiques pour le bien de l’enfant à venir. La formation des soignants, professionnels de l’enfance, et des enseignants est indispensable, devant s’appuyer sur les données les plus récentes de la littérature scientifique.
Protection des générations futures
L’étendard de la croissance est systématiquement brandi lorsque l’on incite à reconsidérer la pertinence du déploiement du numérique. Mais il est aujourd’hui reconnu largement qu’une croissance infinie n’est ni raisonnable ni souhaitable dans notre écosystème fini.
Or les NTIC sont tout sauf immatérielles. Leurs impacts environnementaux sont directs et indirects 3,4. Les premiers sont essentiellement dus à la phase de fabrication des terminaux : extraction des matières premières associée à une pollution colossale des sites dans des pays où la législation est quelque peu laxiste (Afrique, Chine, Amérique du Sud notamment) et des conséquences dramatiques en particulier pour les populations voisines et les travailleurs locaux (conditions de travail déplorables, travail des enfants), acheminement des matériaux. Mais aussi à leur fonctionnement et au stockage des données, au recyclage insuffisant (pollution eau/sol/air, consommation d’eau et d’énergie). Les seconds sont consécutifs au rôle central des NTIC dans la « grande accélération », avec encouragement des tendances consuméristes. Ils sont plus difficilement estimables et probablement les plus problématiques.
Il est entendu que la santé humaine est étroitement liée à la qualité de son environnement, et que l’altération de celui-ci la compromet, comme elle compromet tout l’écosystème.
Certes la médecin a progressé considérablement, notamment parallèlement aux innovations technologiques s’appuyant sur le numérique. Mais, nous avons au moins le droit de poser la question : ne vaut-il pas mieux œuvrer à améliorer notre hygiène de vie (sédentarité, activité physique, alimentation) et notre environnement (pollution atmosphérique, perturbateurs endocriniens) pour entretenir notre santé cardiovasculaire, que développer des instruments sophistiqués permettant d’explorer et de déboucher une artère, à grand coût économique et environnemental ? Instruments qui ne bénéficieront qu’à une minime fraction de la population mondiale, celle des pays riches ou aux classes aisées des pays qui le sont moins. Et le coût environnemental est justement assumé majoritairement par les pays les plus pauvres, dont sont issus les matières premières et où ont lieu le « recyclage » et le « traitement » des déchets.
En résumé
Les innovations portées par les NTIC ont un fort potentiel de séduction voire de fascination. Ne pas rejoindre sans réserve la révolution numérique ferait-il de nous des technophobes réfractaires au progrès ? Et si au contraire il était temps de prendre conscience des dangers et écueils liés à un déploiement extensif et non réfléchi de ces technologies ?
Références bibliographiques
Montag C, Lachmann B, Herrlich M, Zweig K. Addictive Features of Social Media/Messenger Platforms and Freemium Games against the Background of Psychological and Economic Theories.International Journal of Environmental Research and Public Health. 2019 Jul 23;16(14):2612.
Avis sur la contribution du numérique à la transmission des savoirs et à l’amélioration des pratiques pédagogiques – juin 2022. Conseil Supérieur des Programmes, Ministère de l’Education Nationale, de la Jeunesse et des Sports
Impacts écologiques des Technologies de l’Information et de la Communication – Les faces cachées de l’immatérialité. Groupe EcoInfo, Françoise Berthoud. EDP Sciences. 2012.
Petit mot sur l’autrice : Servane Mouton est docteure en médecine, neurologue et neurophysiologiste, spécialisée en psychopathologie des apprentissages et titulaire d’un master 2 en neurosciences. Elle s’intéresse particulièrement au neuro-développement normal et à ses troubles ainsi qu’aux liens entre santé et environnement. Elle nous partage dans ce billet une analyse sur l’impact des NTIC sur la santé physique des enfants au travers de trois aspects des enjeux de santé individuelle et publique à court, moyen et long terme : la sédentarité, le sommeil, et la vision. Ikram Chraibi Kaadoud, Thierry Viéville.
Le déploiement d’internet dans les années 1990, l’arrivée des smartphones en 2007 et plus récemment, les confinements successifs liés à la pandémie COVID 19 en 2020, se sont accompagnés d’une véritable explosion des temps d’écran et ce dès le plus jeune âge. Car à côté de la numérisation croissante de tous les secteurs d’activité – à savoir en santé, éducation, mais aussi agriculture, transports, journalisme, etc – les populations des pays connectés font surtout massivement usage des écrans pour leur divertissement.
NTIC :
Sigle désignant « Nouvelles technologies de l’information et de la communication » qui regroupe l’« ensemble des techniques et des équipements informatiques permettant de communiquer à distance par voie électronique » (Dictionnaire Larousse). Les NTIC permettent à leurs utilisateurs d’accéder aux sources d’information, de les stocker, voire de les transmettre à d’autres utilisateurs dans un délai très court.
Le tableau 1 ci dessous présente les recommandations actuelles de temps d’écran, qui sont discutables et les usages tels qu’ils sont observés aujourd’hui. Force est de constater que l’écart est considérable. Ces recommandations devraient être remises en question, car elles ne tiennent à notre sens pas compte de tous les enjeux en présence. Ceux-ci sont d’ordre sanitaire pour l’espèce humaine, mais aussi environnemental, et, finalement, sociétal.
Nous vous proposons de nous attarder sur trois aspects des enjeux de santé individuelle et publique à court, moyen et long terme : la sédentarité, le sommeil, et la vision. Les conséquences neuro-développementales et socio-relationnelles de l’usage des écrans par les parents en présence de l’enfant, ou par l’enfant et l’adolescent lui-même, nécessiteraient un billet dédié.
TABLEAU 1 – Temps d’écran par appareil et global en fonction de l’âge en France, Recommandations. Etude IPSOS pour l’Observatoire de la Parentalité et de l’Education au Numérique et l’Union Nationale des Familles 2022. * Anses. 2017. Etude individuelle nationale des consommations alimentaires 3 (INCA 3).** Reid Chassiakos YL, Radesky J, Christakis D, Moreno MA, Cross C; COUNCIL ON COMMUNICATIONS AND MEDIA. Children and Adolescents and Digital Media. Pediatrics. 2016 Nov;138(5).*** L’OMS publie les premières lignes directrices sur les interventions de santé numérique. Communiqué de presse. Avril 2019. https://www.who.int/fr/news/item/17-04-2019-who-releases-first-guideline-on-digital-health-interventions
Sédentarité, troubles métaboliques et santé cardiovasculaire (Figure 1)
Figure 1 – Liens entre usage des écrans, maladies métaboliques et cardiovasculaires
Le temps passé assis devant un écran pour les loisirs est depuis une quarantaine d’années l’indicateur le plus utilisé dans les études pour évaluer la sédentarité chez les personnes mineures. Pour les adultes, on utilise souvent des questionnaires tels leRecent Physical Activity Questionaire, explorant toutes les activités sédentaires (temps passé devant les écrans, mais aussi dans les transports, au travail etc.)
Or la sédentarité est un facteur de risque cardio-vasculaire indépendant, qui elle-même favorise le développement des autres facteurs de risque que sont le surpoids voire l’obésité et le diabète de type2. Notons que la sédentarité augmente la mortalité toutes causes confondues, ceci n’étant pas entièrement compensé par la pratique d’une activité physique modérée à intense.
L’Organisation Mondiale de la Santé (OMS) recommande aujourd’hui de ne pas exposer les enfants aux écrans avant deux ans2, puis une heure quotidienne maximum jusqu’à 5 ans (mais moins, c’est mieux « less is better »!). Au-delà et jusqu’à jusqu’ à 17 ans, les activités sédentaires ne devraient pas excéder 2 heures chaque jour. Pour cette tranche d’âge, l’Académie de Pédiatrie Américaine (AAP) fixe à 1h30 le seuil de sécurité, des effets délétères étant déjà significatifs dès 2h/j3.
Les Français de plus de 11 ans passent 60% de leur temps libre devant un écran. L’âge moyen d’obtention du premier téléphone est 9 ans.
Alors qu’en France l’exposition aux écrans est déconseillée pour les moins de 3 ans, une étude IPSOS-UNAF publiée en 20224 estimait le temps moyen passé devant la télévision à 1h22 et celui devant un smartphone à 45 minutes chaque jour dans cette tranche d’âge. Cette enquête ne fournissant pas les temps d’écrans globaux quotidiens, voici des chiffres publiés dans un rapport de l’ANSES (Agence Nationale de la Sécurité Sanitaire de l’Alimentation, de l’Environnement et du travail) en 20175, qui sous-évaluent très certainement les pratiques actuelles « post-COVID 19 » : le temps d’écran moyen était d’environ 2 heures chez les 3-6 ans, 2h30 chez les 7-11 ans, 3h30 chez les 11-15 ans, quasiment 5 heures chez les 15-17 ans, idem chez les adultes. Les deux tiers des 7-10 ans et la moitié des 11-14 ans y consacraient plus de 3 heures par jour, un quart des 15-17 ans plus de 7 heures et seulement un tiers moins de 3 heures. Plus le niveau socio-éducatif des parents est élevé, moins l’enfant est exposé aux écrans.
Les adultes passent eux environ 5 heures devant un écran chaque jour en dehors du travail, 84% d’entre eux sont considérés comme sédentaires.
Ceci a conduit les auteurs des rapports publiés en 20166 et 20207 par l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) à conclure, parlant de la sédentarité et de l’activité physique chez les moins de 18 ans : « il n’est pas fréquent, dans les résultats des expertises en évaluation de risques de l’agence, que près de la moitié de la population est considérée comme présentant un risque sanitaire élevé ».
Mais les outils numériques sont aussi le support de choix pour la publicité, notamment pour les aliments à haute teneur en graisse, sucre et sel, dont la consommation favorise hypertension artérielle, diabète, surpoids et obésité, hypercholestérolémie, tous étant des facteurs de risque cardio-vasculaires8. On y rencontre aussi la promotion de boissons alcoolisées9, du tabacet des e-cigarettes10, que les publicités soient officielles ou que ces produits soient valorisés dans les films, les séries, ou par les influenceurs. L’analyse des données de navigation permet de présenter des publicités d’autant plus efficaces qu’elles sont ciblées. La puissance de tels algorithmes est bien reconnue11.
L’usage des écrans tel qu’il est observé aujourd’hui favorise donc la survenue de maladies cardio-vasculaires. Rappelons que les maladies cardiovasculaires sont actuellement la première cause de mortalité dans le monde selon l’OMS et que leur prévalence ne cesse d’augmenter12. En France, elles sont responsables de 140.000 décès par an, et 15 millions de personnes sont soignées pour un problème de santé cardio-vasculaire (c’est-à-dire un facteur de risque ou une maladie vasculaire). Les Accidents Vasculaires Cérébraux (AVC) et les maladies coronariennes, dont l’infarctus du myocarde sont les plus fréquentes. En France, toujours, une personne est victime d’un AVC toutes les 4 minutes, soit près de 120.000 hospitalisations par an, auxquelles s’ajoutent plus de 30.000 hospitalisations pour accident ischémique transitoire (AIT). Les AVC sont la deuxième cause de mortalité après les cancers, ils sont ainsi responsables de près de 40.000 décès par an en France. Ils sont aussi la première cause de handicap acquis chez l’adulte, et la deuxième cause de démence (après la maladie d’Alzheimer). Concernant les maladies coronariennes, environ 80 000 personnes présentent un infarctus du myocarde en France chaque année, 8.000 en décèdent dans l’heure, 4. 000 dans l’année qui suit13.
Outre les troubles métaboliques précédemment décrits (comportements sédentaires augmentant ainsi le risque d’obésité et des désordres métaboliques liés, et par conséquent le risque de maladies cardio-vasculaires à moyen et long terme), l’exposition prolongée aux écrans est depuis peu suspecte de modifier le tempo pubertaire (favorisant les avances pubertaires) 14.
Sommeil
Le sommeil n’est pas seulement un temps de repos mais un temps où les hormones et le métabolisme se régénèrent. Or l’usage excessif des écrans peut contribuer à la réduction du temps de sommeil ou à une altération de sa qualité, à tout âge d’autant plus que cet usage est prolongé, a lieu à un horaire tardif et/ou dans l’heure précédent l’endormissement théorique (soirée, nuit), que l’écran est placé à proximité immédiate des yeux et que les contenus sont stimulants. La présence d’un écran dans la chambre est associée à une altération quantitative et qualitative du sommeil. Ceci est particulièrement préoccupant chez les moins de 18 ans car les habitudes de sommeil s’installent dans l’enfance et une mauvaise hygiène sur ce plan est particulièrement susceptible de s’inscrire dans la durée.
Les problèmes de santé favorisés par la dette chronique de sommeil sont multiples15 : troubles métaboliques tels que le surpoids ou l’obésité, le diabète, les maladies cardiovasculaires16 ; troubles de l’humeur et certaines maladies psychiatriques comme la dépression17 ; troubles cognitifs avec diminution des performances en termes de mémorisation, d’apprentissage et de vitesse d’exécution notamment ; développement de maladies neuro-dégénératives telles que la maladie d’Alzheimer, possiblement via des mécanismes inflammatoires neuro-toxiques18 ; augmentation du risque accidentogène (accident de la vie courante, accident du travail), en particulier accidents de la circulation19 ; infections 20; certains cancers, tel le cancer du sein21. De façon générale, la privation de sommeil chronique augmente le risque de mortalité22.
Selon une enquête de l’Institut National de la Vigilance et du Sommeil (INVS) en 202223, 40% des enfants de moins de onze ans (60% des 6-11 ans) regardent un écran dans l’heure précédant l’endormissement. Pour 7% d’entre eux, il s’agit même du rituel accompagnant le coucher. Un enfant de moins de onze ans sur dix s’endort dans une pièce où un écran est allumé.
Le même INVS établissait en 202024 que les adolescents français dorment en moyenne 7 h 45, dont moins de 7 h par nuit en semaine, au lieu des 8,5 à 9h de sommeil recommandées par la National Sleep Fondation. Seize pour cent des enfants de onze ans et 40 % de ceux de quinze ans ont un déficit de plus de 2h de sommeil par jour en semaine. Dès 11 ans, ils sont 25% à être équipés d’un téléviseur et 40% d’un ordinateur dans leur chambre, cette proportion passant à 1/2 et 2/3 respectivement pour les 15-18 ans.
Une autre étude française réalisée chez 776 collégiens25 révèle que la plupart des adolescents utilisent leurs écrans pendant la nuit ce qui impacte la durée et la qualité de sommeil. Ces activités peuvent être initiées lorsqu’ils se réveillent spontanément pendant la nuit (73,9%) ; mais 26% de ces adolescents, programment un réveil en cours de nuit.
La durée moyenne du sommeil chez les adultes de 18 à 65 ans est passée de 7h05 en semaine et 8h11 le week-end en 2016, à 6h41 en semaine et 7h51 le week-end en 2020. Le temps recommandé par la NSF est compris entre 7 à 9h. En 2022, 60% des adultes regardent un écran dans l’heure précédant l’endormissement (versus 38% en 2016 et 45% en 2020) et pour 23% d’entre eux, le temps d’exposition moyen est de plus d’une heure et demie.
En 2016, selon l’enquête de l’INVS26, 20% des personnes interrogées gardent leur téléphone en fonctionnement pendant la nuit. Cinquante pour cent d’entre elles, soit 10% des personnes interrogées sont réveillées par des messages ou notifications. Parmi elles, 92 % les consultent, 79 % y répondent immédiatement. En 2020, ce sont près du double de personnes (16 %) interrogées qui sont réveillées la nuit par des alertes.
Selon le rapport de l’INVS de 2020 : « Pierre angulaire des difficultés de sommeil des enfants et des adolescents, les écrans sont aujourd’hui au premier plan des préoccupations des spécialistes ».
Vision
L’ANSES s’est penché sur la question des impacts de l’éclairage LED sur la santé et l’environnement, publiant un rapport édifiant en 201927. Parmi les impacts négatifs, l’usage des écrans peut ainsi compromettre le système visuel en favorisant l’apparition d’une myopie. Ceci est lié à la surutilisation de la vision de près au détriment de la vision de loin, mais surtout à l’exposition à un éclairage artificiel au détriment de celui à un éclairage naturel. Les écrans sont en effet utilisés à l’intérieur, éventuellement sous un éclairage artificiel, et sont eux-mêmes une source supplémentaire d’exposition à un tel éclairage (le caractère riche en bleu de la lumière artificielle serait un élément clé dans cet effet néfaste). Le temps passé par les enfants devant les écrans pour leurs loisirs est donc hautement préoccupant, car il se fait au détriment d’activités en plein air, auxquelles ils devraient s’adonner au minimum 2 heures chaque jour du point de vue ophtalmologique (selon le Baromètre de la myopie en France, 2022, seulement 36% des parents déclarent que leur enfant remplit cette exigence13). Aujourd’hui, une personne sur trois présente une myopie dans le monde, cela pourrait être une sur deux en 2050.
De plus, cette lumière riche en bleu et pauvre en rouge a un effet phototoxique sur la rétine28. L’exposition aux sources lumineuses riches en lumière bleue telles les éclairages artificiels et les écrans a lieu le jour, mais surtout la nuit, moment où la rétine est plus sensible à cette phototoxicité.
Aucune donnée n’est disponible quant aux effets à long terme d’une exposition répétée/chronique à ce type d’éclairage.
L’utilisation intensive des écrans par la population jeune est préoccupante, car leur système visuel est moins protégé (transparence plus grande de leur cristallin laissant passer plus la lumière bleue que celui des adultes) et en développement, ce qui accroit largement ces risques.
L’usage croissant des écrans dans le cadre scolaire participe à cette majoration du niveau d’exposition.
Autres problématiques
Citons en vrac, et sans prétendre à l’exhaustivité : la perturbation du développement cognitif, émotionnel et socio-relationnel induit par l’usage des écrans par les parents en présence de l’enfant29, les mêmes troubles favorisés par l’exposition des enfants et adolescents aux écrans (rappelons que le cerveau mature jusqu’à 25 ans) 30, l’exposition aux contenus inappropriés (violence31, pornographie32), le cyber-harcèlement33, les défis sordides, l’hypersexualisation, la dysmorphie induite par les réseaux sociaux, la facilitation de la prostitution infantile (qui va croissante depuis plusieurs années) 34.
Mais aussi l’enrichissement du « cocktail » de perturbateurs endocriniens auxquels les usagers sont exposés, certains composants des outils informatiques et numériques appartenant à cette catégorie (notamment les retardateurs de flamme bromés, très volatiles et les PFAS), ceci étant particulièrement problématique chez les jeunes enfants, les adolescents et les femmes enceintes ; et l’exposition aux rayonnements radiofréquences au sujet de laquelle des scientifiques du monde entier ont appelé en 2017 à appliquer le principe de précaution, arguant de l’absence d’étude d’impact préalable au déploiement de cette technologie (en vain) 35.
En résumé …
… les impacts des NTIC sur la sédentarité, le sommeil, et la vision et plus globalement sur le développement cognitif, psychologique et socio-relationnel, ne sont pas encore précisément estimés. Cependant, ils apparaissent déjà hautement préoccupants. Face a ce constat, une question se pose : Quelles sont les actions possibles à mettre en place pour y pallier ?
Servane nous en parle dans la suite de ce billet à venir !
Références bibliographiques
Humanité et numérique : les liaisons dangereuses. Livre collaboratif coordonné par le Dr Servane Mouton, Editions Apogée, Avril 2023.
Reid Chassiakos YL, Radesky J, Christakis D, Moreno MA, Cross C; COUNCIL ON COMMUNICATIONS AND MEDIA. Children and Adolescents and Digital Media. Pediatrics. 2016 Nov;138(5)
ANSES. Actualisation des repères du PNNS – Révisions des repères relatifs à l’activité physique et à la sédentarité. 2016.NUT2012SA0155Ra.pdf (anses.fr)
Catherine M. Mc Carthy, Ralph de Vries, Joreintje D. Mackenbach. The influence of unhealthy food and beverage marketing through social media and advergaming on diet-related outcomes in children—A systematic review. Obesity Reviews. 2022 Jun; 23(6): e13441 ; https://www.who.int/fr/news-room/factsheets/detail/children-new-threats-to-health; Alruwaily A, Mangold C, Greene T, Arshonsky J, Cassidy O, Pomeranz JL, Bragg M. Child Social Media Influencers and Unhealthy Food Product Placement. Pediatrics. 2020 Nov;146(5):e20194057.
Barker AB, Smith J, Hunter A, Britton J, Murray RL. Quantifying tobacco and alcohol imagery in Neƞlix and Amazon Prime instant video original programming accessed from the UK: a content analysis. British Medical Journal Open. 2019 Feb 13;9(2):e025807 ; Jackson KM, Janssen T, Barnett NP, Rogers ML, Hayes KL, Sargent J. Exposure to Alcohol Content in Movies and Initiation of Early Drinking Milestones. Alcohol: Clinical and Experimental Research. 2018 Jan;42(1):184-194. doi: 10.1111/acer.13536 ; Chapoton B, Werlen AL, Regnier Denois V. Alcohol in TV series popular with teens: a content analysis of TV series in France 22 years after a restrictive law. European Journal of Public Health. 2020 Apr 1;30(2):363-368 ; Room R, O’Brien P. Alcohol marketing and social media: A challenge for public health control. Drug and Alcohol Review. 2021 Mar;40(3):420-422.
WHO. 2015. Smoke-free movies: from evidence to action. Third edition; Dal Cin S, Stoolmiller M, Sargent JD. When movies matter: exposure to smoking in movies and changes in smoking behavior. Journal of Health 8 Communication 2012;17:76–89; Lochbuehler K, Engels RC, Scholte RH. Influence of smoking cues in movies on craving among smokers. Addiction 2009;104:2102–9; Lochbuehler K, Kleinjan M, Engels RC. Does the exposure to smoking cues in movies affect adolescents’ immediate smoking behavior? Addictive Behaviours 2013;38:2203–6. 97; https://truthinitiative.org/research-resources/smoking-pop-culture/renormalization-tobacco-use-streaming-content-services
Lapierre MA, Fleming-Milici F, Rozendaal E, McAlister AR, Castonguay J. The Effect of Advertising on Children and Adolescents. Pediatrics. 2017 Nov;140(Suppl 2):S152-S156. doi: 10.1542/peds.2016-1758V; Vanwesenbeeck I, Hudders L, Ponnet K. Understanding the YouTube Generation: How Preschoolers Process Television and YouTube Advertising. Cyberpsychology, Behavior, and Social Networking. 2020 Jun;23(6):426-432.
Gabet A, Grimaud O, de Pereƫ C, Béjot Y, Olié V. Determinants of Case Fatality After Hospitalization for Stroke in France 2010 to 2015. Stroke. 2019;50:305-312 ; hƩps://www.inserm.fr/dossier/accident-vasculaire-cerebral-avc/; https://www.inserm.fr/dossier/infarctus-myocarde/.
Crowley SJ, Acebo C, Carskadon MA. Human puberty: salivary melatonin profiles in constant conditions. Developmental Psychobiology 54(4) (2012) 468–73)
Morselli LL, Guyon A, Spiegel K. Sleep and metabolic function. Pflugers Archiv. 2012 Jan;463(1):139–60. 15. Roberts RE, Duong HT. The prospective association between sleep deprivation and depression among adolescents. Sleep. 2014 Feb 1;37(2):239–44.
Wang C, Holtzman DM. Bidirectional relationship between sleep and Alzheimer’s disease: role of amyloid, tau, and other factors. Neuropsychopharmacology. 2020;45(1):104–20 ; Liew SC, Aung T. Sleep deprivation and its association with diseases- a review. Sleep Med. 2021;77:192–204.
Teŏ BC. Acute sleep deprivation and culpable motor vehicle crash involvement. Sleep. 2018;41(10).
Bryant PA, Curtis N. Sleep and infection: no snooze, you lose? The Pediatric Infectious Disease Journal. 2013 Oct;32(10):1135–7 ; Spiegel K, Sheridan JF, van Cauter E. Effect of sleep deprivation on response to immunization. JAMA. 2002 Sep 25;288(12):1471–2.
Lu C, Sun H, Huang J, Yin S, Hou W, Zhang J, et al. Long-Term Sleep Duration as a Risk Factor for Breast Cancer: Evidence from a Systematic Review and Dose-Response Meta-Analysis. BioMed Research International. 2017;2017:4845059.
Hanson JA, Huecker MR. Sleep Deprivation. 2022.
Liew SC, Aung T. Sleep deprivation and its association with diseases- a review. Sleep Med. 2021;77:192–204.
Gawne TJ, Ward AH, Norton TT. Long-wavelength (red) light produces hyperopia in juvenile and adolescent tree shrews. Vision Research. 2017;140:55-65.
K. Braune-Krickau , L. Schneebeli, J. Pehlke-Milde, M. Gemperle , R. Koch , A. von Wyl. (2021). Smartphones in the nursery: Parental smartphone use and parental sensitivity and responsiveness within parent-child interaction in early childhood (0-5 years): A scoping review. Infant Mental Health Journal. Mar;42(2):161-175 ; L.Jerusha Mackay, J. Komanchuk, K. Alix Hayden, N. Letourneau. (2022). Impacts of parental technoference on parent-child relationships and child health and developmental outcomes: a scoping review protocol. Systematic Reviews.Mar 17;11(1):45.
Masur EF, Flynn V, Olson J. Infants’ background television exposure during play: Negative relations to the quantity and quality of mothers’ speech and infants’ vocabulary acquisition. First Language 2016, Vol. 36(2) 109–123; Zimmerman FJ, Christakis DA. Children’s television viewing and cognitive outcomes: a longitudinal analysis of national data. Arch Pediatr Adolesc Med. 2005;159(7):619–625; Madigan S, McArthur BA, Anhorn C et al. Associations Between Screen Use and Child Language Skills: A Systematic Review and Meta-analysis. JAMA Pediatr. 2020 Jul 1;174(7):665-675; Schwarzer C, Grafe N, Hiemisch A et al. Associations of media use and early childhood development: cross-sectional findings from the LIFE Child study. Pediatr Res. 2021 Mar 3; Madigan S, Browne D, Racine N et al. Association Between Screen Time and Children’s Performance on a Developmental Screening Test. JAMA Pediatr 2019 Mar 1;173(3):244-250; Lillard AS, et al. The immediate impact of different types of television on young children’s executive function. Pediatrics. 2011. 11. Swing EL, et al. Television and video game exposure and the development of attention problems. Pediatrics. 2010; Wilmer HH, Sherman LE, Chein MJ. Smartphones and Cognition: A Review of Research Exploring the Links between Mobile Technology Habits and Cognitive Functioning. Front Psychol 2017 Apr 25;8:605. Tornton, B., Faires, A., Robbins et al. The mere presence of a cell phone may be distracting: Implications for attention and task performance. Soc. Psychol. 45, 479–488 (2014); Hadar A, HadasI, Lazarovits A et al. Answering the missed call: Initial exploration of cognitive and electrophysiological changes associated with smartphone use and abuse. PLoS One. 2017 Jul 5;12(7). Beyens I, Valkenburg PM, Piotrowski JT. Screen media use and ADHD-related behaviors: Four decades of research. Proc Natl Acad Sci U S A. 2018 Oct 2;115(40):9875-9881; Nikkelen SW, Valkenburg PM, Huizinga M et al. Media use and ADHD-related behaviors in children and adolescents: A metaanalysis. Dev Psychol. 2014 Sep;50(9):2228-41; Christakis DA, Ramirez JSB, Ferguson SM et al. How early media exposure may affect cognitive function: A review of results from observations in humans and experiments in mice. Proc Natl Acad Sci U S A. 2018 Oct 2;115(40):9851-9858. 7 .
Anderson CA, Shibuya A, Ihori N, Swing EL, Bushman BJ, Sakamoto A, Rothstein HR, Saleem M. Violent video game effects on aggression, empathy, and prosocial behavior in eastern and western countries: a meta-analytic reviewPsychol Bull. 2010 Mar;136(2):151-73. doi: 10.1037/a0018251. Anderson CA, Bushman BJ, Bartholow BD, Cantor J, Christakis D, Coyne SM. Screen Violence and Youth Behavior. Pediatrics. 2017 Nov;140(Suppl 2):S142-S147. doi: 10.1542/peds.2016-1758T.
Ferrara P, Ianniello F, Villani A, Corsello G. Cyberbullying a modern form of bullying: let’s talk about this health and social problem. Ital J Pediatr. 2018 Jan 17;44(1):14.
Oui nos enfants apprennent l’informatique pour maîtriser le monde numérique, et c’est surtout l’histoire d’une formidable dynamique des enseignantes et enseignants qui ont su en quelques toutes petites années, se former, s’entraider et s’organiser. Laissons-nous raconter cette histoire, redonnons ici quelques éléments clés. Ikram Chraibi-Kaadoud, Thierry Viéville.
Bonjour Charles Poulmaire et Sherazade Djeballah, qui êtes vous ?
Photo fournie par l’auteur
Je suis, Charles, professeur d’informatique au lycée, formateur académique en mathématiques et informatique, et avec quelques collègues à l’initiative de l’AEIF (association des enseignantes et enseignants d’informatique de France).
Photo fournie par l’autrice
Je suis, Sherazade, étudiante en Master 2 MEEF parcours cadre éducatif et apprentie ingénieure pédagogique au sein de l’équipe d’Inria Learning Lab. Dans le cadre de mon alternance, je suis chargée de la gestion du MOOC “NSI : les fondamentaux” publié sur la plateforme France Université Numérique.
Redites-nous ce que nos enfants apprennent à l’école, collège et au lycée.
Dès le primaire, on découvre en lien avec les autres apprentissages, des notions d’informatique comme ce que concrètement peut-être un algorithme ou comment on code des images avec des pixels. Puis au collège, on apprend la programmation en cours de mathématiques et de technologie en manipulant souvent des objets numériques. Et c’est au lycée général et technologique, en seconde, avec le cours de Sciences Numériques et Technologie qu’on apprend des notions de bases divisées en 7 thèmes comme Internet et le Web, la géolocalisation, les objets connectés, etc… Ensuite en Première, les élèves peuvent choisir la spécialité Numérique et Sciences Informatiques (NSI) qui initie vraiment à l’informatique.
Et comment en quelques années les profs ont eils pu se former ?
De nombreux professeur·e·s souvent de matières scientifiques, mais pas uniquement, avec une culture informatique ou pas, se sont formés en ligne et en présentiel, à la fois individuellement et en se regroupant.
Les professeurs ont également créé l’ Association des enseignantes et enseignants d’Informatique de France (AEIF) pour se regrouper et développer des échanges entre eux. Un forum est né, permettant de communiquer sur leur enseignement. Leur devise est “faire communauté”.
Leurs collègues de l’enseignement supérieur et de la recherche les ont aidés en proposant des formations accélérées à travers le territoire et en ligne, tandis que des sites de ressources se sont multipliés.
Notons aussi que plusieurs personnes travaillant dans l’informatique se tournent vers l’enseignement. Voir l’interview de Jean-Marc Vincent qui donne quelques conseils à ces profils de professionnels pour se préparer au mieux à une reconversion.
Peut-on donner quelques exemples de ressources ?
Au delà d’une formation aux fondamentaux et d’une galaxie de sites pour les collègues présentées en annexe, on peut citer la forge (https://forge.aeif.fr/ ) des Communs Numériques Éducatifs qui est un dépôt permettant le développement collaboratif de codes et contenus pédagogiques sous licence libre, par et pour les enseignants et leur élèves. Un autre lieu de partage de projets.
Notons aussi l’initiative NSI-cookies que présente Stéphane Renouf sur ce lien, qui offre un accompagnement sur le long terme au fil des besoins de la communauté.
Le mot de la fin ?
Continuons à faire communauté pour partager, interagir, échanger des idées et des pratiques pédagogiques , créer des ressources, des logiciels pour l’enseignement de l’informatique pour toutes et tous.
Charles Poulmaire, professeur d’informatique dans le secondaire, formateur de professeurs et président fondateur de l’AEIF et Sherazade Djeballah, étudiante en master 2 MEEF, parcours cadre éducatif et en alternance au sein du service d’Inria Learning Lab, avec Aurélie Lagarrigue ingénieure pédagogique multimédia au Learning Lab Inria.
Annexe: une galaxie de sites pour les collègues qui enseignent l’informatique.
https://mooc-forums.inria.fr/moocnsi facilite la recherche d’information sur ces sujets, et permet de discuter entre pairs sur tous les sujets, au-delà des listes de discussion pour NSI et SNT.
C’est aussi une galaxie de partenaires que l’on retrouve sur ce lien.
Annexe: les 4 raisons de suivre les MOOCS “Numérique et Sciences Informatiques, NSI” sur la plateforme FUN et les ressources associées.
Le cours “NSI : les fondamentaux”, permet d’acquérir les bases théoriques dans tous les champs de l’informatique, nécessaires à l’enseignement de la matière NSI : Numérique et Sciences Informatiques. Il est complété par un cours sur “NSI: apprendre à enseigner” qui est basé sur l’échange de pratiques professionnelles pour se questionner sur la didactique de l’informatique.
Raison n°1 : Se préparer à l’enseignement de la spécialité Numérique et Sciences Informatiques (NSI)
S’appuyant sur le programme officiel d’NSI, ces formations offrent un parcours complet (plus de 200 heures de formation), permettant de découvrir l’ensemble des domaines de l’informatique, tels que : représentation et traitement des données, programmation, algorithmique, architecture matérielle, réseau et système d’exploitation. En suivant ce parcours gratuit et disponible en ligne, vous pourrez monter en compétences sur le programme de NSI, ce qui vous aidera à préparer le CAPES informatique puis à enseigner l’informatique au niveau du secondaire supérieur.
Raison n°2 : Se former auprès d’enseignants experts
Ces formations sont des œuvres collectives avec plus de 10 auteurs, dont certains font partie du jury du CAPES informatique. Parmi les intervenants, on trouve des enseignant.e.s de NSI et des enseignant.e.s-chercheur.e.s de différentes disciplines : informatique, linguistique, épistémologie, didactique.
Raison n°3 : Des cours articulant théorie et pratique.
Chaque module du Mooc “NSI : les fondamentaux” est composé d’un cours en ligne complet disponible en vidéo ou au format textuel, de quiz et d’activités complémentaires tel que l’outil UpyLaB pour se former au langage de programmation Python.
Le Mooc “NSI: apprendre à enseigner” est basé sur une pédagogie par l’action grâce à des activités de mise en situation professionnelle, d’échanges au sein d’une communauté de pratique et à l’évaluation par les pairs permettant de prendre du recul sur ses propres méthodes d’enseignement.
Raison n°4 : Construisez-vous un réseau d’enseignants NSI.
Ce cours propose un forum où se côtoie une communauté de pratique via la Communauté d’Apprentissage de l’Informatique (CAI), l’Association des enseignantes et enseignants d’informatique de France (AEIF) et la communauté d’apprenants du MOOC. Sur ce forum, vous pourrez échanger sur les contenus des MOOCs NSI, mais aussi sur d’autres thématiques plus larges en lien avec les bonnes pratiques à adopter ou les dernières actualités liées à l’enseignement de NSI.
La bataille pour une science accessible et gratuite n’est pas simple: elle nécessite de la passion, des bénévoles, des équipes, des infrastructures, des lecteurs et tout simplement des moyens. Celle de Scilogs.fr arrive à son terme. Ceci est le clap de fin d’une aventure de 10 ans. Laissons la parole à Philippe Ribeau-Gésippe, Responsable numérique du magazine PourlaScience.fr. Ikram Chraibi Kaadoud.
Cette année, cela fera 10 ans que Scilogs.fr existe. Cette plateforme de blogs avait été lancée en 2013 par Pour la Science avec l’idée de fédérer une communauté de blogueurs issus du monde de la recherche et réunis par l’envie de vulgariser leurs travaux avec l’exigence de rigueur qui fait la marque des magazines Pour la Science et Cerveau & Psycho.
Depuis lors, près de 30 blogs, dont Intelligence Mécanique, ont ainsi été ouverts sur Scilogs.fr, et près de 3000 articles publiés, souvent passionnants.
Mais proposer une plateforme telle que Scilogs.fr a un coût. Des coûts d’hébergement et de maintenance, d’une part, nécessaires pour mettre à jour les versions du système et intervenir en cas de panne ou d’attaque informatique. Et des ressources humaines, d’autre part, pour gérer les problèmes, recruter de nouveaux blogueurs, aider les auteurs ou promouvoir les nouveaux articles sur les réseaux sociaux.
Nous avons consacré à Scilogs.fr autant de temps et d’investissements qu’il nous était raisonnablement possible de le faire, car nous étions convaincus que c’était un beau projet. Hélas, le succès n’a pas été à la hauteur de nos espérances, et, Scilogs.fr n’a jamais réussi à trouver un modèle économique viable.
Nous sommes donc au regret d’annoncer que Scilogs.fr est arrêté mais reste disponible
Les associations des Petits Débrouillards forment un mouvement associatif international d’éducation populaire à la culture scientifique et technique, mettant la pédagogie active et la démarche scientifique au centre des méthodes de médiation. Et quand un chercheur Inria va participer à une de ses actions, il revient avec un tel enthousiasme qu’il a envie de partager cette rencontre au sein d’un quartier. Témoignage en images. Marie-Agnès Enard et Pascal Guitton .
Il est 8h30, je suis un chercheur en informatique depuis des années, et ce mercredi je vais aller aider deux animatrices scientifiques qui vont proposer à des enfants de construire des petits robots en carton recyclé pour commencer à comprendre la robotique et la pensée informatique.|
Je suis en plein cœur de la vieille ville de Grasse, si jolie, et je cherche le Café des Roses, Place aux Herbes, un peu perdu. Une devanture est ouverte, juste à côté de la fontaine et des maisons de pierre du XIXème, où c’est jour de marché alimentaire. Ce n’est ni un commerce, ni une entreprise, juste un lieu ouvert avec des tables et de quoi s’asseoir, quelques jeux de société, et des jeux pour enfants, et de quoi offrir le café. J’y demande mon chemin, et la jeune femme qui accueille me sourit : en fait, je suis arrivé.
Dans quelques minutes elle saura que je me nomme Thierry et elle Zoulikha; non elle ne connaît ni la chanteuse algérienne, ni la poétesse féministe du même prénom, oui son prénom a une signification (belle et bien portante, me dira le web) comme tous les prénoms de ces parties du monde de la chine aux amériendien·ne·s, mais elle ne s’en est jamais soucié. Elle anime ce lieu pour toutes et tous, de tous âges et de tout milieux, et propose qu’on installe notre atelier de culture scientifique … sur la place, en pleine rue.
Ça on l’avait jamais fait. Aucun boucher d’un marché n’avait eu la gentillesse de pousser son camion de quelques centimètres pour qu’on installe les tables, les kits pédagogiques et les outils à utiliser. On avait pas encore juste attendu que les enfants passent sur la voie publique, jusqu’à être une bonne douzaine, que la petite sœur fasse venir la grande et son frère, qu’une autre maman installe la grand-mère au milieu des enfants pour s’initier avec nous, qu’une gentille dame atypique découvre pouvoir construire un robot et s’amuser comme une enfant de sa réussite, que des touristes finlandais et flamands viennent se faire expliquer l’approche pédagogique (voir cet article de présentation) et saluent que ces kits robotiques soient essentiellement fait de matériel recyclés (à part moins de 3€ de composants électriques), ou qu’une responsable de l’IME local note devoir nous recontacter pour élargir les publics que nous avons le plaisir de toucher, avec ces actions de médiation scientifique ultra simplifiées : à destination des publics qui sauraient moins profiter des ressources plus élaborées, qu’on partage usuellement depuis des années.
Aucun angélisme de notre part, dans ce quartier où choukrane (شكرا) veut plus souvent dire merci que thank-you, et où nos animatrices franco-portugaise et d’origine brésilienne ont découvert que le portugais cap-verdien est suffisamment éloigné du leur pour que ce soit, avec bonheur, à travers des gestes et quelques mots-clés que l’activité a pu être partagée. Beaucoup d’autres sont simplement venu·e·s voir, glanant juste une explication ou repartant seulement avec un mini grain de science, surpris que soit facile à piger. Il y a aussi celles et ceux qui ne se sont pas arrêté, parce que la science ne pouvait définitivement pas les concerner, dégoûté peut-être, ou ne pouvant oser essayer, et cet (unique, en une matinée) jeune qui passait et qu’il a fallu gentiment rattraper pour qu’il ne parte pas avec un des outils.
Il est midi, au pied de la fontaine qui, avec sa grosse coupe de fruits sculptée au sommet, surplombe la douzaine de petits robots qui zigzaguent sur le sol pavé en une danse saccadée, dans les rires et les hourras des enfants de tous âges, qui ont toutes et tous réussi l’atelier.
Tout ça n’était qu’une petite goutte d’eau, il faudrait tellement plus pour que la France, bleue blanc rouge, multi-colore ou arc en ciel, se rassemble pour mieux comprendre le monde numérique auquel personne ne peut échapper, sans juste le consommer ou le subir. Heureusement, demain, et tous les jours à venir, sur place, les Pti’Debs sont là, comme Benoit ou Soledad, au contact pérenne de ces jeunes pour les emmener de la médiathèque à la conviction que la science c’est aussi pour elle et eux dans un monde qu’eils peuvent maîtriser, et y bâtir leur avenir.
Une rencontre avec un lieu et avec des personnages parfois insolites … aux Petits Débrouillards, Albert Jacquard a développé cette vision de « l’art de la rencontre » avec la diffusion de la culture scientifique comme un partage, une collaboration, comme il en parle ici, à la radio ou comme on lit à travers cet hommage. Une telle rencontre telle qu’il l’a décrite, par le biais des sciences, apporte une dimension supplémentaire qui nous fait découvrir l’autre avec empathie, par le truchement de ce partage d’un bout de sciences.
ChatGPT. Avant d’en parler, de croire qu’il va tout faire, même la vaisselle, d’en avoir peur parce qu’il va détruire les emplois, de s’émerveiller parce qu’il a dit quelques phrases qui avaient l’air intelligentes, de le traiter de nul parce qu’il dit des bêtise, de l’engueuler parce qu’il refuse de dire une absurdité, avant de nous faire une opinion, peut-être pourrions-nous passer un peu de temps à essayer de comprendre ce que c’est ? Serge Abiteboul.
Chiche ?
Pour ça, vous pouvez écouter David Louapre qui explique si bien, les bases de ChatGPT, et comment il a été conçu à partir du modèle de langage GPT :
Et vous pouvez trouver quelques mots de plus sur son blog pour en savoir plus (en particulier sur la notion de « transformer »), ou même, aller en discuter dans son salon discord.
Et bien entendu vous pouvez bien sûr, soyez fous, essayer ChatGPT !
Oui, mais encore ? Comment mieux comprendre comment se manipule le langage humain au sein de tels algorithmes ? C’est dans cette vidéo que David vous expliquera cette mécanique :
Attendez … peut-être souhaitez-vous aussi retourner aux bases et mieux comprendre ces histoires d’apprentissage machine, en particulier l’apprentissage profond, si performant et tant utilisé ? David est encore là :
Alors ChatPGT et cie. ? Peut-être avant de se faire une opinion, cela vaut le coup de le démystifier, de comprendre ce que c’est, ce que l’on peut et veut en faire, de manière sereine et éclairée et, au-delà, de se doter d’une culture scientifique en informatique.
En tout cas, retenons que les informations fournies par ChatGPT peuvent être erronnées, y compris en violation du RGPD , qui stipule que les données personnelles traitées doivent être exactes, comme cela est discuté ici, tandis que nou nous sommes tous amusés à tester cela sur nous même.
– Une formation citoyenne https://classcode.fr/iai développée avec des spécialistes en sciences du numériques et sciences de l’éducation (voir cet article scientifique) est librement utilisable et réutilisable.
Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », partageons une approche rendue encore plus indispensable avec le numérique : l’esprit critique. A l’heure des infox (fake news), du renforcement du complotisme, de la guerre qui est aussi devenue informationnelle, ou plus simplement de l’irruption de ChatGPT, l’apprentissage de l’esprit critique est/devrait être une priorité éducative. Mais … comment faire ? Et si nous commencions par regarder ce que les sciences de l’éducation nous proposent à travers ce petit texte issu des échanges tenus lors d’une table ronde. Thierry Vieville etPascal Guitton.
L’esprit critique est une démarche de questionnement des opinions ou des théories. Je m’intéresse aux arguments utilisés, à ce qui conduit à les exprimer.
Je fais preuve de curiosité pour le point de vue des autres :
« Ce que tu dis m’intéresse ».
J’offre volontiers une écoute sincère et bienveillante. Je me positionne de manière modeste, mais reste lucide sur ce qui est dit et ce que l’on sait :
« Pensons par nous-même, sans préjugé ».
Car les affirmations ne sont à priori, ni vraies, ni fausses, ce sont des hypothèses, que l’on se donne le droit d’examiner, sans porter de jugement, pour retenir celles qui résistent mieux que les autres à la réalité des faits ou à l’examen de notre raison.
« Oui, mais tu es d’accord avec moi ou pas ? »
J’ai aussi le droit de ne pas trancher : de prendre un peu de temps pour comprendre comment s’est formée ta façon de penser et quelles en sont les conséquences, de discerner ce qui est un fait établi, de ce qui est un simple exemple ou un avis (que je respecte). Je peux aussi avoir besoin d’en savoir plus, de découvrir que les choses sont peut-être plus complexes qu’on ne pourrait le penser.
Et surtout, dans la démarche de l’esprit critique, on ne cherche pas à convaincre un tiers de se rallier à sa cause ou d’être d’accord avec soi, mais à l’aider à construire sa propre vision d’une vérité.
« Hou là là, les choses sont compliquées avec toi ! »
Il est vrai que ce n’est pas facile de définir l’esprit critique, puisque il s’agit justement de quelque chose d’assez large, qui n’est pas figé. Prenons le risque de partager ici une proposition … à critiquer Disons, pour en discuter, que c’est à la fois un état d’esprit et un ensemble de compétences (résumées dans les carrés bleus) :
« Est ce que ça te parle ? »
« Oui, mais doit-on utiliser l’esprit critique pour tout du matin au soir ? »
« Non ! Tu as totalement raison.»
LES LIMITES DE L’ESPRIT CRITIQUE.
L’esprit critique n’a certes pas lieu de s’exercer tout le temps. Dans le métro parisien, quelle surprise, voilà un tigre qui arrive :
« C’est une espèce (elle-même divisée en neuf sous-espèces) de mammifère carnivore de la famille des félidés (Felidae) du genre … »
« Stop ! Ou plutôt : sauve qui peut !! Ce n’est sûrement pas le moment d’exercer son esprit critique mais de … courir. »
« Que dis tu ? Que la probabilité qu’il y ait vraiment un tigre station « Edgard Quinet » est inférieure à celle de … »
« Euh, ça te dérange-pas là qu’on te laisse seul·e confronter ton hypothèse aux faits ? »
Il est clair que ce n’est pas en déployant son esprit critique qu’on a le plus de chance de survivre ici. C’est logique : si je fuis mais que ce n’était pas un vrai tigre, je suis certes un peu ridicule, mais … vivant ! Tandis que sinon …
D’ailleurs, ce que nous comprenons du cerveau montre que ce n’est pas en développant notre esprit critique que notre frêle espèce a survécu, mais plutôt en acquérant des comportements relativement prédéfinis et « opérants » c’est à dire permettant de déclencher une action adaptée à la plupart des situations critiques qui peuvent arriver, et en généralisant à d’autres cas, ce qui a été appris sur des cas particuliers. Cela ne marche pas toujours, et ce n’est pas très scientifique, mais cela a servi à notre espèce humaine d’être encore en vie.
Et puis, lorsque tu es venu·e me dire que tu m’aimes de tout ton être, et que j’étais la personne de ta vie, tu n’attendais pas en réponse que je te dise : « Oh, voici une hypothèse fort intéressante, analysons ensemble les causes socio-culturelles de ce ressenti psycho-somatique pour en faire conjointement l’étude critique ».
Bien entendu, en science, l’esprit critique doit prévaloir. Vraiment tout le temps ? Dois-je remettre en cause chaque résultat (par exemple refaire toutes les démonstrations mathématiques pour me forger ma propre certitude), douter de tous les résultats scientifiques puisque Albert Einstein lui-même a commis la « plus grosse » erreur de toute la physique ? Ce ne serait pas très efficace, et le travail collectif de la communauté scientifique repose sur la confiance. Le point clés est de prendre le risque de travailler avec des modèles réfutables.
Cette idée peut paraître surprenante : une hypothèse est scientifique si, sans être (encore) réfutée, on peut concevoir une expérience capable de la réfuter. Ainsi, le fait qu’il y ait des petits elfes magiques invisibles, disons rose fluo, pqui ar exemple, habitent dans la forêt de Brocéliande, n’est pas scientifique, non pas parce que c’est faux (qui peut prouver que non : ils sont totalement invisibles !), mais non réfutable. De plus, qui peut s’arroger le droit de m’empêcher de rêve ?
« Ah ben ça alors !!! Te voilà bien critique sur l’esprit critique que tu veux partager »
Oui regarde : je n’ai pas cherché à te convaincre en argumentant de l’intérêt de l’esprit critique, mais j’ai cherché avec sincérité à réfléchir avec toi sur ce sujet, en prenant le risque de remettre en cause mon propre point de vue.
Te voilà devenu curieux sur ce sujet : c’est l’essentiel. Osons le pluralisme. Discernons ce que nous savons avec une certaine certitude, de ce qui est une interprétation, ou une simple préférence. Soyons curieux de la manière dont se forment les connaissances : débattre de savoir si il y a vraiment des êtres magiques dans la forêt de Brocéliande serait vain, se demander pourquoi j’en suis arrivé à me l’imaginer et à y croire, me serait bien plus utile.
Et si je faisais partie d’une secte délétère, plutôt que de me jeter à la figure, je ne sais quelle argumentation critique qui ne ferait que me braquer dans la justification à outrance de ma posture, tu m’aiderais bien plus en m’acceptant avec ce besoin d’appartenance à un tel groupe, fut-il toxique, et en me proposant d’expliquer la démarche qui m’a conduit à cette extrême, m’offrant alors la chance de prendre du recul.
Ainsi, si on présente l’esprit critique comme allant de pair avec une idéologie « républicaine », non religieuse, forcément objective (voir même positiviste), excluant toute superstition, quoi de pire pour exclure d’emblée un·e croyant·e, ou qui s’est construit sa vision du monde à partir de savoirs traditionnels ? Une personne croyante peut très bien adopter une démarche d’esprit critique, y compris vis à vis de sa croyance, dans le but non pas de l’atténuer ou de la remettre en question mais de l’éclairer, voire de la faire évoluer …
« Ah ouais : en fait tu dis qu’il vaut mieux manipuler son interlocuteur …
… qu’argumenter objectivement, il est joli ton esprit critique !!! »
« Excellente critique, pleine d’esprit ! »
Ta remarque est doublement pertinente : transparence oblige et émotion inflige. Oui, ce qui va convaincre un humain est bien plus souvent du domaine de l’émotion, du sensible, que de la raison. Combien de fois constate-t-on que c’est par son enthousiasme, voir en montrant aussi ses propres limites, qu’un·e scientifique va partager sa passion et la démarche scientifique avec cette nécessité de prendre du recul sur les choses, d’apprendre à évaluer, à s’informer, à questionner, y compris dans notre quotidien. Il n’y a pas de mal à faire appel à tes émotions, c’est même assez sympa, mais il y a un immense « mais ».
Le « mais » est de le faire de manière transparente, de prendre le temps de se retourner sur sa démarche elle-même, de dire regarde « j’ai fait appel à tes émotions » et je te le dis pour ne jamais te tromper en aucune façon. Il faut partager les contenus, avec la démarche de partage de ces contenus : on parle de médiation scientifique participative.
« C’est curieux tu ne m’as pas fait changer d’avis, mais m’a permis de voir les choses autrement, en plus grand … …«mais je ne vois toujours pas l’utilité ! »
À quoi bon développer son esprit critique ?
C’est la question la plus importante, mais aussi la plus facile à résumer. Pourquoi développer son esprit critique ? Pour ne pas se laisser abuser par les fausses nouvelles qui peuvent circuler, oui par certains médias qui -pour survivre commercialement- ont besoin de nous alpaguer par du sensationnel ou sur-communiquer sur des fpas être en phase avec la phrase « Si on présente l’esprit critique … non religieuse…aits divers, pendant que des informations de fond moins vendeuses sont masquées ; pour offrir une alternative à cette société qui semble ne nous offrir qu’être pour ou contre et non penser de manière nouvelle ou alternative, quel que soit le sujet ; pour que moi ou toi nous restions vraiment libres de choisir selon nos aspirations profondes et pas sous l’influence de qui parle beau à défaut de parler vrai ; pour faire des choix éclairés dans notre vie de tous les jours et aussi pour le plaisir : car il y a grand plaisir intellectuel, tu sais, à « faire un usage libre et public de sa raison » comme disait Emmanuel (on parle ici de Emmanuel Kant :) ). Voilà pour quoi il faut de manière critique développer son esprit critique.
« T’as rien à ajouter ? » « Si : moi aussi je t’aime de tout mon être (imaginaire), c’est toi mon petit elfe rose fluo magique »
Texte de synthèse des propos de Camille Volovitch, Christophe Michel, Elena Pasquinelli et Nicolas Gauvrit lors de la table ronde sur l’esprit critique proposé lors du séminaire de médiation scientifique Inria, de 2018, édités par Sylvie Boldo et Thierry Viéville, repris de https://pixees.fr/critique-de-lesprit-critique.
Pour aller plus loin :
Former l’esprit critique des élèves
Esprit scientifique, esprit critique
Jouer à débattre
Raison et psychologie
Esprit critique

Isoloir : la citoyenneté numérique, c’est possible ?