Catégorie : Web/Tech

  • De l’impact de l’IA sur l’industrie manufacturière

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers,  en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Pierre-Emmanuel Dumouchel, fondateur et Directeur Général de la start-up Dessia Technologies, réalisée par Pascale Vicat-Blanc, avec l’aide d’Erwan Le Merrer, président du conseil scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

    1. Bonjour Pierre-Emmanuel, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ?

    Pierre-Emmanuel

    Dessia Technologies est une jeune start-up fondée en 2017 par d’anciens ingénieurs de PSA Peugeot Citroën. Nous sommes basés en région parisienne et comptons aujourd’hui une quarantaine de collaborateurs. Notre mission est d’aider les grandes entreprises industrielles, notamment dans les secteurs automobile, aéronautique, ferroviaire et naval, à digitaliser leurs connaissances et à automatiser des tâches de conception grâce à l’intelligence artificielle. Nous travaillons avec des clients prestigieux comme Renault, Valeo, Safran, Airbus, Naval Group et Alstom. Nous utilisons par exemple des algorithmes d’IA pour automatiser le design des câblages électriques ou pour générer des architectures de batteries électriques. Forts de deux levées de fonds, nous sommes soutenus par quatre fonds d’investissement, dont celui d’Orano.

    2. En quoi pensez-vous que l’IA a déjà transformé votre métier ?

    L’intelligence artificielle a transformé en profondeur la manière dont les ingénieurs abordent la résolution de problèmes. Avant l’arrivée de ces technologies, les ingénieurs cherchaient principalement une ou deux solutions optimales pour répondre à un problème donné. Aujourd’hui, grâce à l’IA, ils explorent un éventail beaucoup plus large de solutions possibles. Les modèles génératifs, en particulier, permettent de proposer automatiquement de nombreuses alternatives et de hiérarchiser les options selon des critères précis. Cette évolution a modifié le rôle de ces ingénieurs, qui se concentrent désormais davantage sur l’analyse et la sélection des meilleures solutions pour leur entreprise.

    3. À quels changements peut-on s’attendre dans le futur ? Quelles tâches pourraient être amenées à être automatisées ? À quel horizon ?

    Dans le futur, l’interaction homme-machine sera profondément redéfinie grâce aux LLM (« Large Language Models » ou grands modèles de langage). Ces modèles remplaceront les interfaces graphiques traditionnelles par des interactions écrites ou orales, rendant les outils d’ingénierie plus intuitifs et accessibles. Les ingénieurs deviendront des gestionnaires de processus automatisés, orchestrant des agents autonomes pour exécuter des tâches techniques. La plupart des activités actuellement réalisées manuellement, comme la configuration de systèmes complexes ou la gestion de chaînes logistiques, seront automatisées d’ici 5 à 10 ans. Le rôle des ingénieurs évoluera donc vers un travail décisionnel, où ils valideront les choix proposés par les systèmes automatisés, favorisant une approche collaborative et stratégique.

    Ainsi, lIA révolutionne particulièrement l’interaction et l’expérience de l’humain (UX) vis-à-vis des systèmes numériques. Les techniciens n’échangent plus via des pages HTML mais interagissent avec des éléments de savoir, grâce au langage naturel et via des messages communiquant leurs intentions de manière concise (prompt). L’IA générative permet donc de repenser les univers d’interaction traditionnels (via une « souris » et un écran) pour aller vers des univers d’interaction fluide en 3D et en langage naturel.

    Demain, les interactions se feront via des agents : des automates réalisant des tâches pour le compte des ingénieurs. Les humains travailleront de concert avec des agents spécialisés, tels que les agents spécialistes de l’architecture électrique, avec ceux de l’architecture 3D et ceux des problèmes thermiques, qui se coordonneront entre eux. Ces agents permettront de résoudre des problèmes de conception en ingénierie qui sont actuellement insolubles, tels que concevoir une architecture de batterie ou un véhicule pour baisser l’empreinte carbone.

    Une ou un ingénieur devra être capable de manipuler de nouvelles briques de savoir, par exemple pour s’assurer que la ligne d’assemblage d’une batterie ou d’un véhicule fonctionne bien, ou comment la faire évoluer, ainsi que le processus de conception. Il s’agit d’une mutation vers l’intégration et le développement continus (CI/CD) des produits manufacturés, réalisés en ingénierie concurrente.

    On entre dans une ère dans laquelle se poseront des questions telles que celle de la sélection des tâches à automatiser et à déléguer à des agents, celle de la structuration du savoir de chaque ingénieur, de la manière de poser des questions, et de collecter des éléments de savoir.

    Les ingénieurs devront aussi brainstormer, collaborer et travailler sur leur expertise pour prendre les décisions à partir des sorties des agents. La collaboration se fera au niveau décisionnel plutôt qu’au niveau opérationnel.

    L’IA remet l’humain au centre. La numérisation a apporté un travail qui s’effectue de manière solitaire, seul derrière son écran. L’IA casse ce mode et pousse à développer un travail plus collaboratif ciblant les aspects stratégiques concernant la tâche à effectuer.

    4. Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ?

    Nous recherchons des profils capables de s’adapter à l’écosystème technologique actuel et de tirer parti des outils modernes comme les LLM. Par exemple, dans les métiers marketing et vente, nous attendons une maîtrise des outils génératifs pour créer du contenu ou analyser des données de marché. Du côté des ingénieurs et data scientists, une bonne compréhension des algorithmes d’IA, des outils d’automatisation et des techniques de prototypage rapide est essentielle.

    Ces remarques et les suivantes sur l’emploi des ingénieurs et autres collaborateurs concernent l’industrie en général et ne sont pas spécifiques à Dessia.

    5. Pouvez-vous préciser quelles formations, à quel niveau ?

    Les formations nécessaires dépendent des métiers, mais une tendance claire se dessine : la capacité d’adaptation et l’auto-apprentissage deviennent des compétences prioritaires. Pour les métiers techniques comme l’ingénierie et la data science, une spécialisation poussée reste essentielle, avec des profils de personnes ayant souvent obtenu un diplôme de doctorat ou ayant une expertise avancée en mathématiques et algorithmique. Pour d’autres postes, les recruteurs privilégient les candidats capables de se former rapidement sur des sujets émergents, au-delà de leur parcours académique, et de maîtriser les outils technologiques en constante évolution.

    Les nouveaux employés devront ainsi s’adapter à de plus en plus d’exigences de la part des employeurs, ils devront avoir une expérience en IA, en pilotage de projets d’IA. Non seulement dans les domaines de l’ingénierie mais aussi des ventes. Il devront connaitre l’IA, utiliser les LLM, avoir de très bonnes qualités humaines et relationnelles.

    6. Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables ?

    Toutes les fonctions au sein d’une entreprise devront intégrer l’IA à leur activité, car cette technologie est en passe de devenir une nouvelle phase de digitalisation. Les entreprises qui ne suivent pas cette transformation risquent non seulement de perdre en compétitivité, mais aussi de rencontrer des difficultés à recruter des talents. L’IA deviendra un standard incontournable pour améliorer la productivité et attirer les jeunes générations, qui recherchent des environnements de travail modernes et connectés.

    7. Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique ?

    Nous ne faisons pas de distinction stricte. Chaque rôle dans l’entreprise doit intégrer l’IA, quil s’agisse de marketeurs utilisant des outils génératifs pour automatiser des campagnes ou d’ingénieurs chefs de projets s’appuyant sur l’IA pour optimiser la gestion de leurs plannings. Les développeurs travailleront en collaboration avec des agents IA pour accélérer leurs cycles de production, tandis que les CTO et managers utiliseront des outils intelligents pour piloter leurs indicateurs de performance. Cette polyvalence est au cœur de notre approche.

    8. Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables ?

    Nous privilégions des approches de transformation ciblées et pratiques plutôt que des formations classiques. Par exemple, un ou une ingénieure avec des compétences en VBA (note : Visual Basic for Applications) pourrait être accompagné pour se former à Python et à l’automatisation, augmentant ainsi sa valeur ajoutée dans l’entreprise. Un collègue secrétaire pourrait apprendre à utiliser des outils « no-code » ou des chatbots pour améliorer la gestion des intranets ou la création de contenus automatisés. Ces plans de transformation, accompagnés d’experts ou de consultants, permettront aux employés de devenir les acteurs de leur propre évolution.

    9. Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA ?

    Nous appelons à une plus grande ouverture dans l’écosystème de l’intelligence artificielle, en particulier à travers l’open source. Cela permettrait de garantir une compétitivité équilibrée et d’éviter une concentration excessive de pouvoir entre les mains de quelques grands acteurs. Les modèles d’IA devraient être facilement personnalisables et utilisables en local pour protéger les données sensibles des entreprises. Cette approche favoriserait un écosystème plus collaboratif et innovant, permettant à un plus grand nombre d’entreprises de bénéficier des avancées technologiques.

    Pierre-Emmanuel Dumouchel, fondateur et Directeur Général de la start-up Dessia Technologies, interviewé, par  Pascale Vicat-Blanc, avec l’aide Erwan Le Merrer, avec le concours de la SIF.

     

     

  • Le watermarking à la rescousse

    Biais, hallucinations, création de contenus violents et activités frauduleuses : peut-on encore croire ce qu’on voit et ce qu’on entend ? Un façon d’aborder le problème est de créer des images avec une « vraie signature », indélébile et si possible indétectable, pour les distinguer de « fakes ». C’est possible et c’est ce que Jeanne Gautier et  Raphaël Vienne, nous expliquent ici.  Serge Abiteboul et Thierry Viéville

     

     

     

     

    Vous ouvrez Instagram et tombez nez à nez avec une photo du pape en streetwear. Vous avez tout de même du mal à y croire, et vous avez bien raison ! De nombreux “deepfakes” circulent sur internet : au-delà d’être un outil formidable, l’IA générative présente donc aussi des dangers. La diffusion massive de données générées par IA impose donc de protéger leur propriété, authentifier leur auteur, détecter les plagiats etc. Une solution émerge : le watermarking (ou “tatouage numérique”) qui répond à ces attentes.

    Les deux images (en Creative Commons) ci-dessus vous semblent similaires ? Elles le sont à l’œil nu mais diffèrent pourtant par de nombreux pixels.

     

    Créer un « deep watermartking ».

    Le watermarking devient de plus en plus sophistiqué. On observe une évolution des techniques de watermarking qui se basaient jusqu’ici sur des concepts assez simples  comme un filigrane transparent qui recouvre l’image (« watermark » encodée dans la donnée et qui reste en apparence identique). Apparaît désormais le “deep watermarking” qui induit une altération plus subtile des données, mais qui est aussi plus robuste aux dégradations liées aux manipulations de l’image. Pour être qualifié de “deep watermarking”, un filigrane doit respecter les trois règles suivantes:

    • l’imperceptibilité : la distorsion doit restée invisible à l’œil humain.
    • la capacité : on doit pouvoir introduire de l’information dans le tatouage comme la date ou une signature.
    • la robustesse : le filigrane doit rester détectable même si l’on transforme l’image.

    Pourquoi utilise-t-on le terme “deep” ? Parce que ces méthodes se basent sur des algorithmes d’apprentissage profond, ou “deep learning” en anglais. Il s’agit d’un procédé d’apprentissage automatique utilisant des réseaux de neurones possédant plusieurs couches de neurones cachées.

    Il est possible d’appliquer de tels filigranes sur des images préexistantes par un processus qualifié “d’encodeur-décodeur” :

    – Le modèle d’encodage prend deux entrées : une image brute et un message texte. Il cache le texte dans l’image en essayant de le rendre le moins perceptible possible.
    – Le décodeur prend en entrée l’image tatouée et tente de récupérer le texte caché.

    L’encodeur et le décodeur sont entraînés pour travailler ensemble : le premier pour cacher un message dans une image sans l’altérer visuellement et le second pour retrouver le message dans cette image altérée.

    Comme, en pratique, l’image tatouée peut subir des modifications (recadrage, rotation, flou, ajout de bruit), des altérations aléatoires sont appliquées aux images exemples, au cours du processus,  pour entraîner le décodeur à tenir compte de ces altérations.

    Mieux encore, on peut intégrer, donc encoder, le tatouage directement lors de la création d’images.

    Comment fonctionnent les générateurs d’images avec  watermark ?

    Les générateurs d’images sont basés sur ce qu’on nomme en intelligence artificielle des modèles de diffusions, comme expliqué le puis simplement possible ici.

    Assez simplement, le système apprend, à partir d’un énorme nombre d’exemples, à passer d’une image où toutes les valeurs sont tirées au hasard (un bruit visuel aléatoire), en prenant en entrée une indication textuelle décrivant l’image souhaitée, à des images de moins en moins aléatoires, jusqu’à créer l’image finale. C’est cette idée de diffuser progressivement l’information textuelle dans cette suite d’images de plus en plus proches d’une image attendue qui fait le succès de la méthode. 

    Visualisation du processus de diffusion vers l’avant où un algorithme ajoute progressivement du bruit à une image, pour ensuite apprendre au modèle à en régénérer une à partir d’un bruit aléatoire et d’une description de l’image voulue, qui guide la génération, en application le procédé inverse © Dr. Souhir Ben Souissi sur societybyte.swiss.

     

    Il est alors possible d’incorporer le watermark directement lors de la diffusion : on oriente ce processus en le déformant (on parle de biais statistique), en fonction du code secret, qu’est le watermark. Comme cette déformation ne peut être décodée, seule l’entité générant le texte, peut détecter si le tatouage, est présent.

    Comment ça marche en pratique ?

    Le watermarking est comme un produit « radioactif » : un modèle entraîné sur des données tatouées reproduit le tatouage présent dedans. Ainsi, si un éditeur utilise le produit tatoué d’un concurrent pour l’entraînement de ses propres modèles, les sorties de ce dernier posséderont également la marque de fabrique du premier !

    Le watermarking a donc vocation de permettre aux éditeurs de modèles de génération de protéger leur propriété, puisque c’est une technique robuste pour déterminer si un contenu est généré par une IA et pour faire respecter les licences et conditions d’utilisation des modèles génératifs. Cela dit, il est essentiel de continuer à développer des techniques plus robustes, car tous les modèles open-source n’intègrent pas encore de mécanismes de watermarking.

    Tom Sander, photo de son profil sur LinkedIn.

    Cet article est issu d’une présentation donnée par Tom Sander chez datacraft. Tom est doctorant chez Meta et travaille sur des méthodes de préservation de la vie privée pour les modèles d’apprentissage profond, ainsi que sur des techniques de marquage numérique. Nous tenons à remercier Tom pour son temps et sa  présentation.

    Jeanne Gautier, Data scientist chez datacraft & Raphaël Vienne, Head of AI chez datacraft .

    Pour aller plus loin :

  • Biais selon la langue dans Wikipédia, Google, ChatGPT et YouTube

    Cet article est paru le 8 octobre 2024 sur le site ami de Laurent Bloch sous licence Creative Commons. Laurent  y commente l’article « A Perspective Mirror of the Elephant » de Communications of the Association for Computing Machinary, la principale revue mensuelle de la première des associations internationales dédiées à l’informatique. Serge Abiteboul. 

    Une révolution cognitive, des divergences culturelles

    Nul doute que les chercheurs qui étudieront l’histoire de la pensée au tournant du XXIe siècle accorderont un chapitre substantiel à l’apparition des moteurs de recherche et des encyclopédies en ligne, qui apportent dans les lieux les plus reculés et aux populations les plus démunies des connaissances et des informations naguère réservées aux habitants de villes universitaires dotées de bibliothèques et de librairies, et seulement au prix de temps de recherche bien plus importants. Il n’est pas excessif de parler ici de révolution cognitive.

    Il faudrait d’ailleurs parler plutôt du moteur de recherche et de l’encyclopédie en ligne, parce que le Google Search et Wikipédia sont en position de monopole (temporaire), conformément aux lois des rendements croissants et de la concurrence monopolistique [1]. Mais là n’est pas le sujet pour l’instant.

    L’utilisateur régulier de ces outils si commodes aura pu faire une remarque empirique : pour Wikipédia par exemple et si l’on s’en tient aux articles des domaines techniques, des sciences de la nature ou de l’informatique, selon la langue d’interrogation la qualité des articles peut varier, mais leur teneur informationnelle ne sera pas trop hétérogène, essentiellement parce que les termes scientifiques et techniques sont généralement dotés de définitions relativement claires et univoques, peu sujettes à controverses idéologiques. Si par contre on va sur le terrain des sciences humaines et sociales, on peut tomber sur de vraies divergences de vue. Et ne parlons pas des sujets politiques, historiques ou culturels…

    Une démarche systématique sur deux domaines bien délimités

    Queenie Luo, Michael J. Puett et Michael D. Smith, auteurs de l’article dont il est question ici [2], se sont donné pour tâche un examen systématique de ce biais selon la langue, qui est en fait un biais culturel et politique, entre plusieurs versions de Wikipédia, Google, ChatGPT et YouTube. Ils ont choisi deux sujets, le bouddhisme et le libéralisme, et douze langues, anglais, français, allemand, chinois, thaï, vietnamien, italien, espagnol, russe, coréen, népalais et japonais, avec l’aide de connaisseurs de ces langues et des cultures qui les utilisent.

    L’introduction de l’article repose sur une fable du folklore indien : six aveugles croisent un éléphant, chacun peut toucher une partie de l’animal, et chacun arrive à des conclusions complètement différentes sur la nature de ce qu’ils ont rencontré [3].

    De même, lorsque l’on soumet une question à Google, plutôt que de donner une réponse synthétique globale, le moteur de recherche se base sur la langue d’interrogation pour donner une réponse qui corresponde à l’univers culturel du questionneur, voire à ses biais ethnocentrés. Ainsi, une recherche d’images sur Google par la locution anglaise wedding clothes donnera des images de costumes de mariage de style occidental, en omettant les kimonos japonais ou les saris indiens.

    C’est pire avec ChatGPT, dont le corpus d’apprentissage (à la date de rédaction de l’article tout du moins) est presque exclusivement en anglais.

    Lors de la soumission de chaque interrogation, nos auteurs ont retenu à fin d’analyse les 50 premiers sites mentionnés par Google, les 35 premières vidéos retenues par YouTube, le texte intégral de l’article de Wikipédia, et cinq réponses de ChatGPT dans cinq fenêtres d’interrogation (de prompt comme il faut dire maintenant) distinctes. Le but des auteurs n’était pas de quantifier la disjonction entre les réponses des systèmes et le corpus global, mais d’identifier les occurrences de ces disjonctions et de commencer à identifier les types de biais qu’elles induisent.

    Les observations

    Bouddhisme

    En 2 500 ans le bouddhisme s’est répandu dans la plupart des pays d’Asie, et connaît depuis quelques décennies un grand succès en Occident, sans oublier les migrations de populations asiatiques vers ces mêmes pays occidentaux. Mais, sans surprise, chacun de ces univers culturels a sa propre acception du bouddhisme, qui est plus un courant de pensée ou une vision du monde, au demeurant peu dogmatique [4], qu’une religion au sens où l’entendent les fidèles des religions du Livre, juifs, chrétiens et musulmans.

    Les interrogations en français et en allemand donnent des liens vers des sites encyclopédiques ou historiques, en anglais on reçoit plutôt des adresses de centres de retraites spirituelles. Le chinois donne la ligne du parti sur l’organisation des monastères bouddhistes, les sites indiqués en réponse à une question en vietnamien évoquent des pratiques rituelles et de mendicité, cependant que le thaï orientera vers une explication de la différence entre le bouddhisme et le culte des fantômes, répandu sur les rives de la Chao Phraya.

    Chaque langue d’interrogation fournit des réponses qui exhibent une forte conformité aux représentations culturelles dominantes de la communauté de ses locuteurs. L’article approfondit la question en examinant les réponses à des questions plus discriminantes, voire sujettes à controverses, en comparant les réponses de Google et celles de ChatGPT, etc. À la différence de Google, ChatGPT, bien que très anglo-centrique, permet qu’on lui demande d’utiliser un corpus linguistique spécifique, par exemple en chinois, mais cela exige un peu de tâtonnement par essais-erreurs. YouTube est très orienté vers les musiques de méditation et les tutoriels, ses biais liés à la langue sont plus prononcés.

    Les articles consacrés au bouddhisme sont très consultés par les adeptes de Wikipédia, dans toutes les langues, mais avec là aussi des sensibilités différentes. L’article attribue une grande influence de Foucault, Derrida et Lacan sur le wikipédien français, cependant que son collègue allemand serait sans surprise plutôt un disciple de Schopenhauer, Heidegger et Nietzsche.

    Libéralisme

    Le libéralisme a une histoire et une géographie complexe : pour les Américains les libéraux seraient assez proches de Bernie Sanders, alors que les Français penseraient plutôt à Bruno Retailleau. Les sites signalés par Google si on l’interroge en anglais donnent une image favorable du libéralisme, au contraire des sites mentionnés en réponse à des interrogations en français, allemand, italien ou espagnol, ainsi que pratiquement tous les sites asiatiques. Dans de nombreux pays asiatiques l’insistance du libéralisme sur la liberté est perçue comme une menace envers l’ordre social, notamment le rôle de la famille et l’importance de l’unité nationale.

    YouTube interrogé en russe diffuse des vidéos qui associent libéralisme et démocratie, et les soupçonnent d’avoir contribué à la chute de l’Union soviétique.

    Bref, selon les histoires et les cultures de chaque domaine linguistique, le terme « libéralisme » a des acceptions différentes, suscite des réactions différentes, et nos outils de recherche et de documentation informatisés nous donnent les réponses que, en moyenne, nous attendons.

    Plus de clivages, ou une synthèse ?

    Nos auteurs reprennent le fil de la métaphore des aveugles et de l’éléphant : les ressortissants de chaque domaine linguistique vont-ils rester attachés à leurs visions unilatérales ? Ou bien, un observateur extérieur capable de faire la synthèse de ces visions diverses va-t-il les éclairer sur le caractère vrai mais incomplet de chacune de ces visions, et les guider vers une vue d’ensemble plus large et plus ouverte aux autres cultures ?

    L’article attire l’attention du lecteur sur le danger de voir ces plates-formes cognitives imposer à chaque population de locuteurs d’une langue donnée le conformisme de la vision majoritaire, d’où résulterait une tyrannie d’opinion. Observons quand même que ce n’est pas nouveau : s’il est facile de comparer les articles de Wikipédia en anglais et en français, il était peut-être plus difficile de comparer ceux du Grand Larousse illustré et de l’Encyclopedia Britannica [5], mais on y aurait sans doute trouvé des biais culturels et politiques similaires.

    Mais justement, l’informatisation des plates-formes cognitives et leur disponibilité planétaire devrait faciliter la présentation au lecteur de points de vue divers et même antagoniques, afin de faire progresser la démocratie et l’ouverture aux cultures autres que la sienne propre.

    Laurent Bloch

    NOTES

    [1]  https://laurentbloch.net/MySpip3/Trump-et-Xi-Jinping-les-apprentis-sorciers#Concurrence-monopolistique

    [2] https://cacm.acm.org/practice/a-perspectival-mirror-of-the-elephant/

    [3] Les spectateurs du film de Rithy Panh Rendez-vous avec Pol Pot ont pu voir une interprétation cinématographique de cette fable.
    https://fr.wikipedia.org/wiki/Rendez-vous_avec_Pol_Pot

    [4] Le lecteur curieux d’en savoir un peu plus sur le bouddhisme pourra lire le délicieux opuscule que lui ont consacré Jorge Luis Borges et Alicia Jurado sous le titre Qu’est-ce que le bouddhisme ? Il y apprendra les différences entre les bouddhismes mahāyāna, vajrayāna, son, zen ou hīnayāna.

    [5] Déjà des amis élitistes m’avaient expliqué que le niveau de l’Encyclopedia Britannica avait chuté lorsqu’elle avait été rachetée par un éditeur américain…

  • De l’impact de l’IA sur les industries culturelles et créatives.

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’Intelligence Artificielle (IA) sur les métiers, en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, Erwan Le Merrer, Président du Conseil Scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

    Bonjour Quentin, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ? 

    Je suis co-fondateur et directeur de l’innovation de  Dada ! Animation, un studio d’animation 2D et 3D orienté « nouvelles technologies » (entendre moteurs de jeux / temps réel, Réalité Virtuelle et Augmentée / XR, ou IA) appliquée à l’animation pour la TV, le cinéma, le web et les nouveaux médias immersifs et de réseaux. 

    De formation ingénieur en Design Industriel de l’Université de Technologie de Compiègne (1994), j’ai basculé vers le monde de l’animation 3D et des effets spéciaux en 1999, en retournant un temps à l’École des Gobelins. J’ai travaillé dans ces domaines en France dans de nombreux studios de différentes tailles, en Allemagne et aux USA (chez ILM, par exemple) et j’ai fondé en 2019 ce nouveau studio suite à des expérimentations réussies avec mes collègues cofondateurs dans une autre structure, où nous basculions les process classiques de la 3D dite « précalculée » vers le « temps réel » (via l’utilisation de moteurs de jeux vidéo comme Unity ou Unreal Engine) et vers la Réalité Virtuelle comme aide à la réalisation. Ces expérimentations nous ont d’ailleurs apporté à l’époque un prix Autodesk Shotgun à la conférence  SIGGRAPH 2019 à Los Angeles. 

    Capitaine Tonus : série d’animation ludo-éducative produite par Dada ! Animation pour Disney Channel, Lumni, TV5 Monde, RTBF, ERR, beIN.© 2024 Dada ! Animation – All rights reserved


    Nous avons passé le pas et focalisé Dada ! Animation sur ces approches nouvelles, auxquelles s’ajoutent maintenant les IA Génératives (IAG) que nous scrutons de près. Nous travaillons par ailleurs aussi sur des thèmes éditoriaux spécifiques et éthiques : le ludo-éducatif, le documentaire, la science, l’écologie, l’inclusivité, etc. 

    Mon travail consiste en énormément de veille technique et de détection de talents nouveaux adaptés à ces approches, en l’organisation de tests, et de préconisations en interne. Je dialogue ainsi beaucoup avec les écoles, les institutions du métier ( Centre National du Cinéma,  Commission Supérieure Technique,  CPNEF de l’Audio-Visuel…) et des laboratoires avec lesquels nous travaillons par ailleurs, pour leur faire des films (CNRS, CNSMDP, INRIA, …), pour tester des solutions techniques (IRISA, Interdigital, …) ou pour de la recherche. 

    Je coordonne d’ailleurs en ce moment un projet ANR, intitulé «  Animation Conductor »,  en collaboration avec l’IRISA, Université de Rennes 1 et LIX, Ecole Polytechnique, sur de l’édition d’animation 3D par la voix et les gestes. 

    L’Archéoconcert : Past Has Ears at Notre-Dame (PHEND). Film réalisé par Dada ! Animation pour le CNRS-Sorbonne Université et le Conservatoire National Supérieur de Musique et de Danse de Paris. © 2024 CNRS – Sorbonne Université – CNSMDP


    Enfin, je suis un membre actif du groupe de travail interstructurel 
    Collectif Creative Machines, regroupant des labos, des studios, des écoles et tout professionnel francophone intéressé par la réflexion sur les impacts des IAG dans nos métiers. 

    En quoi pensez-vous que l’IA a déjà transformé votre métier ? 

    Elle l’occupe déjà beaucoup rien qu’en veille et en colloques, en termes d’inquiétude et de discussions sans fin ! Je passe personnellement au moins 20% de mon temps à en évaluer et en parler… L’IA n’est bien-sûr pas nouvelle dans nos métiers de l’image de synthèse, bourrés d’algorithmes de toutes sortes, renouvelés régulièrement. On utilise même des algorithmes de modification d’images proches de modèles de diffusion (la même famille que Midjourney) depuis 10 ans (par exemple les « denoisers » de NVIDIA, qui accélèrent le rendu final d’images de synthèse), mais bien-sûr, j’imagine que « l’IA » dont on parle ici est celle, de nouvelle génération, souvent générative, propulsée par les récentes avancées des Transformers ou CLIP et par des succès techniques comme ceux d’OpenAI, Runway, Stability, Midjourney, etc. 

    Pour le monde de l’animation, tout ce qui touche le texte (les scénarios, mais aussi le code, très présent) est bien-sûr impacté par les grands modèles de langage (LLMs), mais, j’ai l’impression que c’est principalement en termes d’aide à l’idéation ou pour accélérer certains écrits, jamais au cœur ou en produit final (des problèmes de droits d’auteurs se poseraient alors aussi !), du moins pour du média classique. Pour ce qui est de l’image, idem : pour la partie du métier qui ne la rejette pas complétement (c’est un sujet radioactif du fait des méthodes d’entraînement disons « agressives » vis-à-vis des droits d’auteurs et du copyright), au mieux les IAG sont utilisées en idéation, pour de la texture, quelques fois des décors (ce qui pose déjà beaucoup de problèmes éthiques, voire juridiques). Il n’y a pas encore de modèles intéressants pour générer des architectures 3D propres, de la bonne animation, etc. Et pour cause, les données d’entraînement pertinentes pour ce faire n’ont jamais été facilement accessibles à la différence des images finales ! On n’a pas accès aux modèles 3D d’Ubisoft ou de Pixar… 

    Making-of des séquences animées réalisées par Dada ! Animation pour le pilote du documentaire « Ils étaient des millions ». © Seppia – Indi Film – Arte


    En revanche, les mondes des effets spéciaux visuels (VFX) et du son, en particulier de la voix, ont accès déjà à des modèles puissants de traitement d’images et de sons réels, et de nombreux studios commencent à les intégrer, surtout pour des tâches lourdes et ingrates : détourage, rotoscopie, relighting, de aging/deepfake, doublage, etc. 

    Des défis juridiques et éthiques demeurent tout de même pour certaines de ces tâches. Les comédiens par exemple, luttent pour garder bien naturellement le contrôle professionnel de leur voix (une donnée personnelle et biométrique qui plus est). De nombreux procès sont encore en cours contre les fabricants des modèles et quelques fois contre des studios ou des diffuseurs. Mais il est difficile de ne pas remarquer un lent pivot de l’industrie Hollywoodienne vers leur utilisation (par exemple par l’accord Lionsgate x Runway, James Cameron au board de Stability, des nominations chez Disney, etc.) et ce, alors que ces sujets furent pourtant au coeur des grèves historiques des réalisateurs, acteurs et auteurs de l’année dernière ! 

    On peut parler d’une ambiance de far west dans ces domaines, tant il y a d’incertitudes, qui se rajoutent en ce moment au fait que la conjoncture dans l’audiovisuel et le jeu video est catastrophique et ne promet pas de s’arranger en 2025 (cf. les chiffres du secteur par le CNC au RADI-RAF 2024

    A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ? 

    Pour les effets spéciaux, il devient absurde d’imaginer faire du détourage, du tracking et de la rotoscopie encore à la main dans les mois qui viennent (et c’était le travail d’entreprises entières, en Asie entre autres…) De même, les tâches de compositing, relighting, etc. vont être rapidement augmentées par des modèles génératifs, mais, je l’espère, toujours avec des humains aux commandes. On risque d’ailleurs de voir diverses tâches « coaguler » autour d’une même personne qui pourra techniquement les mener toutes à bien seule, mais pour laquelle la charge mentale sera d’autant plus forte et les responsabilités plus grandes ! On a déjà vécu cela lors de l’avènement des outils de storyboard numérique qui permettaient d’animer, de faire du montage, d’intégrer du son, etc. Moins d’artistes ont alors pu, et dû, faire plus, dans le même laps de temps, et sans être payés plus chers puisque tout le monde fut traité à la même enseigne et que la compétition fait rage…

    Les Designers aussi commencent à voir de leur travail s’évaporer, surtout dans les conditions actuelles où la pression est forte « d’économiser » des postes, sur des productions qui pensent pouvoir se passer d’un regard humain professionnel remplacé par quelques prompts. Cela peut en effet suffire à certaines productions, pour d’autres, c’est plus compliqué. 

    Sinon, dans les process d’animation 3D, ce ne sont pas des métiers, mais des tâches précises qui pourraient être augmentées, accélérées (texture, dépliage UV, modélisation, rig, certains effets). Mais honnêtement, vu la conjoncture, l’avènement des IA de génération vidéo qui court-circuitent potentiellement tout le processus classique, de l’idée de base à l’image finale, vu l’apparition des IA dites « agentiques » qui permettent à des non-codeurs de construire temporairement des pipelines entiers dédiés à un effet, et vu l’inventivité habituelle des techniciens et artistes, il est en fait très dur d’imaginer à quoi ressembleront les pipelines des films et des expériences interactives dans 5 ans, peut-être même dès l’année prochaine ! Et c’est bien un problème quand on monte des projets, des budgets, et encore pire, quand on monte des cycles de formations sur plusieurs années… (la plupart des très nombreuses et excellentes écoles d’animation, VFX et Jeu Vidéo françaises ont des cursus sur 3 à 5 ans). Certains prédisent l’arrivée avant l’été 2025 des premiers studios « full AI ». Cela ne se fera en tous cas pas sans douleur, surtout dans le climat actuel. 

    Développement Dada ! en collaboration avec l’IRISA pour une description « universelle » de contrôleurs d’animation 3D entre logiciels. © 2024 Dada ! Animation – All rights reserved


    Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ? Pouvez-vous préciser quelles formations, à quel niveau ? / Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique. 

    De plus grosses entreprises, selon leurs projets, peuvent embaucher des data scientists et ingénieurs en apprentissage machine, mais la réalité pour la majorité des petits studios est qu’on travaille avec les outils disponibles sur le marché. Au pire, une petite équipe de développeurs et « TD » (Technical Directors, postes paradoxalement entre la R&D et les graphistes) vont faire de la veille des modèles (si possibles disponibles en open-source) à implémenter rapidement (en quelques heures ou jours) dans des solutions de type ComfyUI, Nuke, Blender où ils ont de toute façon la charge de coder des outils. On ne change donc pas vraiment de profils recherchés car ceux-ci étaient déjà nécessaires pour maintenir les productions. En revanche, il est important de trouver des profils qui ont une appétence pour ces nouvelles approches non déterministes et qui aiment « bricoler » des dispositifs qui pourront changer d’une semaine à l’autre au fil des publications scientifiques… C’est tout de même assez typique de profils VFX je pense, même si les rythmes d’adaptation sont plus soutenus qu’avant.

    Pour ce qui est de la formation, il est indispensable pour ces postes qu’ils connaissent ces métiers. Ils doivent donc être issus de nos écoles d’animation / VFX, mais elles ne peuvent former qu’en surface à ces outils car ils changent trop souvent, ils remettent en cause pour l’instant trop de pipelines, et ne permettent pas de créer de cursus stables ! 

    Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables? 

    Tous ceux dont je viens de parler : les techniciens des pipelines, les ITs et a minima les managers pour qu’ils en comprennent au moins les enjeux. 

    Les artistes sont habitués à apprendre de nouveaux algorithmes, qui viennent chacun avec leur particularités. Mais si les nouvelles méthodes impactent trop la distribution des métiers, ce sont les équipes entières qui devront les reconstruire. 

    Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables?

    Cela dépend de leur métier, mais je pense qu’on arrive vers un nouveau paradigme de l’informatique, avec de nouveaux enjeux, de nouvelles limites et possibilités. Tout le monde devrait a minima être au courant de ce que sont ces IAG, et pas que pour leur métier, mais aussi pour leur vie personnelle, pour les risques de deepfake temps réel et autres dangers ! Ca donnera d’ailleurs vite la mesure de ce qu’on peut en faire en terme d’audio-visuel.

    Animation Keyframe en VR chez Dada ! Animation. © 2024 Dada ! Animation – All rights reserved


    Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA? 

    Quand des technologies des médias évoluent autant, on s’attend à un enrichissement des œuvres (elles pourraient devenir toutes immersives, 8k, 120 images/secondes, avec de nouvelles écritures, plus riches, etc.) et/ou à leur multiplication et potentiellement à un boom de l’emploi. C’est arrivé avec le numérique, la 3D, l’interactif, les plateformes… D’ailleurs avec un impact environnemental conséquent. Cependant, on arrive dans un moment économique compliqué et le « marché de l’attention » semble saturé : l’américain moyen consomme déjà 13h de media par jour, à plus de 99% produits pour les nouveaux réseaux (tiktok, instagram, etc.) et le reste classiquement (cinéma, TV, jeux). 

    Ces médias classiques restent tout de même encore majoritairement consommés, mais nous souffrons déjà de ce que j’appellerais une « malbouffe numérique », addictive, trop présente, trop synthétique, et pas que côté média, en journalisme aussi, pour la science en ligne, etc. 

    On imagine alors mal ce que la baisse de la barrière à l’accès de la création d’effets numériques, que propose l’IAG, va apporter de positif. Sans doute pas moins de « contenus », mais aussi, et même s’ils étaient de qualité, sans doute pas non plus pour un meilleur soin de notre attention, ni de notre environnement vu l’impact du numérique – et encore plus s’il est lesté d’IAG – sur l’énergie et l’eau. 

    C’est aussi ce mélange de crises existentielles, sanitaires et environnementales que traverse le monde des médias en ce moment. 

    Nous n’avons pas encore géré la toxicité des réseaux sociaux qu’une vague générative artificielle arrive pour a priori l’accentuer à tous égards. 

    Il serait bon, peut-être vital même, que les chercheurs et entrepreneurs du domaine s’emparent de ces questions, avec les créateurs. Une des voies assez naturelle pour cela est de rencontrer ces derniers sur leur terrain : plutôt que d’apporter des solutions hyper-technologiques qui cherchent des problèmes à résoudre, qu’ils entendent ce que les créateurs professionnels demandent (pas le consommateur lambda subjugué par des générateurs probabilistes de simulacres d’œuvres, même s’il doit être tentant, j’entends bien, de créer la prochaine killer app en B2C), qu’ils comprennent comment ils travaillent, avec quelle sémantique, quelles données, quels critères, et quels besoins (vitaux, pour « travailler » leur art) de contrôle. 

    J’en croise de plus en plus, de ces chercheurs et entrepreneurs interrogatifs sur les métiers qu’ils bousculent, qu’ils « disruptent », et qui sont avides de discussions, mais les occasions officielles sont rares, et la pression et les habitudes des milieux de la recherche, de l’entreprenariat et de la création sont quelques fois divergents. On devrait travailler d’avantage à les croiser, dans le respect de ce qui reste naturellement créatif de part et d’autre. 

    Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, interviewé, par Erwan Le Merrer, avec le concours de la SIF.

     

  • L’Art de la Conception Électronique : Sûreté de fonctionnement, Fiabilité et Sécurité

    La confiance et le numérique responsable reposent tout deux, entre autres, sur la nécessité de développer des systèmes fiables et sûrs. Cette exigence concerne à la fois la conception hardware (ex : IOT, robotique, cobotique) et celle du software (ex: IA, jumeaux numériques, modélisation numérique). A l’heure où les objets connectés font partie inhérente de nos quotidiens en tant que consommateurs lambda, industriels ou chercheurs, il semble important de questionner les concepts de fiabilité et sécurité dans la conception électronique des objets qui nous entourent.  Sébastien SALAS, Chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC  dédié à l’expertise des systèmes électroniques pour l’innovation et l’industrie manufacturière, de JESSICA France, nous partage son éclairage sur ce sujet.  Ikram Chraibi-Kaadoud et Chloé Mercier.

    La conception électronique hardware 

    Dans l’industrie, un système embarqué est constitué a minima d’une carte avec un microcontrôleur, qui est programmée spécifiquement pour gérer les tâches de l’appareil dans lequel elle s’insère.

    Nous interagissons avec des systèmes embarqués tous les jours, souvent sans même nous en rendre compte. Par exemple, la machine à laver qui règle ses cycles de nettoyage selon la charge et le type de linge, le micro-ondes qui chauffe le repas à la perfection avec juste quelques pressions sur des boutons, ou encore le système de freinage dans la voiture qui assure la sécurité en calculant continuellement la pression nécessaire pour arrêter le véhicule efficacement, etc …

    Ces systèmes sont « embarqués » car ils font partie intégrante des appareils qu’ils contrôlent. Ils sont souvent compacts, rapides, et conçus pour exécuter leur tâche de manière autonome avec une efficacité maximale et une consommation d’énergie minimale.

    C’est le rôle du technicien et ingénieur conception du bureau d’étude de concevoir ce système dit embarqué avec une partie hardware et une partie software.

    La conception électronique hardware moderne est un métier très exigeant techniquement qui nécessite une solide compréhension des évolutions technologiques des composants, des besoins des utilisateurs mais aussi de son écosystème technologique. De la conception, au déploiement, au dépannage, à la maintenance, ce métier nécessite de suivre les progrès réalisés dans le domaine de la technologie numérique qui englobe électronique et informatique. 

    En conception de systèmes embarqués industriels, la prise en compte des notions de Fiabilité – Maintenabilité – Disponibilité – Sécurité, noté aussi sous le sigle FMDS incluant la Sûreté de Fonctionnement (SdF) et la sécurité fonctionnelle est de plus en plus partie intégrante des exigences clients. Intégrer de tels concepts dans les produits peut se passer en douceur si l’entreprise y est bien préparée.

    Ces notions représentent les fondamentaux qui assurent la pérennité et l’efficacité des produits une fois en cours d’utilisation. La mise en œuvre de ces notions permet de garantir le meilleur niveau de performance et de satisfaction utilisateur. Comprendre leur implication tout en reconnaissant leur interdépendance est crucial pour les ingénieurs et concepteurs qui visent l’excellence dans la création de produits électroniques pour l’industrie.

    ©Fidsor (Pixabay Content License)

    Sécurité fonctionnelle  

    Définition 

    La sécurité fonctionnelle est une facette critique de la sûreté de fonctionnement centrée sur l’élimination ou la gestion des risques liés aux défaillances potentielles des systèmes électroniques. Elle concerne la capacité d’un système à rester ou à revenir dans un état sûr en cas de défaillance. La sécurité fonctionnelle est donc intrinsèquement liée à la conception et à l’architecture du produit, nécessitant une approche méthodique pour identifier, évaluer et atténuer les risques de défaillance. Cela inclut des mesures telles que les systèmes de détection d’erreurs, les mécanismes de redondance, et les procédures d’arrêt d’urgence.

    L’importance de la sécurité fonctionnelle 

    À l’ère des objets connectés (aussi connus sous le sigle de IoT pour Internet Of Things) et des systèmes embarqués, la sécurité fonctionnelle est devenue un enjeu majeur, en particulier dans des secteurs critiques tels que l’automobile, l’aéronautique, et la santé, où une défaillance peut avoir des conséquences graves. Chaque secteur propose sa propre norme qui a le même objectif, assurer non seulement la protection des utilisateurs mais contribuer également à la confiance et à la crédibilité du produit sur le marché. La sécurité fonctionnelle est garante d’un fonctionnement sûr même en présence de défaillances. Cette dernière requiert une attention particulière dès les premières étapes de conception pour intégrer des stratégies et des mécanismes qui préviennent les incidents.

    ©GDJ (Pixabay Content License)

    Que surveiller pour une sécurité fonctionnelle optimale ? 

    Il existe de nombreux paramètres à surveiller et de nombreuses méthodes à mettre en place pour une sécurité fonctionnelle optimale. Ici deux seront soulignés : La fiabilité et la cybersécurité. 

    > La fiabilité : La fiabilité mesure la probabilité qu’un produit performe ses fonctions requises, sans faille, sous des conditions définies, pour une période spécifique. C’est la quantification de la durabilité et de la constance d’un produit. Dans la conception hardware, cela se traduit par des choix de composants de haute qualité, des architectures robustes et surtout des tests rigoureux. On aborde ici des notions comme le taux de défaillance, ou encore  le calcul de temps moyen entre pannes ou durée moyenne entre pannes, souvent désigné par son sigle anglais MTBF (Mean Time Between Failures) et qui correspond à la moyenne arithmétique du temps de fonctionnement entre les pannes d’un système réparable. 

    La fiabilité des composants électroniques contribue aux démarches de sûreté de fonctionnement et de sécurité fonctionnelle essentielle dans des domaines où le temps de fonctionnement est critique. Ce sont les disciplines complémentaires à connaître pour anticiper et éviter les défaillances des systèmes. Pour les produits électroniques, il est important de comprendre les calculs de fiabilité et de savoir les analyser.

     > La (cyber)sécurité : C’est la protection contre les menaces malveillantes ou les accès non autorisés qui pourraient compromettre les fonctionnalités du produit. Dans le domaine de l’électronique, cela implique la mise en place de barrières physiques (ex: un serveur dans une salle fermée à clé) et logicielles (ex: des mots de passe ou l’obligation d’un VPN)  pour protéger les données et les fonctionnalités des appareils. La sécurité est particulièrement pertinente dans le contexte actuel de connectivité accrue, où les risques de cyberattaques et de violations de données sont omniprésents. Ce sujet a été abordé avec Jean Christophe Marpeau, référent cybersécurité chez #CAPTRONIC.

    ©BiljaST (Pixabay Content License)

    Conclusion

    La conception électronique hardware moderne est un équilibre délicat entre sûreté de fonctionnement, fiabilité et sécurité. Ces concepts, bien que distincts, travaillent de concert pour créer des produits non seulement performants mais aussi dignes de confiance et sûrs. Les  professionnels de l’électronique ont pour devoir d’harmoniser ces aspects pour répondre aux attentes croissantes en matière de qualité et de sécurité dans notre société connectée. 

    Sébastien SALAS est chef de projet d’un pôle d’innovation digitale (DIH, Digital Innovation Hub) et directeur de formation au sein du programme CAP’TRONIC de JESSICA France. Il s’attelle à proposer des formations pour les entreprises au croisement des dernières innovations technologiques et des besoins des métiers du numérique et de l’électronique en particulier, pour les aider à développer leurs compétences et leur maturité technologique.

     

  • Petite histoire du TO7

    Michel Leduc | Les auteurs | L'écritoireMichel LEDUC a participé à la création d’une des premiers ordinateurs personnels en France. En plus des foyers, cet ordinateur a aussi pénétré les écoles ce qui fait que ce petit TO7 est un peu connu.  Michel nous narre cette histoire à l’occasion de la sortie d’un livre sur cette aventure.  Pierre Paradinas et Benjamin Ninassi.

    ‌Binaire :  Comment es tu entré chez Thomson dans les années 1970 ?

    Michel LEDUC : Diplômé de l’ESEO en 1973, je recherche du travail à la fin de mon service militaire pendant l’été 1974. Après CV et lettres de motivations, je passe un entretien à Paris pour un poste à Thomson Moulins. Ce fut, un entretien original avec une visite du LCR de Corbeville (le laboratoire de recherche du groupe Thomson) où je suis ébloui par la démonstration d’une maquette de vidéodisque et je suis séduit par l’équipe de chercheurs à l’origine de cette merveilleuse lampe d’Aladin qui permettait d’obtenir une image vidéo à partir d’un bout de plastique avec des milliards de micro-cuvettes ! Ce vidéodisque était la version Thomson du disque optique qui a vu le jour dans le grand public sous le nom de Laservision porté par l’alliance Sony Philips. La version de Thomson portait sur un disque transparent et souple alors que Philips défendait une version réflective sur un disque d’1mm d’épaisseur . L’absence de protection des micro cuvettes du disque Thomson a causé sa perte ainsi que la stratégie de Thomson mais le système de lecture étant similaire, c’est avec les brevets que Thomson a  gagné beaucoup d’argent sur tous les lecteurs de CD et de DVD vendus dans le monde. Ma mission était de récupérer le savoir-faire de l’équipe parisienne et de transformer leur maquette en un produit grand public pour la partie électronique. L’arrêt du projet de vidéodisque grand public m’amènera de manière fortuite à la création du TO7.

    Binaire:  Thomson à l’époque, c’est quelle entreprise ?

    ML : Thomson-Houston est déjà un grand groupe alliant électronique grand public (radio, électrophone, machine à laver, réfrigérateurs…), électronique professionnelle et militaire (Thomson CSF). Le LCR où naîtra le vidéodisque est le laboratoire de recherches de l’ensemble du groupe. La division grand public a de nombreuses usines en France : Angers et Saint Pierre Montlimart pour la télévision, Moulins pour l’audio, la Roche sur Yon (machine à laver le linge) et bien d’autres. Le groupe comprend plus de 40 000 personnes à l’époque et détient même une majorité des parts de CII-Honeywell. La situation évoluera avec la nationalisation du groupe en 1982.

    Binaire:  Peux tu nous décrire le paysage de la micro informatique en France à cette époque ?

    ML :  Quand on me demande en 1979 de choisir le micro-ordinateur que le groupe va revendre, je m’adresse aux fabricants américains car il n’existe pas de marché en France mais on commence à entendre parler d’Apple, de Commodore, d’Atari… Les dirigeants de Thomson et les équipes marketing ont entendu parler du phénomène qui se développe aux US avec l’arrivée de l’ordinateur individuel dans les foyers américains. L‘objectif principal était de suivre ce qui se passait aux Etats-Unis et d’être présent sur ce marché qui apparaissait prometteur aux US. Quand nous arrivons avec le TO7.  Quand le TO7 sortira, près de trois ans après, de nombreux concurrents se sont déjà positionnés sur le marché français mais le TO7 trouvera sa place grâce à son orientation éducative et les accords avec VIFI Nathan qui permettront au TO7 de passer la barrière habituelle que le public français crée à l’arrivée d’une nouvelle technologie !  Ce choix judicieux pour le marché français constituera un obstacle infranchissable pour adresser les autres marchés !
     
    Binaire:  On fait comment pour fabriquer un PC dans les années 70 ?

     

    Photo : Michel Leduc

     

    ML :  À la fin du vidéodisque grand public, mon patron moulinois m’a proposé de rechercher un micro-ordinateur pour le revendre dans le réseau Thomson. La recherche se solda par un échec et poussé par l’équipe grenobloise de Thomson semi-conducteurs, nous avons proposé d’en fabriquer un !  Je partais de rien. Je me suis appuyé sur les conseils et la volonté de l’équipe de Grenoble de Thomson semi-conducteurs qui me poussaient vers les puces 6800 pour le microprocesseur et vers les chips de TV Antiope pour la vidéo. Ensuite faute d’expertise en logiciel, on a embauché José Henrard, chercheur en sociologie au CNRS, qui bricolait dans le labo de Mr Dupuis à Jussieu et qui avait développé une maquette basée sur un microprocesseur 4 bits. Il avait conçu le moniteur pour la faire fonctionner. Avec ces deux éléments, on a réalisé la première maquette wrappée du T07 avec un microprocesseur 6800, et une interface vidéo réalisée avec 70 circuits TTL. Le tout fonctionnait avec un moniteur et un crayon optique conçu que j’avais conçu.  Inutile de dire que cela n’a pas fonctionné du premier coup, mais à force de travail acharné de toute l’équipe on a pu réaliser une démonstration à la direction générale dans des conditions assez rocambolesques !

    Binaire: quels rôles pour l’ADI, le centre mondial de l’informatique et l’éducation nationale dans cette aventure ?

    ML :  Je suis mal placé pour juger du rôle du centre mondial de l’informatique car c’est plutôt José, situé à la SIMIV à Paris, qui avait les relations avec le monde politique. Tout ce que je sais c’est que les relations n’étaient pas les meilleures car JJSS poussait plus pour les produits Apple que vers les TO/MO. Il a, avec quelques autres acteurs du monde éducatif savonner la planche du plan informatique pour tous et a surtout œuvré pour qu’Apple soit l’ordinateur du plan IPT. Je pense qu’il y a eu un apport positif avec Seymour Papert et Logo que l’on utilisé sur le TO7.

    Photo : Michel Leduc


    Binaire:  quel est l’un de tes plus beau souvenir ?
    ML :   J’en citerai plusieurs :

    • l’apparition de la première image sur l’écran et le pilotage par le crayon optique
    • le passage de la première pub (les rois mages) à la TV juste avant Noël

    Binaire:  quelle est ta plus grande fierté ?

    ML :   Il est clair que ma plus grande fierté a été de voir les TO7 dans les écoles  et de pouvoir en faire bénéficier les élèves des classes de mes enfants. De voir les yeux émerveillés des enfants dans la classe de mon fils  quand ils faisaient du dessin avec le logiciel PICTOR et le crayon optique. C’est aussi  de savoir que de nombreuses personnes sont devenus informaticiens ou tout au moins se sont initiés à l’informatique grâce à ces produits.

    Le plus étonnant est de voir encore les fans (nombreux) jouer sur ces produits (ou émulateurs), créer de nouveaux jeux , faire des compétitions! Depuis la sortie du livre des témoignages touchants me racontent avec émotion la place qu’avait pris les TO7 dans leur enfance. Utilisations originales :  accord avec Légo pour piloter les moteurs de constructions Légo, pilotage d’outils de laboratoire via l’interface IEEE, la tortue Logo…..

    Binaire:  des regrets ?

    ML :  Au niveau stratégique, de ne pas avoir su commuter au bon moment vers le domaine du jeu (tant au niveau hardware que bien sûr logiciel) et ainsi de nous permettre de mieux nous positionner sur le marché européen, et d’avoir été un acteur, malgré moi, des premières délocalisations avec le transfert de la fabrication du TO8 vers la Corée et vers Daewoo!

    Pour aller plus loin:

    • à propos du CMI : https://www.ina.fr/ina-eclaire-actu/video/cab8300029601/centre-mondial-informatique 
    • le  livre « Le Thomson T07, succès controversé de la microinformatique française« , chez L’écritoire
     
  • Blocage de Tik Tok en Nouvelle Calédonie : Respectons nos principes !

    La Nouvelle Calédonie traverse une période de troubles ; récemment, le gouvernement a interdit pendant 2 semaines le réseau social TikTok qu’il accusait de servir de contact entre les manifestants.  Cette mesure qu’il a « justifiée » par l’état d’urgence pose plusieurs questions. En tout premier lieu, son efficacité, puisque de nombreuses personnes ont continué à l’utiliser en passant par des VPN. Ensuite, et surtout, a-t-elle respecté des principes juridiques fondamentaux ? Saisi par des opposants à cette mesure, dont la Ligue des Droits de l’Homme, le Conseil d’Etat a rejeté ces saisines parce que le caractère d’urgence n’était pas démontré, ce qui a évité de se prononcer sur le fond.  Nous avons donné la parole à Karine Favro (Professeure de droit public, Université de Haute Alsace) et à Célia Zolynski (Professeure de droit privé, Université Paris 1 Panthéon-Sorbonne) pour qu’elles nous expliquent ces questions. Pascal Guitton

    La gravité des affrontements qui ont meurtri la Nouvelle Calédonie ces dernières semaines a conduit à la déclaration de l’état d’urgence sur l’ensemble du territoire par décret du 15 mai dernier en application de la loi du 3 avril 1955. Dans le même temps, le Premier ministre y annonçait, par voie de presse, l’interdiction de l’accès à TikTok.

    Image générée par ChatGPT

    Cette mesure était historique pour le gouvernement français car portant pour la première fois sur un réseau social alors que le 17 mai, dans sa décision relative à la loi visant à sécuriser et réguler l’espace numérique, le Conseil Constitutionnel rappelait  qu’ “ En l’état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu’à l’importance prise par ces services pour la participation à la vie démocratique et l’expression des idées et des opinions, ce droit [à la liberté d’expression] implique la liberté d’accéder à ces services et de s’y exprimer”.

    Nombreux ont critiqué la légalité de cette décision de blocage. Pour pouvoir se fonder sur l’article 11 de la loi de 1955, un temps envisagé, il aurait fallu que la plateforme ait été utilisée pour provoquer à la “commission d’actes de terrorisme ou en faisant l’apologie”. Quant aux ingérences étrangères, annoncées comme étant ici en cause, celles-ci ne justifient pas à elles seules que soient prononcées ce type de mesure sur le fondement de ce texte. Restaient alors les circonstances exceptionnelles en application de la jurisprudence administrative conférant au Premier ministre des “pouvoirs propres” comme cela a été reconnu lors de la pandémie pour prononcer le confinement avant l’adoption de la loi relative à l’état d’urgence sanitaire. La brutalité de la mesure était également discutée, celle-ci ayant été prise en l’absence de sollicitation de retrait de contenus des autorités auprès de la plateforme.

    Le 23 mai, le Conseil d’Etat a rejeté les trois recours en référé-liberté déposé par des opposants à cette décision et contestant la mesure de blocage pour atteinte à la liberté d’expression. Il retient que l’urgence du juge à intervenir n’est pas établie alors qu’il s’agissait de la condition préalable pour accueillir ces demandes. Ne pouvant se déduire de la seule atteinte à la liberté d’expression, l’ordonnance de référé relève que l’urgence n’était pas justifiée en raison du caractère limité de la mesure (il restait possible de s’exprimer sur d’autres réseaux sociaux et médias) et de sa nature temporaire. Le Conseil d’Etat ayant rejeté les recours parce qu’il considérait que la condition d’urgence n’était pas remplie, il ne s’est pas prononcé sur la proportionnalité de l’atteinte à la liberté d’expression qui pouvait résulter de la mesure d’interdiction. Au même motif, le juge administratif n’a pas eu à transmettre la question prioritaire de constitutionnalité déposée par ces mêmes requérants, visant à contester la conformité à la Constitution de l’article 11 de la loi de 1955.  La procédure initiée conduit donc à une impasse.

    En l’état, la légalité de la décision prise par le Premier ministre reste ainsi incertaine compte tenu de la nature des recours formés, d’autant que le blocage de Tik Tok a été levé le 29 mai. Pourtant, le débat reste entier concernant la légitimité d’une pareille mesure dont la proportionnalité constitue un enjeu fondamental. Cette dernière impose de déterminer si la solution retenue était la plus efficace pour atteindre le but poursuivi et de vérifier qu’elle était accompagnée de toutes les garanties nécessaires. Sa légitimité est également exigée ; or, la question devient éminemment complexe lorsqu’une mesure de police, par nature préventive, est prononcée dans le cadre d’un mouvement populaire sur lequel elle conduit à se positionner. Un recours a d’ailleurs été depuis déposé par la Quadrature du Net afin que le Conseil d’Etat se prononce au fond sur la légalité du blocage, ce qui l’invitera à considérer, dans son principe même, son bien-fondé. Il conteste en particulier le fait que le Premier ministre puisse prendre une telle décision particulièrement attentatoire à la liberté d’expression, sans publication d’aucun décret soit de manière non formalisée et non motivée, en la portant simplement à la connaissance du public par voie de presse ; les requérants soutiennent que cela revenait à “décider de son propre chef, sur des critères flous et sans l’intervention préalable d’un juge, [de] censurer un service de communication au public en ligne”.

    Ce point est essentiel car c’est bien le nécessaire respect de nos procédures, consubstantielles à nos libertés, dont il s’agit. Si nous décidons qu’un service met nos principes en difficulté, c’est en respectant nos procédures et nos principes qu’il nous revient de l’interdire. Il aurait été utile de pouvoir appliquer le Règlement sur les services numériques (DSA) que vient d’adopter l’Union européenne, même si le statut particulier de la Nouvelle Calédonie l’exonère de toute obligation de respecter ce texte. En effet, les mécanismes prévus par le DSA visent à garantir le respect du principe de proportionnalité afin d’assurer tout à la fois la protection des libertés et droits fondamentaux et la préservation de l’ordre public, en particulier lors de situations de crise en précisant le cadre des mesures d’urgence à adopter. Il y est bien prévu le blocage temporaire d’une plateforme sur le territoire de l’Union. Néanmoins, il ne s’agit pas d’une mesure immédiate mais de dernier recours. Elle vise les cas de non-coopération répétée avec le régulateur et de non-respect du règlement lorsque sont concernées des infractions graves menaçant la vie et la sécurité des personnes. Le DSA encadre par ailleurs cette décision d’importantes garanties procédurales. Ainsi, le blocage temporaire doit être prononcé après l’intervention de diverses autorités (la Commission européenne, le régulateur national soit en France l’ARCOM) et sous le contrôle d’une autorité judiciaire indépendante.

    La situation appelle alors les pouvoirs publics à conduire d’autres actions déterminantes qui dépassent la seule mesure de police. Tout d’abord, mieux garantir une exigence de transparence pour assurer le respect de nos principes démocratiques, mais également pour ne pas altérer la confiance des citoyens dans nos institutions. On perçoit ici l’intérêt du rapport publié dès le 17 mai par Viginum pour documenter l’influence de l’Azerbaïdjan dans la situation de la Nouvelle Calédonie, qui relève d’ailleurs le rôle joué par d’autres réseaux sociaux comme X et Facebook dans le cadre de manœuvres informationnelles. Compte tenu des enjeux, il convient d’aller plus loin et d’organiser des procédures transparentes et indépendantes à des fins de communication au public. Ensuite, mener un examen approfondi de l’ensemble de la sphère médiatique, ce qui est actuellement réalisé dans le cadre des Etats généraux de l’Information. Plus généralement, promouvoir des mesures de régulation des plateformes pour prôner d’autres approches plus respectueuses de nos libertés, en associant l’ensemble des parties prenantes. A ce titre, il est essentiel de mieux comprendre le rôle joué par les réseaux sociaux et d’agir sur les risques systémiques qu’ils comportent pour l’exercice des droits fondamentaux, en particulier la liberté d’expression et d’information. Cela commande de mettre pleinement en œuvre, et au plus vite, l’ensemble des dispositifs issus du DSA dont l’efficacité paraît déjà ressortir des enquêtes formelles lancées par la Commission européenne comme en atteste la suspension de Tik Tok Lite quelques jours après son lancement en Europe.

    Karine Favro (Professeure de droit public, Université de Haute Alsace) et Célia Zolynski (Professeure de droit privé, Université Paris 1 Panthéon-Sorbonne)

  • Que sait-on des impacts environnementaux de la vidéo en ligne ? L’exemple de Netflix

    Le numérique, par sa matérialité (impacts directs) et ses effets sur nos modes de production et de consommation (impacts indirects), contribue au franchissement des limites planétaires. Aurélie Bugeau, Gaël Guennebaud et Benjamin Ninassi nous éclairent sur la contribution de la vidéo à la demande (VoD) aux impacts environnementaux du numérique. Antoine Rouseau, Serge Abiteboul. Article publié en collaboration avec theconversation.

    Au vu des efforts importants que le secteur des Technologies de l’Information et de la Communication (TIC) doit faire pour passer d’une tendance de forte croissance de ses émissions de Gaz à Effet de Serre (+45% d’ici 2030) à une trajectoire de réduction significative ( -45% sur la même période), tous les pans du numérique doivent nécessairement questionner leur contribution à cette tendance. En ce sens il est intéressant de cartographier et d’estimer leurs impacts environnementaux afin de construire une société soutenable.

    Comme le montre le graphique ci-dessous, la vidéo en ligne représente la majeure partie du trafic internet au niveau mondial.

    Principales catégories de contenu par volume de trafic
    Principales catégories de contenu par volume de trafic en download. Données issues du rapport 2024 Global Internet Phenomena Report par Sandvine.

     

    Pour la France, les hébergeurs de vidéos sont majoritairement à l’origine d’un trafic croissant vers les utilisateurs au niveau de l’interconnexion, avec une hausse de x2.4 de début 2020 à fin 2022.

    La vidéo est donc souvent pointée du doigt comme l’un des principaux responsables des impacts environnementaux du numérique et fait débat comme par exemple dans le rapport de The Shift Project de 2019 sur l’insoutenabilité de la vidéo en ligne. Mais au-delà des TVs et autres terminaux de visionnage, que sait-on de la matérialité qui se cache derrière le visionnage d’un film ou d’une série en vidéo à la demande (VoD) ? À quoi servent réellement ces équipements ?

    Peu d’informations publiques existent sur les architectures très complexes opérées par les fournisseurs de services de VoD et sur leur dimensionnement. Néanmoins nous avons tenté une ébauche d’analyse du service Netflix. Ce dernier est en effet l’un des plus utilisés et a le mérite de rendre quelques informations accessibles concernant son fonctionnement. Cette plateforme n’est ici qu’un exemple et le but n’est aucunement de cibler cette entreprise spécifiquement.

    À travers les informations rassemblées via différentes sources (rapports d’activités, vidéos de conférences techniques, articles de blogs), nous illustrons la difficulté à cartographier les différents pans de l’architecture d’un service de VoD, travail néanmoins indispensable avant de réaliser une quantification des impacts environnementaux d’un tel service.

    Bien que la consommation électrique n’englobe pas tous les impacts environnementaux, il s’agit d’une des informations rendues publiques par Netflix, comme le montre la figure ci-dessous. L’année 2019 est la seule pour laquelle une estimation de la consommation des serveurs opérés par des tiers est fournie.

    Consommation électrique annuelle de NetflixLe streaming vidéo, comment ça marche ?
    La partie la plus facile à expliquer de cette consommation concerne le Content Delivery Network (CDNs). Il s’agit d’une infrastructure comptant plusieurs dizaines de milliers de serveurs pour Netflix répartis dans le monde et hébergeant les titres les plus populaires du catalogue à proximité des utilisateurs. Certains de ces serveurs sont hébergés directement dans les centres de données des fournisseurs d’accès à internet (FAI) et échappent ainsi aux consommations électriques précises rapportées par Netflix.

    Les FAI possèdent en effet leurs propres centres de données, afin de permettre un acheminement du trafic internet de qualité tout en diminuant la pression sur les infrastructures réseaux.

    Ainsi quand un utilisateur accède à un contenu vidéo en ligne, c’est en réalité le plus souvent sur un CDN que ce contenu est hébergé. Ces données parcourent l’ensemble des infrastructures réseaux (câbles, antennes, équipements de routage, et.) nécessaires pour relier ce CDN à l’utilisateur, sans oublier sa box internet et potentiellement d’autres équipements (switch, répéteur WiFi, box TV, etc.) jusqu’au terminal où la vidéo est visionnée.

    Le voyage d'une vidéo en ligneLe reste de la consommation des serveurs tiers concerne l’usage d’Amazon Web Services (AWS) pour toutes les opérations en amont de la diffusion des contenus vidéos à proprement parler. Cela représente un usage constant de plusieurs centaines de milliers de machines virtuelles (plus de cent mille en 2016) en plus des besoins en stockage.

    En effet, une fois produite, une vidéo est tout d’abord stockée sous une forme brute, non compressée. Elle est ensuite encodée en une centaine de versions différentes de manière à offrir la meilleure qualité d’expérience utilisateur quelles que soient les caractéristiques du terminal et de son écran (plus de 1500 types d’équipements supportés), la qualité du réseau internet et du système d’exploitation utilisé. L’encodage de vidéos nécessite ainsi plusieurs centaines de milliers de CPUs en parallèle.

    Ces multiples versions sont dupliquées sur plusieurs serveurs au sein de centres de données localisés dans différentes zones géographiques (3 pour Netflix en 2016) pour des raisons de sécurité et de garantie d’accès au contenu à travers le monde.

    La face cachée de la VoD
    Les modèles d’affaire des plateformes de VoD sont basés sur la rétention d’attention et le nombre d’abonnés ou de visionnages. Avant de pouvoir visionner un contenu vidéo, l’utilisateur commence par naviguer sur la plateforme, depuis la page d’accueil jusqu’au choix du contenu. Cette navigation est personnalisée pour chaque utilisateur, et repose sur des mécanismes de captation et de rétention d’attention nécessitant la collecte, le stockage et le traitement de nombreuses données personnelles et d’usage. Toute une partie de l’infrastructure, et donc de l’empreinte environnementale, est ainsi liée non pas à la diffusion des vidéos, mais à la personnalisation de l’expérience utilisateur.

    L’ensemble des données permettant la mise en œuvre de ces mécanismes est couramment appelé « datahub ». Celui-ci est constitué à la fois de données collectées par la plateforme (données utilisateurs et données d’utilisation), agrégées avec des données issues d’autres sources dans la chaîne de valeur de Netflix : annonceurs, prestataires de paiement, fournisseurs de services, fournisseurs de mesure d’audience, critiques de contenus, réseaux sociaux… Netflix est par exemple membre de la Digital Advertising Alliance.

    Ce datahub est de taille conséquente, en 2016 pour 89 millions de comptes il contenait 60 Po (1 petaoctet = 1 million de Go) de données. Il n’est pas aberrant d’imaginer qu’il soit encore bien plus important de nos jours avec 260 millions d’abonnés en 2023.

    D’un autre côté, on estime la taille du catalogue de Netflix entre 50 000 et 60 000 heures de visionnage. Dans cet article, il est question de 470 Go par heure de vidéo brute, ce qui donne un catalogue non-encodé d’environ 25 Po, soit la moitié du datahub de 2016. Intuitivement, on s’attendrait pourtant à ce que le catalogue de vidéos brutes concentre une part des besoins en stockage plus importante que les données d’usage.

    À ce volume de données, s’ajoute les flux vidéos et de données produites en lien avec les tournages et montages par les studios de Netflix eux-même, qui représentent environ 100 Po par an.

    Pour soutenir leur modèle économique, le volume de productions originales est en forte croissance, de même que les impacts environnementaux associés, qui représente pour Netflix plus de la moitié de ses émissions de gaz à effet de serre.

    Evolution du catalogue des plateformes
    Source : Omdia 2023

    Au-delà du stockage, chaque action sur la plateforme (rechercher, cliquer sur lecture, etc.) génère un évènement traité par Netflix, il y en avait 500 milliards par jour en 2016. Cette captation de données sert par exemple à la génération d’une page d’accueil personnalisée pour chaque compte utilisateur. Cette dernière nécessiterait au total plus de 22 000 serveurs virtuels hébergés chez AWS, et le stockage de plus de 14,3 Po de données pour la gestion d’un cache dynamique appelé EVCache.

    Parmi les éléments de personnalisation de l’expérience utilisateur, il y a bien évidemment le contenu proposé mais également la manière dont il est présenté avec une personnalisation des vignettes utilisées, ou encore l’utilisation de « Dynamic Sizzles », génération de vidéos personnalisés agrégeant du contenu de plusieurs films ou série.

    Ces mécanismes de rétention d’attention reposent sur l’utilisation d’algorithmes d’apprentissage automatique en continu de plus en plus avancés, nécessitant à la fois de grandes quantités de données et de puissance de calcul. Pour des raisons évidentes de mise à jour, ces algorithmes sont entraînés de manière incrémentale. La généralisation de leur usage provoque nécessairement une croissance des données acquises, traitées et stockées, augmentant ainsi les impacts environnementaux associés.

    À toutes ces données il faut ajouter les politiques de sauvegarde nécessaires à la reprise d’activité en cas d’incident. Elles sont appliquées à chaque niveau de cette architecture, ce qui peut induire une duplication plus ou moins importante de l’ensemble de ces contenus. Notons que Netflix met également en œuvre des méthodologies sophistiquées d’épuration des données, tant au niveau du cache et du datahub que des données produites par les studios.

    « Juste » une vidéo ?
    Ainsi, visionner une vidéo en ligne implique beaucoup d’étapes et de données générées bien au-delà du contenu vidéo lui-même. L’optimisation de l’expérience utilisateur à l’extrême repose sur des ressources matérielles significatives par rapport au simple visionnage de vidéo. Le manque d’informations disponibles sur le fonctionnement complet des plateformes et les infrastructures associées rendent à ce stade hasardeux l’évaluation par un tiers indépendant des impacts environnementaux de leur activité au regard des limites planétaires.

    D’aucuns pourraient rétorquer que ces impacts ramenés au nombre d’abonnés seraient sans doute négligeables au regard de bien d’autres postes de consommation. Par exemple, pour 2019, la consommation électrique des serveurs utilisés par Netflix ne représente qu’environ 2,3 kWh/an par abonné. Ce chiffre peut paraître dérisoire, voire contradictoire avec les chiffres de la consommation énergétique des centres de données dans le monde de l’IEA qui représenterait environ la consommation électrique d’un pays comme l’Italie ou le Royaume-Uni. Cela illustre une difficulté avec les Technologies de l’Information et de la Communication (TIC) qui est un secteur composé d’une myriade de services, chacun en apparence insignifiant, mais dont la somme des impacts est préoccupante. Autrement dit, la réduction globale des impacts environnementaux des TIC passe nécessairement par une myriade de « petits gains ». Dans le contexte du streaming vidéo, Netflix n’est qu’un service de VoD parmi tout un ensemble de fournisseurs, et de nouveaux modes de partages de vidéos en pair à pair ou via les réseaux sociaux.

    La vidéo à la demande peut-elle devenir soutenable ?
    Afin de se conformer à une trajectoire de réduction des impacts environnementaux du secteur de la vidéo en ligne, on peut légitimement se demander à quoi ressemblerait une plateforme de VoD compatible avec une trajectoire environnementale soutenable. L’analyse précédente soulève au moins quatre axes principaux de réduction :

    • – le compromis à faire entre le poids (résolution maximale et nombre de variantes) des vidéos encodées (qui impacte à fois les besoins en calcul, stockage et transmission) et la qualité réellement perçue par les utilisateurs,
    • – la remise en question de la personnalisation de l’expérience à l’extrême,
    • – la nécessité de hautes performances (en termes de qualité de service, disponibilité, etc.) pour un service de divertissement,
    • – et enfin, le rythme de production de nouveaux contenus.

    Au-delà des enjeux environnementaux, les algorithmes de recommandations au cœur de ces plateformes de VoD posent aussi de nombreuses questions éthiques et démocratiques.

    Aurélie Bugeau, Professeur des Universités, Université de Bordeaux
    & Gaël Guennebaud, Chercheur Inria du centre de l’université de Bordeaux
    & Benjamin Ninassi, Adjoint au responsable du programme Numérique et Environnement d’Inria

     

  • Ce qu’on sait et ce qu’on ne sait pas sur les effets environnementaux de la numérisation

    Gauthier Roussilhe (RMIT)

    Gauthier Roussilhe est doctorant au RMIT. Il étudie la façon dont nos pratiques numériques se modifient dans le cadre de la crise environnementale planétaire en proposant une vision systémique, de l’extraction des matières à la fin de vie, et des infrastructures à l’usage des services numériques.  Antoine Rousseau & Ikram Chraibi Kaadoud 

    On pourrait penser que les conséquences environnementales de la numérisation est un sujet récent , or cela fait bientôt 30 ans qu’on se demande quel est son poids environnemental et si numériser aide à la transition écologique. En 1996, l’Information Society Forum fait le constat suivant : « La plupart des experts ne pensent pas que le développement durable soit réalisable sans les technologies de l’information, mais ils ne sont pas non plus sûrs qu’il soit garanti avec elles. […] Il existe un risque d’effet « rebond » par lequel ils pourraient stimuler de nouvelles demandes de consommation matérielle » (ISF, 1996, 30). 26 ans plus tard, en 2022, le 3e groupe de GIEC proposait une synthèse peu encourageante : « Pour le moment, la compréhension des impacts directs et indirects de la numérisation sur la consommation d’énergie, les émissions de carbone et le potentiel d’atténuation est limité » (IPCC, 2022, 132). Est-ce que cela veut dire pour autant que nous n’avons pas progressé sur le sujet depuis 30 ans ? Loin de là, revenons ensemble sur l’état de l’art de la recherche scientifique sur les deux questions principales de ce champ : l’empreinte environnementale du secteur et les effets environnementaux de la numérisation dans les autres secteurs.

    L’empreinte carbone du secteur numérique
    La production des savoirs scientifiques dans ce domaine s’est concentrée principalement sur l’empreinte environnementale du secteur numérique, c’est-à-dire le poids écologique lié à la fabrication, l’usage et la fin de vie de tous les équipements et services qui composent ce secteur. Il y a assez peu d’articles de recherche qui se sont aventurés dans l’estimation mondiale du secteur. Ces dernières il y a trois estimations concurrentes (Andrae & Edler, 2015 (remplacé par Andrae 2020) ; Malmodin & Lundén, 2018 ; Belkhir & Elmeligi, 2018). Freitag et al ont proposé une analyse de ces travaux proposant que les émissions du secteur numérique représentaient en 2020 entre 2,1 et 3,9% des émissions mondiales (1,2-2,2 Gt eq-CO2). Le plus important ici n’est pas forcément cette estimation mais la tendance de ces émissions, or, depuis juin 2023, la communauté scientifique sur ce sujet est plus ou moins arrivé à un consensus : les émissions du secteur augmentent. Ce n’est pas une croissance exponentielle mais l’arrivée massive de nouveaux types d’équipements comme les objets connectés donne à voir plutôt une augmentation annuelle constante. Et nous n’avons pas mis à jour nos projections avec le nouveau marché de l’IA, d’autant plus que les premiers travaux d’estimation semblent inquiétants. Concernant les autres facteurs environnementaux, épuisement de ressources minérales, utilisation d’eau, pollutions des sols et des eaux, etc nous ne disposons aujourd’hui d’aucune estimation d’envergure ni de vision claire même si de nombreux projets de recherche avancent sur ces questions.

    Les centres de données
    Dans le travail de modélisation, nous privilégions pour l’instant la découpe du secteur en trois tiers : les centres de données, les réseaux et les équipements utilisateurs. Chacun de ces tiers poursuit sa propre trajectoire qu’il est nécessaire d’aborder. En premier lieu, les centres de données ont fait l’objet de travaux de fond sur leur consommation électrique pour ensuite obtenir des émissions carbone. Deux estimations font référence, celle de Masanet et al (2018) à 205 TWh de consommation électrique mondiale et celle de l’Institut Borderstep à 400 TWh. L’Agence Internationale de l’Énergie (IEA) a utilisé la première estimation pendant quelques années mais a revu ses travaux récemment et propose plutôt une fourchette entre 220 et 320 TWh (cela exclut la consommation électrique des cryptomonnaies qui est comptée à part par l’IEA). Il existe bien aussi un consensus sur l’augmentation croissante de la consommation électrique des centres de données mais les opérateurs misent sur l’achat ou la production d’énergie bas carbone pour décorreler consommation d’électricité et émissions de carbone avec plus ou moins de succès. Encore une fois ces chiffres ne prennent en compte que l’usage des centres de données et n’intégrent pas les impacts environnementaux liés à la fabrication des serveurs et autres équipements. Au-delà de la consommation électrique c’est plutôt le poids local de ces infrastructures qui devient de plus en plus problématique autant pour la disponibilité électrique que pour l’accès à l’eau. De nombreux conflits locaux se développent : Irlande, Espagne, Chili, Amsterdam, Francfort, Londres, États-Unis. À l’échelle française, L’Île-de-France héberge la plupart des centres de données français et fait face à de nombreuses problématiques qui invite à une réflexion et une planification profonde comme très bien démontré par l’étude récente de l’Institut Paris Région.

    Les réseaux de télécommunication
    Les réseaux de télécommunications comprennent tous les réseaux d’accès fixes (ADSL, Fibre), les réseaux d’accès mobile (2G/3G/4G/5G) et les réseaux coeurs. En 2015, Malmodin & Lundén (2018) estimaient la consommation électrique mondiale des réseaux à 242 TWh et l’empreinte carbone à 169 Mt eq-CO2. Depuis peu de travaux se sont réessayés à l’exercice. Coroama (2021) a proposé une estimation à 340 TWh pour les réseaux en 2020 et aujourd’hui l’IEA estime la consommation électrique en 260 et 340 TWh (IEA). L’empreinte carbone des réseaux, autant au niveau de la fabrication du matériel que de l’usage reste à mieux définir mais implique aussi de redoubler d’efforts sur de nombreux angles morts : le déploiement (génie civil, etc.) et la maintenance sont des parts significatives de l’empreinte des réseaux qui n’ont quasiment pas été comptées jusque là. De même, les satellites de télécommunication devraient faire partie du périmètre des réseaux mais leur impact avait été considéré comme minime. Toutefois, le déploiement massif de constellation avec des satellites d’une durée de vie de 5 ans implique une attention renouvelée.

    Les équipements utilisateurs
    Finalement, le dernier tiers, celui des équipements utilisateurs, inclut à la fois les équipements personnels (smartphone, portable, tablette, ordinateurs, écrans, etc) et professionnels. Certains segments connaissent une contraction depuis quelques années : le vente d’ordinateurs fixes chute (sauf pour le gaming), de même que les livraisons de smartphones. De l’autre, de nouveaux segments apparaissent comme les objets connectés grand public (enceinte, caméra, etc.). C’est l’arrivée de ces derniers qui est profondément inquiétante si les projections de marché se maintiennent car elle suggère le déploiement massif d’objets de qualité variable, à faible durée de vie et donc à fort taux de renouvellement (Pirson et Bol, 2021). En descendant d’un niveau, à l’échelle des composants clés, nous voyons une augmentation de l’empreinte de fabrication des circuits intégrés les plus avancés (<10nm) (Pirson et al, 2022), c’est-à-dire les nouveaux processeurs (Apple série M) ou dans les puces de calcul graphique (produits Nvidia par exemple) aujourd’hui très recherchées pour l’entrainement d’IA génératives.

    Les services numériques
    À cela s’ajoute une inconnue évidente : l’évolution des services numériques. Les équipes de recherche ne peuvent pas prévoir l’apparition de nouveaux usages dans leur estimation, or les usages se sont plutôt stabilisés depuis quelques années. Le passage en force du Métaverse consistant à créer de nouveaux usages, de nouveaux services et de nouveaux équipements dédiés à échouer. Le dernier grand changement date d’un alignement des planètes entre 2010 et 2012 avec le déploiement massif de smartphones, la mise en route des réseaux 4G et la massification de l’offre vidéo en ligne. Aujourd’hui, les services grand public supportés par l’IA proposent une nouvelle évolution des usages mais, au-delà des discours mercantiles et/ou prophétiques, la tendance est encore loin d’être claire.
    Malgré les immenses zones d’ombre qui restent encore à éclairer la connaissance de l’empreinte carbone du secteur numérique commence à se stabiliser. Les tendances futures montrent plutôt une augmentation globale de l’impact et une tension locale de plus en plus accrue. Face à cela, une question demeure, est-ce que l’augmentation de cette empreinte permet de réduire celles des autres secteurs ? En somme, est-ce que la numérisation est un « investissement environnemental » cohérent. Voyons cela ensemble dans la deuxième partie.

    Les effets sur les émissions de carbone dans les autres secteurs
    Comme vu au début de cet article, la question des effets environnementaux de la numérisation dans les autres secteurs, que ces effets soient positifs ou/et négatifs, s’est posée d’emblée, toutefois, elle a été bien moins traitée que la question de l’empreinte du secteur. Au même titre que les économistes ont de nombreuses difficultés à isoler la contribution de la numérisation au PIB ou à la productivité, les chercheurs en sciences environnementales font face au même défi. Dans un premier temps, les effets environnementaux liés à des services numériques ont dû faire l’objet d’une classification qui commence doucement à se stabiliser aujourd’hui : les effets de second ordre (gain d’efficacité, substitution, effet rebond direct) et de plus grande ordre (effets rebonds indirects, rebond macro-économique, induction, etc.) (Hilty et al, 2006 ; Hilty et Aebischer, 2015 ; Horner et al, 2016). Si un gain d’efficacité est simple à comprendre la question des effets rebonds poursuit le secteur numérique depuis 30 ans. Un effet rebond peut être simplement défini comme un gain d’efficacité ou une optimisation qui conduit à une augmentation de la production ou de la demande, contrecarrant ainsi une partie, voire tous les gains obtenus. C’est un principe économique qui est
    théorisé depuis un siècle et demi, historiquement associé avec la question énergétique, qui est particulièrement pertinent dans le phénomène de numérisation à cause des effets macro et microéconomiques de ce dernier.

    Les études industrielles
    On distingue trois types de littérature sur ce sujet : la production industrielle (rapport, livre blanc, etc), la production scientifique (articles de recherche, etc), et la littérature institutionnelle qui pioche dans les deux. La littérature industrielle a une tendance farouche à se concentrer que sur la modélisation des effets positifs (efficacité, optimisation) en mettant systématiquement de côté les effets négatifs (effets rebonds, induction, etc.). Deux rapports industriels ont été particulièrement diffusés et cités : le rapport SMARTer2030 de GeSI (un groupe de réflexion des entreprises de la tech sur la question environnementale) qui estime que la numérisation peut réduire les émissions mondiales de 20% d’ici 2030, et le rapport ‘Enablement Effect’ de GSMA (l’organisation mondiale des opérateurs télécom) qui estime que les technologies mobiles ont permis d’éviter 2,1 Gt eq-CO2 en 2018. Ces rapports visent à promouvoir l’idée d’un effet d’abattement (enablement effect), c’est-à-dire, un 1g d’eqCO2 émis par le secteur numérique pourrait permettre d’éviter 10g d’eqCO2 dans les autres secteurs. Ces affirmations ont eu une grande popularité au sein des entreprises du secteur et dans le monde institutionnel. Dans la communauté scientifique, aucune équipe s’est aventurée dans de tels travaux tant les difficultés méthodologiques sont nombreuses. Il est en fait bien connu parmi les scientifiques spécialisés que ces affirmations sont notoirement douteuses et les défauts méthodologiques de ces rapports trop nombreux pour qu’ils soient utilisés pour orienter la prise de décision publique ou privée (Malmodin et al, 2014 ; Malmodin et Coroama, 2016 ; Bieser et Hilty, 2018 ; Coroama et al, 2020 ; Bergmark et al, 2020 ; Rasoldier et al, 2022 ; Bieser et al, 2023). Leurs principaux défauts sont des extrapolations globales à partir d’études de cas ou d’échantillons très réduits, la représentativité de ces mêmes échantillons, l’omission des effets directs des solutions étudiées (l’empreinte environnementale) et des effets rebonds, et de tous les effets structuraux dont dépendent le succès ou l’échec d’une solution numérique.

    La complexité du problème
    Les chercheurs qui travaillent sur ces sujets savent que les effets environnementaux d’une solution numérique dépendent bien plus de facteurs contextuels que de ses capacités propres : politiques publiques, prix, culture, infrastructures disponibles, contexte commerciale, etc. Par exemple, une application de partage de vélo a bien moins de chances de produire des effets positifs dans une ville sans infrastructure vélo développée, ou un système intelligent de gestion du chauffage sera bien mieux efficace dans une maison isolée. Cela ne veut pas dire pour autant que la numérisation de certaines activités permet effectivement d’éviter des émissions mais ce qui est observable à petite échelle peine à se réaliser à plus grande échelle. Par exemple, il est évident aujourd’hui que le télétravail permet d’éviter à court terme des trajets en voitures individuelles. Toutefois, pris sur une période de temps plus longue et à une échelle nationale, les choses se compliquent. Caldarola et Sorrell (2022) ont publié un article pour répondre à une question fondamentale : est-ce que les télétravailleurs voyagent moins ? Pour ce faire ils se sont appuyés sur des données longitudinales d’un échantillon randomisé de 13 000 foyers anglais de 2005 à 2019. Ils ont observé que le groupe de télétravailleurs faisaient moins de trajets que le groupe de non-télétravailleurs mais que les deux groupes parcouraient un nombre similaire de kilomètres à l’année. Cela est du à plusieurs effets adverses : l’éloignement croissant entre foyer et lieu de travail, voyages plus loin le week-end, modes de transport, trajets non évitables, etc. Néanmoins, les auteurs notent qu’à partir de trois jours et plus de télétravail, les télétravailleurs commencent à parcourir moins de kilomètres que l’autre groupe. Cet exemple donne à voir à quel point il est complexe d’inférer qu’un effet positif observé à petite échelle se maintienne en toutes conditions à l’échelle d’un pays car de nombreux autres effets, notamment différents types d’effets rebonds et d’induction, peuvent compenser les gains bruts.

    Savoir où chercher
    Savoir si la numérisation a un potentiel pour aider à la décarbonation d’une économie n’est pas la question, tout le monde reconnaît ce potentiel. Par contre, ce potentiel ne semble pas s’être manifesté structurellement au sein des économies les plus numérisées de la planète. Nous disposons de nombreuses études de cas qui montrent des solutions numériques avec des effets encourageants dans certains contextes, mais le problème est que même si nous pouvons déployer massivement ces solutions nous ne pouvons pas répliquer les contextes d’application et surtout les répliquer à plus grande échelle. Cela implique que certaines voies de numérisation ne sont pas
    compatibles avec la décarbonation. Premièrement, les solutions numériques qui rendent plus efficaces l’extraction d’énergies fossiles : en 2019, Microsoft mettait en avant que leurs solutions numériques pour Exxon permettraient d’augmenter la production journalière de barils de 50 000 d’ici 2025 (pour l’instant personne ne s’est donné la peine d’estimer toutes les émissions ajoutées de la numérisation dans le secteur des énergies fossiles). Deuxièmement, certaines solutions numériques proposent plutôt un statu quo qu’un réel gain, ici les solutions de smart home démontre une grande ambivalence entre gain de confort supposé (automatisation et programmation des fonctions d’une maison), ajout de nouvelles options de divertissement (enceintes, etc.) et économies d’énergie (Sovacool et al, 2020). Prises ensemble, toutes ces promesses tendent à se contrecarrer et à maintenir un statu quo. De façon générale, les solutions numériques qui misent la plupart de leurs gains potentiels sur des changements de comportement individuel constants et stables dans le temps présentent un plus grand risque. Les solutions numériques pouvant avoir le plus d’effets positifs sont généralement celles qui s’appuient sur un financement stable et pérenne, qui évoluent dans des univers assez contrôlés où le comportement humain est moins central et qui sont appliqués sur des infrastructures déjà établies à grande échelle (ou en passe de l’être). Toutefois, il faudra encore de nombreuses années de recherche pour comprendre ces dynamiques et arriver à une vue stratégique plus fine et surtout moins biaisée par les intérêts industriels.

    Ce que permet et ne permettra pas la numérisation
    Se poser sérieusement la question de la contribution de la numérisation à la transition écologique d’un pays implique de se décentrer d’une vue mono-solution où on infère des effets à partir d’une étude de cas mené à un instant t, qui est généralement celle des entreprises ou des industries numériques. La planification écologique d’un pays comme la France requiert d’identifier les leviers les plus importants au niveau de leur effet à grande échelle, et de la stabilité de leur effet dans le temps, dans les secteurs les plus urgents à décarboner. Ces leviers sont rarement les solutions les plus faciles et les moins chères, ce sont généralement des politiques publiques qui essayent de modifier en profondeur des modes de vie. Les solutions numériques ont encore une place indéterminée dans cette réflexion. Un problème central pour les solutions numériques est la persistance des effets. Pour reprendre le cas du télétravail, si aujourd’hui cela évite un trajet en voiture individuelle essence ou diesel, les trajectoires de décarbonation de la France laissent imaginer que le télétravail évitera en 2030 un trajet à pied ou à vélo, ou un trajet en voiture ou en transport en commun électrique. Cela implique que l’effet positif sera forcément à rendement décroissant et constitue plutôt un levier à court-terme, moins structurant pour une planification écologique. La logique peut aussi s’inverser : on observe généralement que des économies d’énergie liées à un système de chauffage plus intelligent sont généralement réinvesties par une augmentation de la température de chauffe du logement et donc un gain de confort (Belaïd et al, 2020), ce qui est un effet rebond direct classique. Toutefois, en pleine crise du coût de la vie et avec un prix du kWh plus élevé, il y a de fortes chances que cet effet rebond disparaisse à cause de budgets bien plus serrés dans les foyers. C’est cette grande ambivalence et cette grande exposition aux facteurs « contextuels » qui maintient en partie la numérisation comme un impensé de la transition écologique et explique la prudence du GIEC dans l’extrait cité en introduction. Ces grands chantiers de recherche ne font encore que commencer.

    Gauthier Roussilhe, doctorant RMIT / page web perso

    Bibliographie complète à télécharger ici

  • Une « glaise électronique » re-modelable a volonté !

    Concevoir les puces de demain grâce aux FPGA*s, une « glaise électronique » re-modelable a volonté, nous explique Bruno Levy.  Bruno est Directeur de Recherche Inria au sein du projet ParMA de l’Inria Saclay et du Laboratoires de Mathématiques d’Orsay. Il conduit des recherches en physique numérique et en cosmologie. Il joue également le rôle d’ambassadeur pour Risc-V.  Pierre Paradinas.

    (*) FPGA : Pour « Field Programmable Gate Array », à savoir, ensemble de portes logiques programmable « sur le terrain » …

    Créé par l’auteur avec DALL-E, depuis chat.bing.com.

    « S’il te plait, dessine moi la super-puce du futur pour l’IA de demain ? »
    « Ça, c’est la caisse, la super-puce que tu veux est dedans ! » (D’après St Exupéry et Igor Carron)

    La micro-electronique : des milliards de connexions sans s’emmêler les fils ! Les circuits intégrés, ou « puces », sont d’incroyables réalisations technologiques. Ils ont été inventés en 1958 par Jack Kilby dans l’objectif de simplifier la fabrication des circuits électroniques. Cette industrie était alors confrontée au problème d’arriver à fabriquer de manière fiable un grand nombre d’éléments. Le plus gros problème était posé par le nombre considérables de fils censés connecter les composants entre eux ! En gravant directement par un procédé photographique les composants et leurs connexions dans un morceau de semi-conducteur de quelques millimètres carrés, son invention révolutionne ce domaine, car elle a permis non-seulement d’automatiser le processus de fabrication, mais également de miniaturiser la taille des circuits et leur consommation énergétique de manière spectaculaire. Grâce à son invention, il propose une dizaine d’années plus tard, en 1972, la première calculatrice de poche. Dans la même période (en 1971), la firme Intel, à présent bien connue, sort une puce révolutionnaire, le Intel 4004, qui contient un ordinateur quasi complet (le tout premier microprocesseur), également dans l’objectif de fabriquer des calculatrices de poches. En quelques décennies, cette technologie progresse plus rapidement que n’importe quelle autre. Les premières puces des années 70 comportaient quelques milliers d’éléments (des transistors), connectés par des fils de quelques micromètres d’épaisseur (dans un millimètre on casait 1000 fils, ce qui était déjà considérable, mais attendez la suite…). Les puces d’aujourd’hui les plus performances comportent des centaines de milliards de transistors, et les fils font quelques nanomètres de large (dans un millimètre, on case maintenant un million de fils).

    Comment fabrique-t-on une puce ? Il y a un petit problème : arriver à structurer la matière à l’échelle atomique ne peut pas se faire dans un garage ! Pour donner une idée de la finesse de gravure (quelques nanomètres), on peut garder à l’esprit que la lumière visible a une longueur d’onde entre 300 et 500 nanomètres. Autrement dit, dans l’intervalle minuscule correspondant à une seule longueur d’onde électromagnétique de lumière visible, on sait graver une centaine de fils !!! Alors avec quoi peut-on réaliser ce tour de force ? Toujours avec des ondes électromagnétiques, mais de très très petite longueur d’onde, émises par un laser, à savoir des ultra-violets très énergétiques (qui sont une forme de « lumière » invisible), appelés EUV pour Extreme Ultra Violets. La firme néerlandaise ASML maîtrise cette technologie et équipe les principaux fabricants de puces (appelés des « fondeurs »), dont le Taïwanais TSMC, Samsung et Intel, avec sa machine (à plusieurs centaines de millions d’Euros, grosse comme un autobus, bourrée de technologie) qui permet de graver la matière à l’échelle atomique . La machine, et surtout l’usine autour de celle-ci, coûtent ensemble plusieurs dizaines de milliards d’Euros ! A moins d’être elle-même un fondeur (comme Intel), une entreprise conceptrice de puces va donc en général dépendre de l’une de ces entreprises, qui a déjà réalisé les investissements colossaux, et qui va fabriquer les puces à partir de son design. Cela a été le cas par exemple de Nvidia (qui fabrique à présent la plupart des puces pour l’IA), qui a fait fabriquer ses trois premières générations de puces graphiques dans la fin des années 1990 par le fondeur Franco-Italien ST-Microelectronics (qui gravait alors en 500 nanomètres, puis 350 nanomètres), pour passer ensuite au Taïwanais TSMC, qui avait déjà à l’époque un processus plus performant.

    Représentation de l’intérieur d’un FPGA, constitué d’un grand nombre de portes logiques, de cellules de mémoire et d’aiguillages permettant de les connecter. Ici, le circuit correspond à FemtoRV, un petit processeur Risc-V conçu par l’auteur.

    Et les petits acteurs ? Comment un petit acteur concepteur de puces peut-il accéder à cette technologie ? Le coût en faisant appel à un fondeur reste important, car pour chaque puce plusieurs étapes de développement sont à réaliser, comme la création des masques, sortes de « négatifs photo » permettant de créer par projection les circuits sur la puce. Afin de réaliser des prototypes, ou encore quand les exigences de performances sont moins importantes, il serait bien d’avoir une sorte de « boite » remplie de portes logiques, de fils et de cellules mémoires (comme sur l’illustration sous le titre), et de pouvoir rebrancher à volonté tous ces éléments au gré de l’imagination du concepteur. C’est exactement ce que permet de réaliser un FPGA. Un tel FPGA se présente sous la forme d’un circuit intégré, avec à l’intérieur tous ces éléments génériques, et un très grand nombre d’ « aiguillages » reconfigurables par logiciel (voir la figure). On peut le considérer comme une « glaise électronique », modelable à façon, permettant de réaliser n’importe quel circuit logique, à l’aide de langages de description spécialisés.

    Il existe une grande variété de FPGA, des plus petits, à quelques dizaines d’Euros, comportant quelques milliers d’éléments logiques, jusqu’au plus gros, à plusieurs milliers d’Euros, comportant des millions d’éléments. Ceci rend le « ticket d’entrée » bien moins onéreux. Combinées avec la disponibilité de FPGAs à faible coût, deux autres nouveautés favorisent considérablement l’émergence de petits acteurs dans ce domaine :

    • tout d’abord, l’apparition d’outils Open-Source, tels que Yosys et NextPNR, qui remplacent de grosses suites logicielles monolithiques par un ensemble d’outils simples, faciles à utiliser et réactifs. Ceci rend cette technologie accessible non-seulement aux petits acteurs, mais également à toute une communauté de hobbyistes, de manière similaire à ce qui s’est passé pour l’impression 3D.
    • d’autre part, le standard ouvert RiscV fournit à tous ces projets une norme libre de droit, facilitant l’émergence d’un écosystème de composants compatibles entre eux (c.f. cet article sur binaire ). Il est assez facile de réaliser un processeur Risc-V à partir d’un FPGA (tutoriel réalisé par l’auteur ici ).
    • et enfin, des initiatives comme TinyTapeOut, qui permettent à tout un chacun de s’initier à la fabrication de circuit intégrés, en intégrant les projets de plusieurs personnes sur une seule puce afin de réduire les coûts de production.

    Pourquoi est-ce intéressant et qu’est-ce que ça change ? Au-delà d’introduire plus de « bio-diversité » dans un domaine jusqu’à présent dominé par quelques acteurs, certains domaines peuvent grandement bénéficier de la possibilité de créer facilement des circuits électroniques : par exemple, les expériences réalisées à l’aide de l’accélérateur à particules LHC (Large Hadron Collider) du CERN génèrent un très grand volume de données, qui nécessite une électronique spécialisée pour leur traitement. D’autres domaines d’application nécessitent de contrôler très exactement le temps, d’une manière telle que seule un circuit spécialisé peut le faire. Enfin, un grand nombre de gadgets de type « Internet des Objets » possède à l’intérieur un système informatique complet, tournant sous Linux, ce qui représente un ensemble de problèmes en termes de sécurité informatique. Ceci est résumé dans cet article qui décrit un scénario fictif, où des brosses à dents connectés sont utilisées pour organiser une attaque par déni de service. Même si ce scénario était fictif, il reste malheureusement très réaliste ! Grâce aux FPGAs, il sera possible de remplacer tous ces petits ordinateurs génériques de l’Internet des objets par des versions spécialisées, à la fois plus économes en énergie et moins sensibles aux attaques informatiques.

    Et demain, une convergence entre le soft et le hard ? Avec les FPGAs, on assiste à une évolution où la frontière entre le soft (le logiciel) et le hard (le matériel) est de plus en plus ténue. Si on imagine qu’elle devienne totalement poreuse, on voit alors des ordinateurs qui reconfigurent automatiquement leurs circuits en fonction du programme à exécuter, afin d’être plus efficace et/ou de consommer moins d’énergie. Intel et AMD explorent déjà cette voie, en intégrant un FPGA dans un microprocesseur, ce qui permet de définir pour ce dernier de nouvelles instructions à volonté. En extrapolant encore plus loin cette vision, on pourra imaginer dans un futur proche une grande variété de schémas de conceptions et de modèles d’exécution, permettant de remplacer la puissance brute de calcul par plus de créativité et d’intelligence, réelle ou artificielle !

    Créé par l’auteur avec DALL-E, depuis chat.bing.com.

    Alors, de quoi rêvent les FPGAs … ?

    de moutons électriques, bien évidement !

    Bruno Lévy, Inria

     

  • ePoc : des formations au numérique à portée de main

    ePoc [electronic Pocket open course] est une application mobile gratuite et open source de formation au numérique développée par Inria Learning Lab (Service Éducation et Médiation Scientifiques). L’objectif : proposer des formations au numérique à portée de main. Aurélie Lagarrigue, Benoit Rospars et Marie Collin  nous explique tout cela. Marie-Agnès Énard.

    Ce billet est publié en miroir avec le site pixees.fr.

    En parallèle des Moocs produits sur la plateforme nationale FUN, ce nouveau format de formation a été spécialement conçu pour le mobile. L’intérêt est de bénéficier de formations :
    – toujours à portée de main : dans votre poche pour une consultation hors ligne où vous voulez et quand vous voulez ;
    – plus courtes avec des contenus variés et ludiques, adaptés aux petits écrans.

    Chaque formation ePoc est développée :
    – en assurant la qualité scientifique : les contenus sont élaborés en collaboration avec des chercheurs spécialistes ou experts du domaine ;
    – en respectant la vie privée : aucune collecte de données personnelles ;
    – en proposant une attestation de réussite, que vous pouvez télécharger à la fin de la formation.

    L’application est disponible gratuitement sur Google Play et App store et accessible en Open Source.
    Pour en savoir plus et télécharger l’application.

    Vous pouvez, dès à présent, télécharger 4 ePoc (entre 1 et 2h de formation chacun) avec des parcours pédagogiques engageants et spécialement conçus pour le mobile.

    Les 4 premiers ePoc à découvrir

    • B.A-BA des data : introduire les fondamentaux indispensables relatifs aux données à travers des activités simples et variées
    • Vie Privée et smartphone : découvrir l’écosystème des applications et leur usage des données personnelles
    • Internet des objets et vie privée : comprendre les implications liées à l’usage d’objets connectés dans la maison dite intelligente.
    • Smartphone et planète : identifier les impacts du smartphone sur l’environnement grâce à 3 scénarios illustrés : Serial Casseur, Autopsie d’un smartphone, La tête dans les nuages.

    Vous faites partie des premières et premiers à découvrir cette application, n’hésitez pas à faire part de vos avis (ill-ePoc-contact@inria), cela aidera à améliorer l’application.

    Voici en complément cette petite présentation vidéo:

    Belle découverte de l’application ePoc et de ses contenus !

    L’équipe conceptrice.

  • La réalité virtuelle ? Des effets bien réels sur notre cerveau !

    Comment notre cerveau réagit et s’adapte aux nouvelles technologies ?  La réalité virtuelle permet de vivre des expériences sensorielles très puissantes … et si elle se mettait dès maintenant au service de votre cerveau ? Anatole Lécuyer nous partage tout cela dans un talk TEDx. Pascal Guitton et Thierry Viéville

    Au-delà des jeux vidéos, ces nouvelles technologies ouvrent la voie à des applications radicalement innovantes dans le domaine médical, notamment pour les thérapies et la rééducation. Anatole Lécuyer nous parle de nouvelles manières d’interagir avec les univers virtuels.

    En savoir plus : https://www.tedxrennes.com/project/anatole-lecuyer

    La conférence TED est une importante rencontre annuelle qui depuis 33 ans  rassemble des esprits brillants dans leur domaine, et on a voulu permettre à la communauté élargie de ses fans de diffuser l’esprit TED autour du monde. Les organisateurs souhaitent que les échanges entre locuteurs et participants soient variés, inspirés, apolitiques dans un esprit visionnaire et bienveillant. Les sujets traités sont très vastes : économie, société, culture, éducation, écologie, arts, technologie, multimédia, design, marketing…

    Le texte de la conférence :

    Et si .. nous partagions ensemble une expérience de réalité virtuelle? Imaginez-vous, en train d’enfiler un visio-casque de réalité virtuelle comme celui-là, avec des écrans intégrés juste devant les yeux, que l’on enfile un peu comme un masque de ski ou de plongée, avec le petit élastique là, comme ça…
    Et .. voilà ! vous voilà « immergé » dans un monde virtuel très réaliste. Dans une pièce qui évoque un bureau, qui ressemble peut-être au vôtre, avec une table située juste devant vous, une plante verte posée dans un coin, et un poster accroché sur le mur à côté de vous.

    Maintenant, j’entre dans la scène .. et je vous demande de regarder votre main. Vous baissez la tête et voyez une main virtuelle, très réaliste aussi, parfaitement superposée à la vôtre et qui suit fidèlement les mouvements de vos doigts.
    Par contre, il y a un détail qui vous gêne, quelque-chose de vraiment bizarre avec cette main ..
    Vous mettez un peu de temps avant de remarquer.. ah, ça y est : un sixième doigt est apparu, comme par magie, là, entre votre petit doigt et votre annulaire .. !
    Je vous demande ensuite de poser la main sur la table, et de ne plus bouger. Avec un pinceau, Je viens brosser successivement et délicatement vos doigts dans un ordre aléatoire. Vous regardez le pinceau passer sur l’un ou l’autre de vos doigts, et lorsqu’il arrive sur le sixième doigt, vous êtes sur vos gardes .. mais là, incroyable, vous ressentez parfaitement la caresse et les poils du pinceaux passer sur votre peau. Vous ressentez physiquement ce doigt en plus…
    En quelques minutes, votre cerveau a donc assimilé un membre artificiel !

    Et voilà tout l’enjeu des expériences que nous menons dans mon laboratoire : Réussir à vous faire croire à des chimères, à des choses impossibles.
    Entre nous, je peux vous confier notre « truc » de magicien : en fait, lorsque vous voyez le pinceau passer sur le sixième doigt, en réalité moi je passe au même moment avec mon pinceau sur votre annulaire. Et votre cerveau va projeter cette sensation tactile au niveau du sixième doigt .. et ça marche très bien !
    Mais le plus incroyable dans cette expérience, c’est quand, à la fin, j’appuie sur un bouton pour restaurer une apparence « normale » à votre main virtuelle, qui redevient donc, instantanément, une main à cinq doigts. Tout est rentré dans l’ordre, et pourtant vous ressentez cette fois comme un manque… Comme si .. on vous avait coupé un doigt ! Une impression d’ « amputation » qui montre à quel point votre cerveau s’était habitué profondément à un doigt qui n’existait pourtant pas quelques instants auparavant !

    Les effets de la réalité virtuelle peuvent donc être extrêmement puissants. Et c’est bien parce-que ces effets sont si puissants, que je vous conseille de faire attention au moment de choisir votre avatar.. vous savez, ce personnage qui vous représente sur internet ou dans le monde virtuel. Quelle apparence, et quel corps virtuel allez-vous choisir ? Le choix est en théorie infini. Vous pouvez adopter un corps plus petit ou plus grand ? Sinon plus corpulent, plus mince, plus ou moins musclé ? Vous pouvez même virtuellement essayer de changer de genre, ou de couleur de peau. C’est l’occasion.
    Mais attention il faut bien choisir. Car l’apparence de cet avatar, et ses caractéristiques, vont ensuite influencer considérablement votre comportement dans le monde virtuel.
    Par exemple, des chercheurs ont montré que si l’on s’incarne pendant quelques temps dans l’avatar d’un enfant de 6 ans, et bien nous allons progressivement nous comporter de manière plus enfantine, en se mettant à parler avec une voie à la tonalité un peu plus aigüe. Un peu comme si l’on régressait, ou si l’on vivait une cure de jouvence éclair. Dans une autre étude, des participants s’incarnaient dans un avatar ressemblant fortement à Albert Einstein, le célèbre physicien. Et on leur demandait de réaliser des casse-têtes, des tests cognitifs. Et bien le simple fait de se retrouver dans la peau d’Einstein permet d’améliorer ses résultats de manière significative ! Comme si cette fois on devenait plus intelligent en réalité virtuelle. Cela peut donc aller très loin…
    On appelle ça l’effet « Protéus » en hommage à une divinité de la mythologie Grecque appelée « Protée » qui aurait le pouvoir de changer de forme. Cela évoque l’influence de cet avatar sur votre comportement et votre identité, qui deviennent « malléables », « changeants » dans le monde virtuel, mais aussi dans le monde réel, car cet effet peut même persister quelques temps après l’immersion, lorsque vous retirez votre casque.

    Bon, c’est très bien tout cela, vous allez me dire ..mais .. à quoi ça sert ? Pour moi, les applications les plus prometteuses de ces technologies, en tout cas celles sur lesquelles nous travaillons d’arrache-pied dans notre laboratoire, concernent le domaine médical. En particulier, les thérapies et la « rééducation ».
    Par exemple, si nous évoquons la crise sanitaire de la covid19, nous avons tous été affectés, plus ou moins durement. Nous avons tous une connaissance qui a contracté la maladie sous une forme grave, qui a parfois nécessité une hospitalisation et un séjour en réanimation, avec une intubation, dans le coma.
    Lorsque l’on se réveille, on se retrouve très affaibli, notre masse musculaire a complètement fondu. Il est devenu impossible de marcher ou de s’alimenter tout seul. Il va donc falloir réapprendre tous ces gestes du quotidien…
    D’ailleurs cette situation est vécue pas seulement dans le cas de la covid19, mais par près de la moitié des patients intubés en réanimation

    Le problème … c’est qu’il existe actuellement peu de moyens pour se rééduquer et faire de l’exercice dans cet état. Notamment parce que si vous commencez à pratiquer un exercice physique, simplement vous mettre debout, votre cœur n’est plus habitué et vous risquez de faire un malaise/syncope !
    C’est pourquoi, avec mes collègues chercheurs, nous avons mis au point une application très innovante qui est justement basée sur la réalité virtuelle et les avatars.
    Je vous propose de vous mettre un instant à la place d’un des patients. Vous vous êtes réveillé il y a quelques jours, dans un lit d’hôpital, perfusé, relié à une machine qui surveille en permanence votre état. Vous êtes encore sous le choc, très fatigué, vous ne pouvez plus bouger. Les heures sont longues.. Aujourd’hui on vous propose de tester notre dispositif. Vous enfilez donc un casque de réalité virtuelle, directement depuis votre lit. Dans la simulation, vous êtes représenté par un avatar, qui vous ressemble. Vous êtes assis sur une chaise virtuelle, dans une chambre d’hôpital virtuelle, relativement similaire à celle où vous vous trouvez en vrai.
    Lorsque vous êtes prêt, le soignant lance la simulation et .. votre avatar se lève et fait quelques pas. C’est alors une sensation très puissante, un peu comme si vous regardiez un film en étant vraiment dans la peau de l’acteur, en voyant tout ce qu’il fait à travers ses propres yeux. Vous vous voyez donc vous mettre debout et marcher… pour la première fois depuis bien longtemps !
    Ensuite, l’aventure continue de plus belle : l’avatar ouvre une porte et sort de la chambre. Un ponton en bois s’étend devant vous sur plusieurs centaines de mètres, et vous avancez tranquillement dessus, pour parcourir un paysage magnifique, tantôt une plage, tantôt une prairie, tantôt une forêt. Dépaysement garanti !
    Pendant tout ce temps, vous vous voyez donc à l’intérieur d’un « corps en mouvement », « un corps qui marche », qui « re-marche » et se promène, alors que, en réalité, vous êtes toujours resté allongé dans votre lit d’hôpital.

    Cette séance de marche virtuelle « par procuration », nous allons la répéter tous les jours, pendant 9 jours, à raison de 10 minutes par session.
    Notre hypothèse est que, en se voyant ainsi tous les jours en train de marcher, et en imaginant que l’on est en train de le faire, le cerveau va réactiver certains circuits liés à la locomotion, et va d’une certaine manière démarrer en avance son processus de rééducation.
    Et nous espérons que, grâce à cela, les patients vont ensuite se remettre à marcher plus vite et récupérer plus efficacement ; en améliorant par la même occasion leur moral et leur confiance dans l’avenir.
    Les essais cliniques ont démarré depuis quelques mois au CHU de Rennes. Comme dans tout travail de recherche médicale on ne connaîtra les résultats qu’à la toute fin de l’étude, dans six à douze mois. Mais ce que nous savons déjà, à l’heure où je vous parle, le 25 Septembre 2021, c’est que pratiquement tous les patients et les soignants qui ont utilisé cet outil en sont ravis, et qu’ils souhaitent même pouvoir continuer de l’utiliser après les essais.

    Alors, le principe d’une hypothèse c’est que l’on ne maîtrise pas le résultat final, mais moi .. j’y crois. Et je suis persuadé que cette technologie permettra d’obtenir des thérapies différentes, plus rapides, plus efficaces, et surtout plus accessibles demain pour de très nombreux patients à travers le monde.
    Mais vous maintenant, comment réagirez-vous, demain, dans quelques années, lorsque vous irez voir votre médecin, votre kiné, ou même simplement votre prof de sport ou de danse, lorsqu’elle vous tendra un visiocasque, et vous dira « alors, vous êtes prêt pour votre petite séance ? Et aujourd’hui, quel avatar voulez-vous choisir ? ».
    Ce sera donc à votre tour de choisir.. Et en faisant ce choix, vous détenez les clés, vous devenez acteur de votre propre transformation dans le virtuel et peut-être aussi dans le réel. Alors souvenez-vous, choisissez bien, car maintenant, vous savez les effets profonds et les pouvoirs bien réels de la réalité virtuelle sur votre cerveau.

     Anatole Lécuyer, Chercheur Inria.

  • Lettre aux nouveaux député.e.s : La souveraineté numérique citoyenne passera par les communs numériques, ou ne sera pas

    Lors de l’ Assemblée numérique des 21 et 22 juin, les membres du groupe de travail sur les communs numériques de l’Union européenne, créé en février 2022, se sont réunis pour discuter de la création d’un incubateur européen , ainsi que des moyens ou d’ une structure permettant de fournir des orientations et une assistance aux États membres. En amont, seize acteurs du secteur ont signé une tribune dans Mediapart sur ce même sujet. Binaire a demandé à un des signataires, le Collectif pour une société des communs, de nous expliquer ces enjeux essentiels. Cet article est publié dans le cadre de la rubrique de binaire sur les Communs numériques. Thierry Viéville.

    Enfin ! Le risque semble être perçu à sa juste mesure par une partie de nos élites dirigeantes. Les plus lucides d’entre eux commencent à comprendre que, si les GAFAM et autres licornes du capitalisme numérique offrent des services très puissants, très efficaces et très ergonomiques, ils le font au prix d’une menace réelle sur nos libertés individuelles et notre souveraineté collective. Exploitation des données personnelles, contrôle de l’espace public numérique, captation de la valeur générée par une économie qui s’auto-proclame « du partage », maîtrise croissante des infrastructures physiques d’internet, lobbying agressif. Pour y faire face, les acteurs publics oscillent entre complaisance (ex. Irlande), préférence nationale (ex. Doctolib) et mesures autoritaires (ex. Chine). Nous leur proposons une quatrième voie qui renoue avec les valeurs émancipatrices européennes : structurer une réelle démocratie Internet et impulser une économie numérique d’intérêt général en développant des politiques publiques pour défendre et stimuler les communs numériques.

    Rappelons-le pour les lecteurs de Binaire : les communs numériques sont des ressources numériques partagées, produites et gérés collectivement par une communauté. Celle-ci établit des règles égalitaires de contribution, d’accès et d’usage de ces ressources dans le but de les pérenniser et les enrichir dans le temps. Les communs numériques peuvent être des logiciels libres (open source), des contenus ouverts (open content) et des plans partagés (open design) comme le logiciel Linux, le lecteur VLC, l’encyclopédie Wikipédia, la base de données OpenStreetMap, ou encore les plans en libre accès d’Arduino et de l’Atelier Paysan. Malgré leur apparente diversité, ces communs numériques et les communautés qui en prennent soin ne sont pas des îlots de partage, sympathiques mais marginaux, dans un océan marchant de relations d’exploitation. Ils représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique.

    « Les communs numériques représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique »

    Ainsi, face au capitalisme numérique marchant et prédateur, les communs numériques sont le socle d’une économie numérique, sociale et coopérative. D’un côté, la plateforme de covoiturage Blablacar, une entreprise côté en bourse qui occupe une position dominante sur le secteur, prend des commissions pouvant aller jusqu’à 30% des transactions entre ses « clients ». De l’autre, la plateforme Mobicoop, structurée en SCIC (société coopérative d’intérêt collectif), offre un service libre d’usage à ses utilisateurs, en faisant reposer son coût de fonctionnement sur les entreprises et les collectivités territoriales souhaitant offrir un service de covoiturage à leurs salariés et leurs habitants.

    Face à des services web contrôlés par des acteurs privés, les communs numériques offrent des modèles de gouvernance partagée et démocratique de l’espace public. D’un côté, Twitter et Facebook exploitent les données privées de leurs usagers tout en gardant le pouvoir de décider unilatéralement de fermer des comptes ou des groupes. De l’autre, les réseaux sociaux comme Mastodon et Mobilizon, libres de publicités, offrent la possibilité aux utilisateurs de créer leurs propres instances et d’en garder le contrôle.

    Face à un Internet où les interactions se font toujours plus superficielles, les communs numériques permettent de retisser du lien social en étant à la fois produits, gouvernés et utilisés pour être au service de besoins citoyens. Pendant la pandémie de Covid19, face à la pénurie de matériel médical, des collectifs d’ingénieurs ont spontanément collaboré en ligne pour concevoir des modèles numériques de fabrication de visières qu’ils ont mis à disposition de tous. Près de deux millions de pièces ont ainsi pu être produites en France par des fablab à travers le territoire. Ce qui dessine, par ailleurs, une nouvelle forme de production post-capitaliste et écologique qualifiée de « cosmolocalisme » : coopérer globalement en ligne pour construire des plans d’objets, et les fabriquer localement de manière décentralisée.

    Et il ne faut pas croire que les collectifs qui prennent soin des communs numériques troquent leur efficacité économique et technique pour leurs valeurs. D’après la récente étude de la Commission relative à l’incidence des solutions logicielles et matérielles libres sur l’indépendance technologique, la compétitivité et l’innovation dans l’économie de l’UE, les investissements dans les solutions à code source ouvert affichent des rendements en moyenne quatre fois plus élevés. Si l’Open source doit intégrer une gouvernance partagée pour s’inscrire réellement dans une logique de commun, il fournit la preuve que l’innovation ouverte et la coopération recèlent d’un potentiel productif supérieur aux organisations fermées et privatives [1].

    Voilà pourquoi nous pensons que les acteurs publics territoriaux, nationaux et européens doivent protéger et soutenir le développement de communs numériques. Ils doivent faire de la France un pays d’accueil des communs numériques, soutenant leur mode de production contributive et leur modèle d’innovation ouverte qui ont fait leurs preuves d’efficacité face au modèle privatif. Ils doivent favoriser les infrastructures de coopération et la levée des brevets qui ont permis au mouvement des makers de produire avec une forte rapidité et résilience des objets sanitaires dont les hôpitaux français manquaient. Ils doivent s’inspirer de leur gouvernance partagée entre producteurs et usagers pour rendre le fonctionnement des administrations elles-mêmes plus démocratique. Ils doivent s’appuyer sur eux pour penser la transition écologique du secteur numérique.

    Avec le Collectif pour une société des communs, nous sommes convaincus que les communs en général, et les communs numériques en particulier, sont les ferments d’un projet de société coopérative, désirable et soutenable. Nous nous adressons aux acteurs publics en leur proposant des mesures applicables. Voici un aperçu des mesures pro-communs numériques que les nouveaux député.e.s de l’Assemblée nationale pourraient mettre en place.

    « Voici un aperçu des mesures pro-communs numériques que les député.e.s du Parlement renouvelé pourraient mettre en place »

    Pour commencer, la France et l’Europe doivent lancer une politique industrielle ambitieuse pour développer massivement l’économie de la production numérique ouverte, contributive et coopérative. Les organismes publics commencent à montrer des signes dans cette direction. Mais il faut aller plus vite et taper plus fort pour être en mesure de transformer en profondeur les régimes de production capitalistes et les habitudes d’usages associés de l’économie numérique. Nous proposons la création d’une « Fondation européenne des communs numériques » dotée de 10 milliards par an. Elle aurait un double objectif d’amorçage et de pérennisation dans le temps des communs numériques considérés comme centraux pour la souveraineté des internautes, des entreprises et des États européens qui auraient la charge de la financer. Il s’agirait à la fois de logiciels (open source), de contenus (open content) et de plans (open design). Cette fondation aurait une gouvernance partagée, entre administrations publiques, entreprises numériques, associations d’internautes et collectifs porteurs de projets de communs numériques, avec un pouvoir majoritaire accordé à ces deux derniers collèges.

    Ensuite, la France et l’Europe doivent devenir des partenaires importants de communs numériques pour transformer le mode de fonctionnement de leurs administrations. Depuis quelques années, l’Union européenne avance une stratégie en matière d’ouverture de ses logiciels et la France s’est doté d’un « Plan d’action logiciels libres et communs numériques  » allant dans le même sens. Mais ces avancées, à saluer, doivent être poursuivies et renforcées pour aboutir à un réel État-partenaire des communs numériques. Les administrations doivent se doter de politiques de contribution aux communs numériques. Dans certains cas, elles pourraient créer des outils administratifs pour normaliser les partenariats « public-communs ». Ainsi, les agents de l’IGN pourraient contribuer et collaborer avec OpenStreetMap dans certains projets cartographiques d’intérêt général, à l’occasion de catastrophes naturelles par exemple. Enfin, les administrations devraient être des heavy-users et des clients importants des services associés aux communs numériques. La mairie de Barcelone est le client principal de la plateforme de démocratie participative Decidim et finance le développement de fonctionnalités dont profitent toutes les autres administrations moins dotées. Les institutions publiques devraient également modifier leur politique de marché public en privilégiant aux « appels à projets » chronophages, les « appels à communs » incitant les potentiels répondants à coopérer entre eux.

    Pour finir, la France devrait « communaliser » l’infrastructure physique du monde numérique. Elle pourrait notamment créer des mécanismes incitatifs et un fonds de soutien aux fournisseurs d’accès à Internet indépendants ayant des objectifs écologiques afin de les aider à se créer ou se structurer. Nous pensons par exemple au collectif des Chatons qui participe à la décentralisation d’Internet, le rendant plus résilient, tout en permettant à des associations locales de bénéficier de leur infrastructure numérique et ainsi de préserver leur autonomie. La France pourrait enfin aider l’inclusion des associations citoyennes, notamment environnementales, dans la gouvernance des datacenters et autres infrastructures numériques territorialisées, dont le coût écologique s’avère de plus en plus élevé.

    Collectif pour une société des commun, https://societedescommuns.com/

    PS : Ces propositions se trouvent dans le livret « Regagner notre souveraineté numérique par les communs numériques ». Elles vont être affinés dans le temps. Le Collectif pour une société des communs organise le samedi 24 septembre une journée de travail qui leur est dédiée avec des acteurs publics, des praticiens et des chercheurs. Si vous souhaitez y participer, écrivez-nous à societedescommuns@protonmail.com.

    [1] Benkler Y., 2011, The Penguin and the Leviathan: How Cooperation Triumphs over Self-Interest, 1 edition, New York, Crown Business, 272 p.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Le Web3 ? C’est quoi ça encore ?

    Du web par la blockchain et un rêve de décentralisation ?  C’est le projet Web3 dont certains technophiles ne cessent de parler depuis quelque temps.

    Pour nous aider à y voir plus clair,
    Numerama nous l’explique en 8 minutes dans ce podcast

    Gavin Wood, en décembre 2017. // Source : Noam Galai, repris de l’article Numerama.

    En un mot ?

    Le projet derrière Web3 est de procéder à une décentralisation du net, « Les plateformes et les applications ne seront pas détenues par un acteur central, mais par les usagers, qui gagneront leur part de propriété en contribuant au développement et à la maintenance de ces services », ceci en s’aidant de la technologie dite de la blockchain (ou chaîne de blocs). Il s’agit de l’équivalent d’un registre numérique et public dans lequel toutes les transactions en sont inscrites et conservées, nous explique Gavin Wood.

    Euh c’est quoi la blockchain déjà ?

    Nous trouvons les intentions et le positionnement vraiment super, et cette idée de blockchain, comme Heu?Reka et ScienceEtonnante nous l’explique, y compris en vidéo, tandis que Rachid Guerraoui démystifie la blockchain pour nous sur binaire.

    L’avis de binaire sur le web3

    L’article Numerama est vraiment bien fait et c’est tout à fait intéressant de voir comment des professionnel·le·s de l’informatique se proposent de remodeler notre monde numérique de demain,

    Et nous sommes d’accord avec l’avis de Numerama : la logique de financiarisation qui sous-tend ce nouveau concept à la mode fait débat.

    En plus, plusieurs interrogations se posent à nous.

    – Tout d’abord, l’accès à cette nouvelle technologie : qui pourra et saura la maîtriser ? Une des raisons principales du succès du web actuel repose sur sa large ouverture. Ici on parle d’un système où les usagers pourront, au delà d’un simple usage, « gagner une part de propriété en contribuant au développement et à la maintenance de ces services » : l’idée est vraiment intéressante et louable, mais impose là encore que nous maîtrisions toutes et tous ces technologies et dans une certaine mesure leur fondements,  cela n’exclue-t-il pas de facto une grande partie des utilisateurs  actuels ? En tout cas cela nourrit cette réflexion commune sur le niveau de culture scientifique et technique que l’usage du numérique impose à chacun·e d’acquérir.

    – Et puis, demeure la question fondamentale : à quel coût environnemental ? Si le Web3 présente des avantages questionnables pour la démocratie, il conduit à des dégâts indiscutables pour cette planète que nous avons reçue et devons laisser en héritage à nos enfants.  Les deux sûrement, mais dans ce cas, ce Web3 n’est apparemment pas encore la solution.

     

  • Quel est le but des applications de rencontres ?

    On a tous entendu parler de tinder.com  qui propose de mettre en relation des personnes avec des profils répondant aux critères de son choix. Cette application répond à d’autres usages que de s’en remettre au hasard des rencontres quotidiennes ou celles des soirées plus ou moins erratiques. Mais s’appuyer, pour un aspect souvent majeur de notre vie, sur un système de recommandation très difficile à comprendre n’est-il pas problématique ? Alors si nous prenions un peu de recul et de hauteur pour réfléchir à cela ? Isabelle Collet nous propose de voir ce qu’il se cache derrière les coulisses du fonctionnement de cet outil. Serge Abiteboul et Marie-Agnès Enard.

    En 2019, la journaliste Judith Duportail sort une enquête autobiographique « L’amour sous algorithme » aux Éditions de la Goutte d’or. Elle nous raconte deux histoires simultanément. D’une part, les réflexions et sentiments d’une journaliste trentenaire parisienne qui, suite à une rupture amoureuse, charge la plus célèbre des applications de rencontre, et d’autre part l’histoire de Tinder, l’application créée en 2012, qui a révolutionné la manière de faire des rencontres.

    Photo de cottonbro provenant de Pexels

    Un support pour l’introspection
    La première histoire est une histoire sensible et honnête sur le rapport à soi, à son image, à l’amour, quand on est une jeune femme moderne, féministe mais vivant à l’ombre des grandes tours du « male gaze », c’est-à-dire du regard des hommes. Comment gérer le célibat et l’envie de faire des rencontres quand on doit aussi passer sous Les Fourches caudines des injonctions sociales détaillant ce qui serait « une vie digne d’être vécue » comme le dit Judith Butler. La recette officielle du bonheur féminin est simple ; elle a d’ailleurs assez peu changé depuis une vingtaine d’années. Le bonheur ? C’est un jean taille 36. La honte ? Être célibataire à 30 ans. La pire angoisse ? Ne pas réussir à se caser avant 40 ans parce qu’après on perd toute valeur sur « le marché de la bonne meuf » comme dit Virginie Despentes. La réussite ? Rentrer dans un jean en taille 36. Ce qui disait Bridget Jones en 1996 n’a pas pris une ride… même si la conscience féministe de l’autrice sait bien que ces règles ne viennent pas d’elle et que plus elle tente de s’ajuster à cet idéal patriarcal, moins elle se respecte.
    Peut-être que l’élément qui manque à son récit, c’est la prise de conscience de sa dimension très située : cette histoire est précisément celle d’une Parisienne blanche trentenaire qui a fait des études supérieures. Ses contraintes, ses angoisses, ses loisirs et ses libertés sont étroitement liés à sa position sociale. Elle raconte sa propre histoire, mais sans avoir explicitement conscience que cette histoire est liée à sa catégorie socioprofessionnelle et à son âge. Ce qui la choque le plus, dans son enquête sur Tinder, c’est le fait que l’application lui attribue une note de désirabilité, un score qui est secret et qui conditionne le type de profil qui lui sera proposé. Tinder fait se rencontrer des joueurs de mêmes forces, c’est-à-dire des personnes évaluées comme également désirables, mais Tinder ne communique pas à ses client-es la note qui leur attribue. Une partie de l’enquête de Judith Duportail va être motivée par la découverte de cette note. Pourtant, nous allons voir qu’il ne s’agit que d’un détail de la stratégie de Tinder.

    Illustration du livre l’amour sous algorithme ©editionsgouttedor.com

    L’histoire dont je vais parler dans ce texte, c’est l’autre, celle de Tinder et des applications de rencontre. Judith Duportail n’est la seule à la raconter. Elle a beaucoup été aidée par Jessica Pidoux, doctorante à l’université de Lausanne. A l’origine des travaux de Jessica Pidoux, il y a une idée toute simple. Quels sont les brevets qui ont été déposés par Tinder et qui sont donc à l’origine de son fonctionnement ? Les entreprises répètent tellement que leurs algorithmes sont secrets qu’on finit par les croire. Pourtant, quand on dépose une idée pour qu’on ne vous la vole pas, il faut bien la décrire. En somme, une bonne partie du mystère est disponible sur Internet, le reste, c’est de l’analyse sociologique.
    En préambule, je tiens à préciser que je n’ai rien contre le principe des applications de rencontres, que ce soit pour rechercher une rencontre éphémère ou un partenaire de longue durée. Utiliser une telle appli, c’est un moyen pour sortir de l’entre-soi, pour éviter de devoir draguer sur son lieu de travail, pour éviter de transformer tous ses loisirs en possible terrain de chasse. C’est aussi un moyen de faire de l’entre-soi : rencontrer des personnes qui ont la même religion ou les mêmes valeurs sociales comme les applications qui ciblent les personnes avec un mode de vie écologique et décroissant. Et enfin, c’est un moyen de s’amuser avec sa sexualité. Mon seul problème, avec ces applications, c’est leur opacité, d’une part, et leur côté addictif d’autre part… non pas addictif à la rencontre, mais à l’application elle-même. Un fonctionnement avec lequel les utilisateurs et utilisatrices ne sont pas familiers, faute d’avoir été averti-es (voire formé-es) et sur lesquels les applications se gardent de communiquer.

    ©123rf.com

    Les applications de rencontre : de grosses machines à sous
    Tout part d’un malentendu : on croit, à tort, que le but premier de Tinder et de ses clones est de nous permettre de faire des rencontres. Il n’en est rien : leur but est de rapporter de l’argent. Les rencontres sont juste le moyen d’y parvenir. Comment monétiser efficacement ce genre de site ? Comme beaucoup d’autres sites, Tinder est gratuit mais vend des fonctionnalités qui permettent à la version gratuite d’être plus performante. Tinder ne souhaite pas vous faire rencontrer l’amour, car ce serait la mort de son fonds de commerce. D’ailleurs, il ne s’est jamais positionné sur le créneau de la rencontre « pour la vie » mais plutôt du « coup d’un soir » ou du « plan cul » : ce sont des expériences qu’on peut réitérer sans fin et rapidement, contrairement à la relation amoureuse sexuellement exclusive, qui n’est absolument pas « bankable ».

    L’autre moyen mis en œuvre par Tinder pour gagner de l’argent est de transformer ses utilisateurs-trices en produit. À la connexion, Tinder déploie un certain nombre de subterfuges pour collecter un maximum de données vous concernant. Il vous invite à lui donner les clés de votre compte Facebook, pour éviter de présenter votre profil à vos amis-es. Il vous propose, via Spotify, de mettre en lien votre chanson préférée, car la musique est un excellent moyen d’entamer la conversation. Enfin, il vous invite à connecter votre compte à Instagram où il y a des tonnes de photos géniales qui vous permettront de vous mettre en valeur. Prévenant, Tinder ? Disons plutôt qu’il se comporte comme un formidable aspirateur, engrangeant tout ce qu’il peut attraper et utilisant une infime partie de ces informations pour son activité « vitrine » : vous aider à rentrer en relation avec les inconnu-es qui vous ressemblent.
    On peut toutefois utiliser Tinder en fournissant le strict minimum d’informations : pour utiliser l’application, vous avez seulement besoin de mettre votre numéro de téléphone (qui ne sera pas communiqué), un pseudo, votre âge, sexe et localisation. Puis, vous indiquez le sexe des personnes recherchées, leur tranche d’âge et la distance maximum à laquelle elles doivent habiter. Ensuite, l’application vous demande de charger 2 photos pouvant représenter n’importe quoi (vous pouvez même mettre une photo noire), et c’est parti.

    Les rencontres seront-elles moins riches ou moins satisfaisantes si vous frustrez Tinder dans la pêche à l’information ? Si on va sur Tinder, c’est d’abord parce qu’on s’en moque un peu de cette « compatibilité » calculée car il existe de nombreuses applications qui vous font remplir un questionnaire détaillé. Alors, inutile de donner des données qui ne servent qu’à monnayer notre profil. De toute façon, l’IA de Tinder est bien incapable de deviner ce qu’est une alchimie qui fonctionne, elle peut juste trouver des proximités entre les profils. En outre, un sondage rapide auprès des utilisatrices et utilisateurs indique assez vite que « riches et satisfaisantes » ne sont pas les adjectifs les plus utilisés pour décrire les rencontres… ni même ce qui est toujours recherché.

    La deuxième manière pour Tinder de faire de l’argent est la vente régulière de fonctionnalités permettant d’optimiser votre « expérience d’utilisation ». Pour cela, il faut vous rendre accro. Tinder / Candy crunch / Facebook et les autres : même combat. La ludification de l’activité combinée à un système de récompenses et d’encouragements vous incite à continuer à jouer indéfiniment. Il faut reconnaitre que Tinder a un système de gratification particulièrement efficace : sur Instagram, on aime vos photos, sur Facebook, on salue vos propos ou les infos que vous transférez, sur Tinder on vous aime, vous ! Double dose de dopamine. Le succès de Tinder tient à mon sens davantage à l’ergonomie de son interface qu’à la performance de son algorithme…

    La gestion du catalogue de profils
    Vous voilà donc devant l’application et vous êtes prêt ou prête à… à quoi au fait ? Vous savez bien que ce n’est pas pour trouver l’amour… mais on ne sait jamais… Le prince charmant, la reine des neiges va peut-être vous contacter…
    Vous entrez dans l’application et une première photo apparaît : Jojo, 40 ans, a étudié à : école de la vie, situé à 3 km. Si Jojo ne vous plait pas, vous glissez la photo à gauche. Ce geste, c’est le coup de génie de Tinder, le brevet qui restera : le swipe. Swipe à droite, ça vous plait, swipe à gauche, ça ne vous plait pas. Ultra intuitif, ultra efficace. Donc vous swipez Jojo vers la gauche, et là, Tim apparait, 48 ans, 25 km, Ingénieur, a étudié à Sup Aéro. Une phrase d’accroche : « Ce que je cherche chez l’autre ? l’honnêteté ». Au fond de vous, il y a peut-être une petite voix qui vous dit : « ça m’étonnerait que quelqu’un écrive : ce que je cherche ? c’est qu’on me mente régulièrement », mais on est là pour jouer… vous swipez à droite. Et on passe à Roméo, 35 ans, qui cherche des rencontres en toute discrétion Etc. La pile de photos semble sans fin. Si Tim vous swipe également à droite, Tinder vous mettra en contact, c’est un match. Comme on ne sait pas qui vous a sélectionné, autant en sélectionner beaucoup, pour augmenter ses chances de matchs. Et on continue à faire défiler le catalogue… Gus, 43 ans, fonctionnaire, « Je cherche quelqu’un qui me fera quitter Tinder. J’aime les chats, le vélo et les femmes qui ont de l’humour ». Swipe. Au suivant.

    @pexels

    Mais au fait, comment cette pile est-elle triée ? C’est là qu’intervient votre score de désirabilité. Plus vous êtes choisi, plus vous êtes désirable et plus on vous présente des personnes souvent choisies. Pour que le jeu fonctionne indéfiniment, il faut que les profils présentés vous plaisent, avec de temps en temps, un profil top qui vous relance et vous incite à continuer à faire défiler. Ou une incitation à payer un service qui vous permettra un super match. Tinder vous évalue, et pour cela il applique les règles archaïques de la société patriarcale, il estime qu’il vaut mieux présenter des hommes à haut niveau social à des femmes plus jeunes qu’eux et à moins hauts revenus. Avec votre compte Facebook, Instagram, et même avec vos photos, Tinder se fait une idée de qui vous êtes. Vous êtes en photo dans votre salon ou dans une piscine de jardin ou sur des skis ou en parapente ou devant le Golden Gate… tout cela dit des choses sur votre niveau social.

    Curieusement, c’est ce score de désirabilité (appelé elo score) qui a le plus choqué Judith Duportail. Elle pouvait admettre d’être notée, mais supportait pas de ne pas connaître sa note. Pourtant, noter, évaluer les uns et les autres d’une manière non transparente est une activité commune et continuelle… Facebook a été créé originellement pour noter les étudiantes à Harvard, les banques évaluent votre capacité à rembourser un prêt, même Parcours sup vous jauge sans tout vous dire de ses critères. Quoiqu’on pense du procédé, il est assez banal.

    La plus grande difficulté de Tinder, c’est d’équilibrer ses deux catalogues : il y a au moins deux fois plus d’hommes que de femmes sur les sites de rencontre. D’autant plus que les hommes, pour augmenter leurs chances s’inscrivent partout : Tinder, mais aussi Meetic, Adopte un mec, Ok Cupid, Fruitz… les sites ne manquent pas et les hommes accentuent le déséquilibre en faisant feu de tout bois.
    Le résultat est que pour les femmes, l’utilisation d’un site de rencontre est vite gratifiante : elles ont un succès fou, elles sont en position de force sur un marché tendu. Si vous sélectionnez une dizaine de profils, vous vous retrouvez à devoir gérer la file d’attente des hommes qui vous ont matché… mais restez lucide : ce n’est pas parce que vous êtes incroyablement attirante… c’est surtout parce que vous êtes rare. Judith Duportail et Nicolas Kayser-Bril ont échangé les rôles : Nicolas a mis une photo noire en disant qu’il était une femme… Au bout de deux heures, il ne supportait plus les mecs. Il était dragué sans relâche. Sur la tranche d’âge des trentenaires, beaucoup d’hommes ne choisissent pas. Ils swipent toutes les femmes et attendent que ça morde. Autant pour l’algorithme sophistiqué.

    Tinder se paye sur la frustration des hommes. Il y a tellement de profils d’hommes que le vôtre ne sera peut-être jamais présenté. Pas assez séduisant, pas assez riche, pas assez sexy, bref, pas bien noté. Mais si vous payez, votre profil sera présenté en tête pendant un certain laps de temps.

    Un supermarché de la rencontre pour les un-es, un moyen d’empowerment pour les autres

    Photo de Olya Kobruseva provenant de Pexels

    Pour que Tinder donne sa pleine mesure, il a besoin de beaucoup de profils et de beaucoup de données. L’expérience Tinder à Auxerre ou à Tulle n’est pas la même qu’à Paris. L’expérience Tinder d’une Parisienne de 30 ans est très différente de celle d’une quadra vivant à la campagne… et pour le coup, il y aussi des bonnes nouvelles. A force de lire des récits ou des interviews de jeunes adultes, on oublie qu’il n’y a pas de limite d’âge pour s’inscrire ni pour draguer. Au moment où des chroniqueurs goujats expliquent que les femmes de 50 ans sont invisibles, celles-ci découvrent sur Tinder que des hommes qui ont plus ou moins leur âge sont désireux de les séduire…
    et si Tinder apporte son lot de mecs lourds et vulgaires, il est bien plus simple de s’en débarrasser en ligne que dans une soirée.

    Ces applications sont accusées de marchandiser les relations sentimentales, de pousser à la collection de rencontres. Comme dit Judith Duportail : on revient toujours voir s’il n’y a pas mieux en rayon. Les gens risquent-ils de devenir des célibataires en série, dépendant des applications pour se rencontrer ? En réalité, aucune évidence scientifique ne démontre de tels faits, au contraire.
    D’une part, les rencontres sont facilitées : dans la vie hors ligne (et surtout en période de pandémie), tout le monde n’a pas une vie sociale dense, ni le temps, l’envie ou l’audace nécessaires pour aborder les inconnu-es. De plus, si les hommes ont peur d’être repoussés, les femmes ont peur d’être agressées… l’enjeu du « raté » n’est pas le même mais dans les deux cas, le risque se gère bien mieux à distance.
    Dans cette enquête « les applications de rencontres ne détruisent pas l’amour« , Gina Potarca montre qu’il n’existe pas de différence sur les intentions des couples formés en ligne ou à l’ancienne. En particulier aucune différence n’existe sur l’intention de se marier ou pas. Et, quel que soit le type de rencontre, les couples sont tout aussi heureux de leur vie et de la qualité de leur relation avec leur partenaire. Enfin, ce mode de rencontre est particulièrement favorable aux femmes diplômées qui trouvent plus facilement un partenaire, là encore, à l’encontre des idées reçues qui voudraient que les femmes intelligentes soient vouées au célibat. Au final, Tinder permet de la mobilité sociale : parce que, quoiqu’en pensent ses concepteurs, des hommes sortent volontiers avec des femmes plus âgées, plus diplômées ou plus riches qu’eux.

    Votre vie en ligne
    Finalement, ces applications ont considérablement modifié les modes d’entrée en relation, permettant à bien plus de personnes de se lancer. La honte larvée qui existait à utiliser ce genre de « petites annonces » (car le procédé est tout de même ancien !) est en train de disparaître, même si les femmes restent plus réticentes, parce que ce sont elles qui ont le plus à perdre si ça tourne mal, y compris en termes de réputation. Mais derrière cette révolution sociale de la rencontre, il faut garder à l’esprit que le fond de l’affaire, la motivation première, ce sont nos données. Les connexions entre les bases de données qui ne sont pas faites aujourd’hui le seront peut-être demain, au hasard des rachats de services entre GAFAM. Demain, votre profil Tinder pourrait alimenter les IA de recrutement qui ratissent LinkedIn : elles iront lire votre conversation sexy sur WhatsApp avant de savoir si vraiment vous êtes fait-e pour le job… N’oubliez pas que quand vous supprimez une conversation ou un profil, Internet, lui, n’oublie rien.

    Encore plus d’infos sur Tinder ? L’excellente série Dopamine, sur Arte .

    Isabelle Collet.

  • L’école à la maison

    Quand on parle de numérique et d’éducation, on oublie souvent que le premier lieu éducatif ainsi que d’usage du numérique est … dans la famille. Avec la crise sanitaire, l’expansion des usages du numérique entre la maison et l’école nécessite encore plus de prendre le temps de la réflexion. C’est ce que nous invite à faire, dans une série de trois articles, Anne-Sophie Pionnier, en partageant son travail d’étude en Master MSc SmartEdTech sur la co-créativité et les outils numériques pour l’innovation éducative. Bonne lecture et bienvenue pour en discuter dans les commentaires avec l’autrice. Thierry Viéville et Pascal Guitton.

    Ecole à la maison pendant le confinement : regard bienveillant ou défiance des parents sur le travail des enseignants ?

    « Ce qui m’a interpellé pendant cette période [de confinement], c’est que la forme scolaire avait explosé. On n’avait plus ce rendez-vous dans ce lieu précis qu’est l’école. Et ces enfants éparpillés sur un chemin. On ne savait pas trop où il menait. Mon idée était de les mettre sur le chemin et de jouer ce rôle, un peu comme un équilibriste, de tendre le bâton. Alors je n’étais pas toute seule. D’un côté, il y avait le rôle de l’enseignant, de l’autre côté, il y avait les parents. Et ça, c’était nouveau ! », affirme Marie Soulié, professeure de français en collège, lors de l’émission du 24 septembre 2020 à la Maison de la radio.(1)

    Dans ce troisième article sur les sujets éthiques dans la relation digitale parents-école, je souhaite aborder le sujet de l’impact de l’école à la maison lors du confinement lié à la pandémie de Covid. Marie Soulié, ainsi que de nombreux autres acteurs et spectateurs de cette période ont mis en avant le nouveau rôle des parents.

    Un contexte de changement non programmé

    Lors du premier confinement du 17 Mars au 11 mai 2020 dû aux mesures sanitaires pour lutter contre la Covid-19, les écoles primaires et les collèges de France ont fermé leurs portes. Enseignants, élèves et parents n’ont eu que quelques jours pour organiser ce que l’on a plus tard appelé la « continuité pédagogique » et qui consistait à passer d’un lieu physique d’apprentissage à l’école, à un lieu digital d’apprentissage à la maison. Ce changement sans précédent et non programmé a véritablement bouleversé tous les acteurs de l’Education dans leur façon de travailler, de s’organiser, de communiquer et d’aborder les outils numériques. Cependant, cette situation a pu être vécue différemment en fonction de l’équipement et de l’expérience passée dans l’utilisation d’outils numériques. La ligne de départ n’était pas identique pour tous les enseignants, élèves et parents. Ainsi, « les compétences numériques des parents d’élèves ont été perçues comme quasiment aussi problématiques que celles des élèves » (2)

    Source : Ecole, numérique et confinement en France / infographie réseau Canopé

    Des rôles bouleversés ou qui s’inversent

    Du jour au lendemain, la maison est devenue l’annexe de l’école et les outils numériques pour communiquer entre enseignants, chefs d’établissements d’un côté et élèves, parents de l’autre sont devenus indispensables. Tout à coup, ce ne sont plus les parents qui devaient rentrer à l’école « par la fenêtre du digital »(3) mais plutôt aux enseignants et aux directions d’établissements de frapper à la porte des parents et de leurs enfants… Un véritable changement d’angle de vue sur l’apprentissage pour tous les acteurs de l’éducation.

    Pour les enseignants, impossible de ne pas passer par les parents pour communiquer, surtout avec les plus jeunes élèves. Un intermédiaire au quotidien apparaît et se met entre eux et les apprenants. Surtout, les enseignants doivent leur faire confiance, ils n’ont pas le choix. Ils doivent aussi faire confiance au numérique pour communiquer avec les parents et les enfants. Or, l’utilisation et l’aisance avec les outils numériques est variable : « une très forte majorité d’enseignants (96,5 %) utilisait les outils numériques pour travailler avant le contexte de confinement, et 69,2 % s’estimait à l’aise avec ceux-ci. Pour autant, cela ne signifie pas qu’ils étaient préparés à l’enseignement à distance, les outils numériques étant jusqu’alors utilisés en support d’un enseignement traditionnel, avec une faible part d’enseignants ayant expérimenté la classe virtuelle avant le confinement. »(2) L’exercice n’est donc pas aisé et les enseignants se sentent plus ou moins à l’aise. Difficile de s’entraider entre collègues puisqu’il faudrait le faire par le digital et que chacun est concentré sur la mise en place de sa propre pédagogie. Concernant les outils, la plupart des enseignants deviennent donc des apprenants, d’autant plus que les conditions sont celles d’une situation de crise.

    Pour les parents, ce n’est pas seulement un changement de méthode et d’outils mais un changement de métier ! Du jour au lendemain, ils se transforment en enseignants à la maison ou du moins doivent-ils accompagner l’apprentissage de leur enfant, surtout pour les classes de primaire mais aussi de collège. Or, la plupart n’a ni la compétence (formation en pédagogie), ni la légitimité (l’enfant les considère comme leur parent avant tout), ni la connaissance dans certaines matières qu’ils peuvent ne pas maîtriser, ni le temps puisqu’ils doivent aussi assurer leur « continuité de travail » souvent en télétravail. « Pour 45 % des parents, le stress vis-à-vis de l’École a augmenté. »(2)

    La qualité, la diversité et la quantité de ce que reçoivent les parents et les élèves de la part des enseignants est très variable. La plupart des enseignants fournissent les ressources pédagogiques mais la plupart des jeunes élèves ne sont pas suffisamment autonomes pour utiliser ces ressources et effectuer le travail demandé seuls. Les conditions de travail dépendent des parents. Or, il y a eu de nombreux témoignages, particulièrement dans les médias, de parents remerciant les enseignants pour leur travail et réalisant la difficulté des métiers de l’enseignement, mais a-t-on entendu beaucoup de remerciements de la part des enseignants envers ces parents qui ont permis, eux aussi, la continuité pédagogique ? Dans ce sens, certains parents ne se sont pas sentis reconnus dans leur implication.

    De plus, les parents n’ont pas eu le sentiment d’un rapprochement avec les enseignants. Ainsi, dans une enquête en ligne auprès de 256 parents d’enfants scolarisés en France de la maternelle jusqu’au lycée (4), à la question « Le confinement et l’école à la maison ont-ils permis un rapprochement avec les enseignants ? », les parents ont répondu « Pas du tout » et « Plutôt non » pour 46%.

    Un regard plus critique de la part des parents et une défiance opérationnalisée

    Pendant le confinement, les parents ont pu entrer en contact direct avec les enseignants et parler bien-être de leur enfant mais également pédagogie. Ils ont pu également observer la quantité et la qualité des ressources pédagogiques transmises par les enseignants à leur enfant. Ils ont pu remarquer la facilité ou la difficulté des enseignants face aux outils digitaux. A ce moment-là, ils ont eu les moyens de devenir critiques quant aux compétences des enseignants, de façon positive ou négative.

    Les enseignants ont pu se sentir observés, voire jugés, par les parents dans leurs compétences, leur manière d’enseigner.

    A ce titre, on peut affirmer que le confinement de Mars 2020 a été un facteur d’accentuation de la critique (positive ou négative) par les parents. Il faut dire que le confinement a permis aux parents de s’immiscer plus dans le travail des professeurs et parfois de le juger. Et tout ceci, à distance, amplifiant la critique dans un sens ou un autre.

    A ce stade, il me semble intéressant de mettre en parallèle les recherches d’Alexandre Monnin, mises en avant dans la vidéo “Penser le numérique”.(5) Il réfléchit sur la notion de monde numérique et prend justement l’exemple de la confiance pour appuyer son propos :

    Pour moi, ce que fait le numérique, c’est qu’il s’empare d’un certain nombre de concepts, de pratiques, de valeurs. Il les formalise, il les opérationnalise, il les numérise tout simplement, mais ce faisant, il les transforme. Je peux prendre un exemple pour illustrer mon propos : celui de la confiance numérique. La confiance telle qu’elle est définie par les sociologues va plutôt consister à ne pas savoir quelque chose. En fait, la confiance est de l’ordre du non-savoir. Si je confie mon fils à ma nounou, et que je mets un dispositif avec des caméras qui la filment 24 heures sur 24, je ne fais pas confiance à ma nounou, d’accord ? Donc on va avouer que le numérique ici, avec cette idée de surveillance, de générer des traces qui vont permettre de suivre tout ce qui se passe, finalement, n’est pas un dispositif de confiance, mais de défiance, envers la nounou. La confiance, ce serait “je lui confie mon fils, je ne sais pas ce qui se passe, mais j’accepte malgré tout de lui confier mon fils”. C’est ça faire confiance à quelqu’un. Et d’une certaine manière, en opérationnalisant la confiance, on aboutit au résultat inverse : on opérationnalise la défiance. Le numérique transforme les valeurs ou les entités qu’il opérationnalise. Et parfois il les transforme dans le sens opposé de ce qu’elles étaient précédemment.

    Comme Alexandre Monnin le souligne dans sa vidéo, le numérique peut transformer la valeur de la confiance en défiance. Suite au confinement et à l’école à la maison, les parents ne vont-ils pas opérationnaliser cette défiance vis-à-vis des enseignants ? Ayant accompagnés eux-mêmes leur enfant dans leur apprentissage pendant le confinement, les parents ne vont-ils pas se sentir mieux armés pour juger le travail des enseignants dans le futur ?

    Une co-éducation encore plus d’actualité

    Pour pallier cette déviance, il me semble important d’aborder le sujet de la co-éducation qui consiste à ce que les enseignants associent les parents dans l’apprentissage des enfants. Le confinement a permis à de nombreux parents de s’impliquer dans l’apprentissage de leurs enfants et aux parents qui étaient déjà impliqués avant, de l’être d’avantage. Ils vont donc être demandeurs de plus de co-éducation avec les enseignants. Ainsi, « l’élément central dans la modification du regard concerne la relation avec les élèves et les parents. Les enseignants expliquent avoir davantage communiqué qu’en temps ordinaire avec les familles et les élèves, ce qui a contribué à une meilleure connaissance mutuelle et a renforcé l’implication des parents dans la co-éducation, un élément qu’ils semblent avoir apprécié. » (2)

    Les outils numériques ont un rôle à jouer pour favoriser cette co-éducation. Le confinement a donné un véritable essor aux outils numériques de la relation parents-école et, aux dires des éditeurs et fournisseurs de logiciels, le nombre de connexions vient attester que cette tendance reste pérenne même après le confinement.

    A suivre donc…

    (1) Et si on changeait l’école ?, un événement franceinfo et WE Demain suivi à la Maison de la radio ou en direct digital. Conférence le Jeudi 24 septembre 2020 19h00 à la Maison de la radio et de la musique — Studio 104.

    (2) École, numérique et confinement : quels sont les premiers résultats de la recherche en France ?, Diane Béduchaud, Ifé-ENS de Lyon, Alexandra Coudray, Réseau Canopé, Edwige Coureau-Falquerho, Ifé-ENS de Lyon, 2020.

    (3) Partie #2 L’œil des parents sur l’enfant à l’école : implication, surveillance, contrôle ou autonomie ? Article L’éthique dans la relation digitale parents-école (1/3), 19 juillet 2021.

    (4) Enquête Questionnaire Parents, LimeSurvey, Anne-Sophie Pionnier, Etudiante Master SmartEdTech, Université Côte d’Azur, février 2021.

    (5) Vidéo La notion d’ontologie, Penser le numérique, Alexandre Monnin, Inria, 28 avril 2017.

    Anne-Sophie Pionnier.

  • Chut! binaire à La puce à l’oreille

    Chut! est un média qui interroge l’impact du numérique sur nos vies. C’est à la fois un magazine en ligne chut.media et un magazine papier trimestriel de 100 pages illustrées. Mais c’est aussi une chaîne de podcast Chut! Radio. A l’occasion d’une série de podcast, avec l’intervention de plusieurs membres et amis de binaire, nous avions envie de vous faire découvrir ce nouvel acteur de la culture du numérique. Serge Abiteboul et Marie-Agnès Enard.

    Les contenus de Chut ! interrogent des sujets de société et notre rapport au numérique. Ils mettent en avant la diversité, l’inclusion, l’éthique et encouragent à aller vers un monde technologique mixte et responsable, intégrant la diversité de tous et toutes. La ligne éditoriale est assumée : des contenus féministes et engagés. Le travail de pédagogie et de vulgarisation est soigné. Le lecteur de tout niveau peut découvrir ou approfondir certains sujets, se questionner ou façonner son opinion.

    Le site chut.media propose une diversité de contenus et de formats tous en lien avec le numérique. Nous apprécions tout particulièrement la conception graphique de l’édition papier du magazine. Si vous êtes pressés, vous pouvez consulter des articles ou écouter des podcasts sélectionnés pour leur durée qui varie entre 3, 5 ou 10 minutes. Si vous avez un peu plus de temps, la Chut !radio propose tout une collection d’articles sonores ou de podcast de durées variables.

    Nous vous invitons aujourd’hui à écouter la série de podcast La Puce à l’oreille. Chacun évoque en seulement cinq minutes un outil du numérique de notre quotidien. La réalisation est de Nolwenn Mauguen, une étudiante en Humanités numériques.

    Les premiers sujets et les personnalités interrogées vont vous sembler familiers, puisqu’ils donnent la parole à des auteurs amis ou des éditeurs de binaire :

    1. L’ordinateur ordonne-t-il le monde ? avec Valérie Schafer

    2. Logique, le logiciel ? avec Gérard Berry

    3. Jusqu’à quel point les algos rythment-ils nos vies ? avec Anne-Marie Kermarrec

    4. Les données personnelles, le trésor du XXIème siècle ? avec Serge Abiteboul

    Nous souhaitons à Chut ! de faire entendre sa voix sous toutes ses formes et pour longtemps.

     

  • Internet : voyage au bout du réseau

    Photo de Adrianna Calvo provenant de Pexels

    Internet et le web ont bouleversé nos vies. Pourtant nous n’avons qu’une très vague idée de leur naissance, de ce qu’ils sont réellement. Deux historiennes nous racontent cette belle histoire, nous parlent des gens qui l’ont construite, des idées qui l’ont poussée. Valérie Schafer est professeure à l’Université du Luxembourg et chercheuse associée au CNRS. Elle a déjà publié de nombreux articles dans binaire. Camille Paloque-Bergès est ingénieure de recherche au CNAM. Un podcast agréable, clair, au ton très juste. À écouter absolument pour mieux comprendre le monde qui nous entoure.

    Podcast Euréka ! Sur France Culture : Le podcast

  • Des oubliés de la révolution numérique ?

    Internet pour qui ? Wrote on Visual Hunt, CC BY

    Dominique Pasquier, Télécom Paris – Institut Mines-Télécom

    Ce texte est publié dans le cadre de la chronique « Société numérique », proposée par les chercheuses et chercheurs du département Sciences économiques et sociales de Télécom ParisTech, membres de l’Institut interdisciplinaire de l’innovation (CNRS).


    Il y a des révolutions qui se font en silence. L’intégration d’Internet dans les foyers des milieux populaires en est un bon exemple.

    Où situer la « fracture numérique » ?

    On a, au début des années 2000, beaucoup parlé de « fracture numérique » en s’intéressant à la fois aux inégalités d’accès et d’usages. Les rapports annuels du CREDOC montrent que les catégories populaires ont commencé à rattraper leur retard de connexion depuis une dizaine d’années : entre 2006 et 2017, en France, la proportion d’employés ayant une connexion Internet à domicile est passée de 51 % à 93 %, celle des ouvriers de 38 à 83 % (CREDOC 2017 : 48).

    C’est désormais l’âge et non le revenu ou le niveau de diplôme qui est le facteur le plus clivant (parmi ceux qui ne se connectent jamais à Internet, huit personnes sur dix ont 60 ans ou plus). Si la question de l’accès est en passe d’être résolue, les usages des classes populaires restent moins variés et moins fréquents que ceux des classes moyennes et supérieures, nous apprennent ces mêmes rapports. Les individus non diplômés ont plus de mal à s’adapter à la dématérialisation des services administratifs, font moins de recherches, pratiquent moins les achats, se lancent très rarement dans la production de contenus. Bref, il y aurait en quelque sorte un « Internet du pauvre », moins créatif, moins audacieux, moins utile en quelque sorte…

    Changer de focale

    Peut-être faut-il adopter un autre regard ? Ces enquêtes statistiques reposent sur un comptage déploratif des manques par rapport aux pratiques les plus innovantes, celles des individus jeunes, diplômés, urbains. On peut partir d’un point de vue différent en posant a priori que les pratiques d’Internet privilégiées par les classes populaires font sens par rapport à leur besoins quotidiens et qu’elles sont des indicateurs pertinents de leur rapport au monde et des transformations possibles de ce rapport au monde.

    Comme Jacques Rancière l’a analysé à propos des productions écrites d’ouvriers au XIXe siècle, il s’agit de poser l’égalité des intelligences comme point de départ de la réflexion pour comprendre comment « une langue commune appropriée par les autres » peut être réappropriée par ceux à qui elle n’était pas destinée. (Rancière 2009 : 152).

    Un tel changement de focale permet d’entrevoir des usages qui n’ont rien de spectaculaire si ce n’est qu’ils ont profondément transformé le rapport au savoir et aux connaissances de ceux qui ne sont pas allés longtemps à l’école. Ce sont par exemple des recherches sur le sens des mots employés par les médecins ou celui des intitulés des devoirs scolaires des enfants. Pour des internautes avertis, elles pourraient paraître peu sophistiquées, mais, en attendant, elles opèrent une transformation majeure en réduisant l’asymétrie du rapport aux experts et en atténuant ces phénomènes de « déférence subie » des classes populaires face au monde des sachants – qu’Annette Lareau a analysée dans un beau livre, Unequal Childhoods (2011).

    Recherche en ligne : s’informer et acheter

    Des salariés qui exercent des emplois subalternes et n’ont aucun usage du numérique dans leur vie professionnelle passent aussi beaucoup de temps en ligne pour s’informer sur leur métier ou leurs droits : le succès des sites d’employés des services à la personne est là pour en témoigner. Des assistantes maternelles y parlent de leur conception de l’éducation des enfants, des aides-soignantes ou des agents de service hospitaliers de leur rapport aux patients. On pourrait aussi souligner tout ce que les tutoriels renouvellent au sein de savoir-faire traditionnellement investis par les classes populaires : ce sont des ingrédients jamais utilisés pour la cuisine, des manières de jardiner ou bricoler nouvelles, des modèles de tricot inconnus qui sont arrivés dans les foyers.

    Apprendre donc, mais aussi acheter. Pour ceux qui vivent dans des zones rurales ou semi rurales, l’accès en quelques clics à des biens jusqu’alors introuvables dans leur environnement immédiat paraît a priori comme une immense opportunité. Mais en fait, les choses sont plus compliquées. La grande vitrine marchande en ligne est moins appréciée pour le choix qu’elle offre que pour les économies qu’elle permet de réaliser en surfant sur les promotions. C’est la recherche de la bonne affaire qui motive en priorité : c’est aussi qu’elle permet de pratiquer une gestion par les stocks en achetant par lots. En même temps, ces gains sont coupables puisqu’ils contribuent à fragiliser le commerce local, ou du moins ce qu’il en reste.

    Dans une société d’interconnaissance forte où les commerçants sont aussi des voisins, et parfois des amis, la trahison laisse un goût amer des deux côtés. À l’inverse, les marchés de biens d’occasion entre particuliers, à commencer par Le Bon Coin qui recrute une importante clientèle rurale et populaire, sont décrits comme des marchés vertueux : ils offrent le plaisir d’une flânerie géolocalisée – c’est devenu une nouvelle source de commérage !-, évitent de jeter, et permettent de gagner quelques euros en sauvegardant la fierté de l’acheteur qui peut se meubler et se vêtir à moindre coût sans passer par des systèmes de dons. L’achat en ligne a donc opéré une transformation paradoxale du rapport au local, en détruisant certains liens et en en créant d’autres.

    Lire et communiquer sur Internet

    Enfin, Internet c’est une relation à l’écrit, marque de ceux qui en ont été les créateurs. Elle ne va pas de soi pour des individus qui ont un faible niveau de diplôme et très peu de pratiques scripturales sur leur lieu de travail. Le mail, qui demande une écriture normée, est largement délaissé dans ces familles populaires : il ne sert qu’aux échanges avec les sites d’achat et les administrations -le terme de démêlés serait en l’occurrence plus exact dans ce dernier cas.

    C’est aussi qu’il s’inscrit dans une logique de communication interpersonnelle et asynchrone qui contrevient aux normes de relations en face à face et des échanges collectifs qui prévalent dans les milieux populaires. Facebook a bien mieux tiré son épingle du jeu : il permet l’échange de contenus sous forme de liens partagés, s’inscrit dans une dynamique d’échange de groupe et ne demande aucune écriture soignée. Ce réseau social apparaît être un moyen privilégié pour garder le contact avec les membres de sa famille large et les très proches, à la recherche d’un consensus sur les valeurs partagées. C’est un réseau de l’entre-soi, sans ouverture particulière sur d’autres mondes sociaux.

    Car si l’Internet a finalement tenu de nombreuses promesses du côté du rapport au savoir, il n’a visiblement pas réussi à estomper les frontières entre les univers sociaux.


    Dominique Pasquier, sociologue, directrice de recherche CNRS est l’auteur de « L’Internet des familles modestes. Enquête dans la France rurale ». Paris, Presses des Mines, 2018.The Conversation

    Dominique Pasquier, sociologue, directrice de recherche CNRS, membre de l’Institut interdisciplinaire de l’innovation (i3), Télécom Paris – Institut Mines-Télécom

    Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

  • Désinformation en temps de crise : liberté et discipline des plateformes

    Nous sommes confrontés à la désinformation sur les réseaux sociaux. Le sujet est tout sauf simple : qu’on modère trop et on porte atteinte à la liberté d’expression ; pas assez, et on laisse les fakenews se propager et mettre en cause les valeurs de notre société. Alors, qui doit dire le vrai du faux et selon quels principes ? Emmanuel Didier, Serena Villata, et Célia Zolynski nous expliquent comment concilier liberté et responsabilité des plateformes. Serge Abiteboul & Antoine Rousseau
    Cet article est publié en collaboration avec theconversation.fr.

    @SabrinaVillata

    L’élection présidentielle aux États-Unis a encore une fois mis la question des fausses nouvelles au cœur du débat public. La puissance des plateformes et notamment celle des réseaux sociaux est devenue telle que chaque événement d’importance engendre depuis quelques temps des discussions sur ce problème. Pourtant, il semble que les analyses produites à chacune de ces occasions ne sont pas capitalisées, comme s’il n’y avait eu ni réflexions, ni avancées au préalable. Nous voudrions montrer ici la pérennité de certaines conclusions auxquelles nous étions parvenues concernant la modération de la désinformation pendant le premier confinement.

    Photo Markus Winkler – Pexels

    En effet, durant la crise sanitaire engendrée par l’épidémie de SARS-CoV-2, l’isolement des individus en raison du confinement, l’anxiété suscitée par la gravité de la situation ou encore les incertitudes et les controverses liées au manque de connaissance sur ce nouveau virus ont exacerbé à la fois le besoin d’informations fiables et la circulation de contenus relevant de la désinformation (émis avec une claire intention de nuire) ou de la mésinformation (propagation de données à la validité douteuse, souvent à l’insu du propagateur). Les plateformes ont alors très vite accepté le principe qu’il leur fallait modérer un certain nombre de contenus, mais elles ont été confrontées à deux difficultés liées qui étaient déjà connues. Premièrement, ce travail est complexe car toute information, selon le cadre dans lequel elle est présentée, la manière dont elle est formulée ou le point de vue de son destinataire, est susceptible de relever finalement de la mésinformation ou de la désinformation. Deuxièmement, le fait de sélectionner, de promouvoir ou de réduire la visibilité de certaines informations échangées sur les plateformes numériques entre en tension avec le respect des libertés d’information et d’expression qu’elles promeuvent par ailleurs.

    Quelles sont donc les contraintes qui s’imposent aux plateformes ? Quelles sont les mesures qu’elles ont effectivement prises dans ces conditions ? Le présent texte s’appuie sur le bulletin de veille rédigé dans le cadre d’un groupe de travail du Comité national pilote d’éthique du numérique (CNPEN)[1] qui nous a permis de mener une dizaine d’auditions (par visioconférence) avec, entre autres, les représentants de Facebook, Twitter et Qwant ainsi que le directeur des Décodeurs du Monde. Il est apparu que les difficultés posées par la modération des fausses nouvelles pouvaient être regroupées en trois catégories. D’une part, celles qui sont associées aux algorithmes, d’autre part celles qui relèvent du phénomène de la viralité et, enfin, celles posées par l’identification et les relations avec des autorités légitimes.

    Les algorithmes en question

    Bien sûr, les mécanismes de lutte contre la désinformation et la mésinformation développés par les plateformes reposent en partie sur des outils automatisés, compte tenu du volume considérable d’informations à analyser. Ils sont néanmoins supervisés par des modérateurs humains et chaque crise interroge le degré de cette supervision. Durant le confinement, celle-ci a été largement réduite car les conditions de télétravail, souvent non anticipées, pouvaient amener à utiliser des réseaux non sécurisés pour transférer de tels contenus, potentiellement délictueux, ou à devoir les modérer dans un contexte privé difficilement maîtrisable. Or les risques d’atteintes disproportionnées à la liberté d’expression se sont avérés plus importants en l’absence de médiation et de validation humaines, seules à même d’identifier voire de corriger les erreurs de classification ou les biais algorithmiques. En outre, l’absence de vérificateurs humains a compliqué la possibilité de recours normalement offerte à l’auteur d’un contenu ayant été retiré par la plateforme. Ces difficultés montrent clairement l’importance pour la société civile que les plateformes fassent plus de transparence sur les critères algorithmiques de classification de la désinformation ainsi que sur les critères qu’elles retiennent pour définir leur politique de modération, qu’ils soient d’ordre économique ou relèvent d’obligations légales. Ces politiques de modération doivent être mieux explicitées et factuellement renseignées dans les rapports d’activité périodique qu’elles sont tenues de publier depuis la loi Infox de décembre 2018 (v. le bilan d’activité pour 2019 publié par le CSA le 30 juillet 2020[2] et sa recommandation du 15 mai 2019[3]). Plus généralement, il apparait qu’une réflexion d’ampleur sur la constitution de bases de données communes pour améliorer les outils numériques de lutte contre la désinformation et la mésinformation devrait être menée et devrait aboutir à un partage des métadonnées associées aux données qu’elles collectent à cette fin (voir dans le même sens le bilan d’activité du CSA préc.)

    La responsabilité de la viralité

    Pexels

    L’ampleur prise à ce jour par les phénomènes de désinformation et de mésinformation tient à l’accroissement de mécanismes de viralité qui se déploient à partir des outils offerts par les plateformes. La viralité est d’abord l’effet du modèle économique de certains de ces opérateurs, qui sont rémunérés par les publicitaires en fonction des interactions avec les utilisateurs qu’ils obtiennent et ont donc intérêt à générer des clics ou toute autre réaction aux contenus. Elle relève ensuite du rôle joué par leurs utilisateurs eux-mêmes dans la propagation virale de la désinformation et de la mésinformation (que ces derniers y contribuent délibérément ou par simple négligence ou ignorance). La lutte contre la désinformation doit donc nécessairement être l’affaire de tous les utilisateurs, responsables de devenir plus scrupuleux avant de décider de partager des informations et ainsi de contribuer à leur propagation virale. Cette remarque va d’ailleurs dans le même sens que le programme #MarquonsUnePause désormais promu par l’ONU[4]. Mais ceci n’est possible que si les plateformes mettent à disposition de leurs utilisateurs un certain nombre d’informations et d’outils afin de les mettre en mesure de prendre conscience, voire de maîtriser, le rôle qu’ils jouent dans la chaîne de viralité de l’information (voir également sur ce point les recommandations du CSA formulées dans le bilan d’activité préc.). En ce sens, les plateformes ont commencé à indiquer explicitement qu’une information reçue a été massivement partagée et invite leurs utilisateurs à être vigilants avant de repartager des contenus ayant fait l’objet de signalement. Mais il serait possible d’aller plus loin. Plus fondamentalement, il est important que les pouvoirs publics prennent des mesures permettant de renforcer l’esprit critique des utilisateurs, ce qui suppose tout particulièrement que ceux-ci puissent être sensibilisés aux sciences et technologies du numérique afin de mieux maîtriser le fonctionnement de ces plateformes et les effets induits par ces mécanismes de viralité. La création d’un cours de « Science numérique et technologie » obligatoire pour toutes les classes de seconde va dans ce sens[5].

    La légitimité

    Enfin, troisièmement, si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations ne peuvent, in fine, être accomplies sans référence à des autorités indépendantes établissant, ne serait-ce que temporairement, la validité des arguments échangés dans l’espace public. Sous ce rapport, une grande difficulté provient du fait que les plateformes elles-mêmes sont parfois devenues de telles autorités, en vertu de l’adage bien plus puissant qu’on pourrait le croire selon lequel « si beaucoup de monde le dit, c’est que cela doit être vrai ». Pourtant, les plateformes n’ont bien sûr aucune qualité ni compétence pour déterminer, par exemple, l’efficacité d’un vaccin ou le bienfondé d’une mesure de santé publique. Elles sont donc contraintes de se fier à d’autres autorités comme l’État, la justice, la science ou la presse. Depuis le début de la crise sanitaire, de nombreuses plateformes se sont ainsi rapprochées, en France, de différents services gouvernementaux (en particulier du Secrétariat d’État au numérique ou du Service d’information du gouvernement). Pourtant, dans le même temps, elles se sont éloignées d’autres gouvernements, comme en atteste leur modération des contenus publiés par Jamir Bolsonaro ou Donald Trump. En l’occurrence, on peut légitimement se réjouir de ces choix. Ils n’en restent pas moins arbitraires dans la mesure où ils ne reposent pas sur des principes explicites régulant les relations entre les plateformes et les gouvernements. À cet égard, une réflexion d’ensemble sur la responsabilité des plateformes ainsi que sur le contrôle à exercer s’agissant de leur politique de modération de contenus semble devoir être menée. À notre sens, ce contrôle ne peut être dévolu à l’État seul et devrait relever d’une autorité indépendante, incluant les représentants de diverses associations, scientifiques et acteurs de la société civile dans l’établissement des procédures de sélection d’informations à promouvoir, tout particulièrement en période de crise sanitaire.

    Emmanuel Didier, Centre Maurice Halbwachs, CNRS, ENS et EHESS
    Serena Villata, Université Côte d’Azur, CNRS, Inria, I3S
    & Célia Zolynski Université Paris 1 Panthéon-Sorbonne, IRJS DReDIS

    [1] Comité national pilote d’éthique du numérique, Enjeux d’éthique dans la lutte contre la désinformation et la mésinformation. Bulletin de veille n°2, Juillet 2020. https://www.ccne-ethique.fr/sites/default/files/cnpen-desinformation-v2020-10-01.pdf

    [2]https://www.csa.fr/Informer/Toutes-les-actualites/Actualites/Lutte-contre-les-infox-le-CSA-publie-son-premier-bilan

    [3] https://www.csa.fr/Reguler/Espace-juridique/Les-textes-reglementaires-du-CSA/Les-deliberations-et-recommandations-du-CSA/Recommandations-et-deliberations-du-CSA-relatives-a-d-autres-sujets/Recommandation-n-2019-03-du-15-mai-2019-du-Conseil-superieur-de-l-audiovisuel-aux-operateurs-de-plateforme-en-ligne-dans-le-cadre-du-devoir-de-cooperation-en-matiere-de-lutte-contre-la-diffusion-de-fausses-informations

    [4] https://news.un.org/fr/story/2020/10/1080392

    [5]https://www.ac-paris.fr/portail/jcms/p2_1881839/nouvel-enseignement-sciences-numeriques-et-technologie