Mois : avril 2025

  • Une vie en interaction : itinéraire d’un pionnier de l’IHM

    Un nouvel entretien autour de l’informatique.
    Michel Beaudouin-Lafon est un chercheur en informatique français dans le domaine de l’interaction humain-machine. Il est professeur depuis 1992 à l’université de Paris-Saclay.  Ses travaux de recherche portent sur les aspects fondamentaux de l’interaction humain-machine, l’ingénierie des systèmes interactifs, le travail collaboratif assisté par ordinateur et plus généralement les nouvelles techniques d’interaction. Il a co-fondé et a été premier président de l’Association francophone pour l’interaction humain-machine. Il est membre senior de l’Institut universitaire de France, lauréat de la médaille d’argent du CNRS, ACM Fellow, et depuis 2025 membre de l’Académie des sciences. Cet article est publié en collaboration avec The Conversation.

    Michel Beaudouin-Lafon, https://www.lri.fr/~mbl/

    Binaire : Pourrais-tu nous raconter comment tu es devenu un spécialiste de l’interaction humain-machine ?

    MBL : J’ai suivi les classes préparatoires au lycée Montaigne à Bordeaux. On n’y faisait pas d’informatique, mais je m’amusais déjà un peu avec ma calculatrice programmable HP29C. Ensuite, je me suis retrouvé à l’ENSEEIHT, une école d’ingénieur à Toulouse, où j’ai découvert l’informatique… un peu trop ardemment : en un mois, j’avais épuisé mon quota de calcul sur les cartes perforées !

    À la sortie, je n’étais pas emballé par l’idée de rejoindre une grande entreprise ou une société de service.  J’ai alors rencontré Gérard Guiho de l’université Paris-Sud (aujourd’hui Paris-Saclay) qui m’a proposé une thèse en informatique. Je ne savais pas ce que c’était qu’une thèse : nos profs à l’ENSEEIHT, qui étaient pourtant enseignants-chercheurs, ne nous parlaient jamais de recherche.

    CPN Tools
    CPN Tools (https://cpntools.org)

    Fin 1982, c’était avant le Macintosh, Gérard venait d’acquérir une station graphique dont personne n’avait l’usage dans son équipe. Il m’a proposé de travailler dessus. Je me suis bien amusé et j’ai réalisé un logiciel d’édition qui permettait de créer et simuler des réseaux de Pétri, un formalisme avec des ronds, des carrés, des flèches, qui se prêtait bien à une interface graphique. C’est comme ça que je me suis retrouvé à faire une thèse en IHM : interaction humain-machine.

    Binaire : Est-ce que l’IHM existait déjà comme discipline à cette époque ?

    MBL : Ça existait mais de manière encore assez confidentielle. La première édition de la principale conférence internationale dans ce domaine, Computer Human Interaction (CHI), a eu lieu en 1982. En France, on s’intéressait plutôt à l’ergonomie.  Une des rares exceptions : Joëlle Coutaz qui, après avoir découvert l’IHM à CMU (Pittsburgh), a lancé ce domaine à Grenoble.

    Binaire : Et après la thèse, qu’es-tu devenu ?

    MBL : J’ai été nommé assistant au LRI, le laboratoire de recherche de l’Université Paris-Sud, avant même d’avoir fini ma thèse. Une autre époque ! Finalement, j’ai fait toute ma carrière dans ce même laboratoire, même s’il a changé de nom récemment pour devenir le LISN, laboratoire interdisciplinaire des sciences du numérique. J’y ai été nommé professeur en 1992. J’ai tout de même bougé un peu. D’abord en année sabbatique en 1992 à l’Université de Toronto, puis en détachement à l’Université d’Aarhus au Danemark entre 1998 et 2000, et enfin plus récemment comme professeur invité à l’université de Stanford entre 2010 et 2012.

    En 1992, au cours d’un workshop au Danemark, j’ai rencontré Wendy Mackay, une chercheuse qui travaillait sur l’innovation par les utilisateurs. Un an plus tard, nous étions mariés ! Cette rencontre a été déterminante dans ma carrière pour combiner mon parcours d’ingénieur, que je revendique toujours, avec son parcours à elle, qui était psychologue. Wendy est spécialiste de ce qu’on appelle la conception participative, c’est-à-dire d’impliquer les utilisateurs dans tout le cycle de conception des systèmes interactifs. Je vous invite d’ailleurs à lire son entretien dans Binaire. C’est cette complémentarité entre nous qui fait que notre collaboration a été extrêmement fructueuse sur le plan professionnel. En effet, dans le domaine de l’IHM, c’est extrêmement important d’allier trois piliers : (1) l’aspect humain, donc la psychologie ; (2) le design, la conception, la créativité ; et (3) l’ingénierie. Ce dernier point concerne la mise en œuvre concrète, et les tests avec des vrais utilisateurs pour voir si ça marche (ou pas) comme on l’espère. Nous avons vécu la belle aventure du développement de l’IHM en France, et sa reconnaissance comme science confirmée, par exemple, avec mon élection récente à l’Académie des Sciences.

    Binaire : L’IHM est donc une science, mais en quoi consiste la recherche dans ce domaine ? 

    MBL : On nous pose souvent la question. Elle est légitime. En fait, on a l’impression que les interfaces graphiques utilisées aujourd’hui par des milliards de personnes ont été inventées par Apple, Google ou Microsoft, mais pas vraiment ! Elles sont issues de la recherche académique en IHM !

    Si on définit souvent l’IHM par Interface Humain-Machine, je préfère parler d’Interaction Humain-Machine. L’interaction, c’est le phénomène qui se produit lorsqu’on est utilisateur d’un système informatique et qu’on essaie de faire quelque chose avec la machine, par la machine. On a ainsi deux entités très différentes l’une de l’autre qui communiquent : d’un côté, un être humain avec ses capacités cognitives et des moyens d’expression très riches ; et de l’autre, des ordinateurs qui sont de plus en plus puissants et très rapides mais finalement assez bêtes. Le canal de communication entre les deux est extrêmement ténu : taper sur un clavier, bouger une souris. En comparaison des capacités des deux parties, c’est quand même limité. On va donc essayer d’exploiter d’autres modalités sensorielles, des interfaces vocales, tactiles, etc., pour multiplier les canaux, mais on va aussi essayer de rendre ces canaux plus efficaces et plus puissants.

    Ce phénomène de l’interaction, c’est un peu une sorte de matière noire : on sait que c’est là, mais on ne peut pas vraiment la voir. On ne peut la mesurer et l’observer que par ses effets sur la machine et sur l’être humain. Et donc, on observe comment l’humain avec la machine peuvent faire plus que l’humain seul et la machine seule. C’est une idée assez ancienne : Doug Engelbart en parlait déjà dans les années 60 (voir dans Interstices). Et pourtant, aujourd’hui, on a un peu tendance à l’oublier car on se focalise sur des interfaces de plus en plus simples, où c’est la machine qui va tout faire et on n’a plus besoin d’interagir. Or, je pense qu’il y a vraiment une valeur ajoutée à comprendre ce phénomène d’interaction pour en tirer parti et faire que la machine augmente nos capacités plutôt que faire le travail à notre place. Par extension, on s’intéresse aussi à ce que des groupes d’humains et de machines peuvent faire ensemble.

    Théories génératives d'interaction
    Les théories génératives d’interaction (Beaudouin-Lafon, Bødker et Mackay, 2021)

    La recherche en IHM, il y a donc un aspect recherche fondamentale qui se base sur d’autres domaines (la psychologie mais aussi la sociologie quand on parle des interactions de groupes, ou encore la linguistique dans le cadre des interactions langagières) qui permet de créer nos propres modèles d’interaction, qui ne sont pas des modèles mathématiques ; et ça, je le revendique parce que je pense que c’est une bonne chose qu’on ne sache pas encore mettre le cerveau humain en équation. Et puis il y a une dimension plus appliquée où on va créer des objets logiciels ou matériels pour mettre tout ça en œuvre.

    Pour moi, l’IHM ne se résume pas à faire de nouveaux algorithmes. Au début des années 90, Peter Wegener a publié dans Communications of the ACM – un des journaux de référence dans notre domaine – un article qui disait “l’interaction est plus puissante que les algorithmes”. Cela lui a valu pas mal de commentaires et de critiques, mais ça m’a beaucoup marqué.

    Binaire : Et à propos d’algorithmes, est-ce que l’IA soulève de nouvelles problématiques en IHM ? 

    MBL : Oui, absolument ! En ce moment, les grandes conférences du domaine débordent d’articles qui combinent des modèles de langage (LLM) ou d’autres techniques d’IA avec de l’IHM. 

    Historiquement, dans une première phase, l’IA a été extrêmement utilisée en IHM, par exemple pour faire de la reconnaissance de gestes. C’était un outil commode, qui nous a simplifié la vie, mais sans changer nos méthodes d’interaction.

    Aux débuts de l’IA générative, on est un peu revenu 50 ans en arrière en matière d’interaction, quand la seule façon d’interagir avec les ordinateurs, c’était d’utiliser le terminal. On fait un prompt, on attend quelques secondes, on a une réponse ; ça ne va pas, on bricole. C’est une forme d’interaction extrêmement pauvre. De plus en plus de travaux très intéressants imaginent des interfaces beaucoup plus interactives, où on ne voit plus les prompts, mais où on peut par exemple dessiner, transformer une image interactivement, sachant que derrière, ce sont les mêmes algorithmes d’IA générative avec leurs interfaces traditionnelles qui sont utilisés.

    Pour moi, l’IA soulève également une grande question : qu’est-ce qu’on veut déléguer à la machine et qu’est-ce qui reste du côté humain ? On n’a pas encore vraiment une bonne réponse à ça. D’ailleurs, je n’aime pas trop le terme d’intelligence artificielle. Je n’aime pas attribuer des termes anthropomorphiques à des systèmes informatiques. Je m’intéresse plutôt à l’intelligence augmentée, quand la machine augmente l’intelligence humaine. Je préfère mettre l’accent sur l’exploitation de capacités propres à l’ordinateur, plutôt que d’essayer de rendre l’ordinateur identique à un être humain. 

    Binaire : La parole nous permet d’interagir avec les autres humains, et de la même façon avec des bots. N’est-ce pas plus simple que de chercher la bonne icône ? 

    MBL : Interagir par le langage, oui, c’est commode. Ceci étant, à chaque fois qu’on a annoncé une nouvelle forme d’interface qui allait rendre ces interfaces graphiques (avec des icônes, etc.) obsolètes, cela ne s’est pas vérifié. Il faut plutôt s’intéresser à comment on fait cohabiter ces différentes formes d’interactions. Si je veux faire un schéma ou un diagramme, je préfère le dessiner plutôt que d’imaginer comment le décrire oralement à un système qui va le faire (sans doute mal) pour moi. Ensuite, il y a toujours des ambiguïtés dans le langage naturel entre êtres humains. On ne se contente pas des mots. On les accompagne d’expressions faciales, de gestes, et puis de toute la connaissance d’un contexte qu’un système d’IA aujourd’hui n’a souvent pas, ce qui le conduit à faire des erreurs que des humains ne feraient pas. Et finalement, on devient des correcteurs de ce que fait le système, au lieu d’être les acteurs principaux. 

    Ces technologies d’interaction par la langue naturelle, qu’elles soient écrites ou orales, et même si on y combine des gestes, soulèvent un sérieux problème : comment faire pour que l’humain ne se retrouve pas dans une situation d’être de plus en plus passif ? En anglais, on appelle ça de-skilling : la perte de compétences et d’expertise. C’est un vrai problème parce que, par exemple, quand on va utiliser ces technologies pour faire du diagnostic médical, ou bien prononcer des sentences dans le domaine juridique, on va mettre l’être humain dans une situation de devoir valider ou non la décision posée par une IA. Et en fait, il va être quand même encouragé à dire oui, parce que contredire l’IA revient à s’exposer à une plus grande responsabilité que de constater a posteriori que l’IA s’est trompée. Donc dans ce genre de situation, on va chercher comment maintenir l’expertise de l’utilisateur et même d’aller vers de l’upskilling, c’est-à-dire comment faire pour qu’un système d’IA le rende encore plus expert de ce qu’il sait déjà bien faire, plutôt que de déléguer et rendre l’utilisateur passif. On n’a pas encore trouvé la façon magique de faire ça. Mais si on reprend l’exemple du diagnostic médical, si on demande à l’humain de faire un premier diagnostic, puis à l’IA de donner le sien, et que les deux ont ensuite un échange, c’est une interaction très différente que d’attendre simplement ce qui sort de la machine et dire oui ou non. 

    Binaire : Vous cherchez donc de nouvelles façons d’interagir avec les logiciels, qui rendent l’humain plus actif et tendent vers l’upskilling.

    MBL : Voilà ! Notre équipe s’appelle « Ex Situ », pour Extreme Situated Interaction. C’est parti d’un gag parce qu’avant, on s’appelait « In Situ » pour Interaction Située. Il s’agissait alors de concevoir des interfaces en fonction de leur contexte, de la situation dans laquelle elles sont utilisées. 

    Nous nous sommes rendus compte que nos recherches conduisaient à nous intéresser à ce qu’on a appelé des utilisateurs “extrêmes”, qui poussent la technologie dans ses retranchements. En particulier, on s’intéresse à deux types de sujets, qui sont finalement assez similaires. D’un part, les créatifs (musiciens, photographes, graphistes…) qui par nature, s’ils ont un outil (logiciel ou non) entre les mains, vont l’utiliser d’une manière qui n’était pas prévue, et ça nous intéresse justement de voir comment ils détournent ces outils. D’autre part, Wendy travaille, depuis longtemps d’ailleurs, dans le domaine des systèmes critiques dans lequel on n’a pas droit à l’erreur : pilotes d’avion, médecins, etc. 

    Dans les industries culturelles et créatives (édition, création graphique, musicale, etc.), les gens sont soit terrorisés, soit anxieux, de ce que va faire l’IA. Et nous, ce qu’on dit, c’est qu’il ne s’agit pas d’être contre l’IA – c’est un combat perdu de toute façon – mais de se demander comment ces systèmes vont pouvoir être utilisés d’une manière qui va rendre les humains encore plus créatifs. Les créateurs n’ont pas besoin qu’on crée à leur place, ils ont besoin d’outils qui les stimulent. Dans le domaine créatif, les IA génératives sont, d’une certaine façon, plus intéressantes quand elles hallucinent ou qu’elles font un peu n’importe quoi. Ce n’est pas gênant au contraire. 

    Binaire : L’idée d’utiliser les outils de façon créative, est-ce que cela conduit au design ?

    MBL : Effectivement. Par rapport à l’ergonomie, qui procède plutôt selon une approche normative en partant des tâches à optimiser, le design est une approche créative qui questionne aussi les tâches à effectuer. Un designer va autant mettre en question le problème, le redéfinir, que le résoudre. Et pour redéfinir le problème, il va interroger et observer les utilisateurs pour imaginer des solutions. C’est le principe de conception participative, qui implique les acteurs eux-mêmes en les laissant s’approprier leur activité, ce qui donne finalement de meilleurs résultats, non seulement sur le plan de la performance mais aussi et surtout sur l’acceptation.

    Notre capacité naturelle d’être humain nous conduit à constamment réinventer notre activité. Lorsque nous interagissons avec le monde, certes nous utilisons le langage, nous parlons, mais nous faisons aussi des mouvements, nous agissons sur notre environnement physique ; et ça passe parfois par la main nue, mais surtout par des outils. L’être humain est un inventeur d’outils incroyables. Je suis passionné par la  facilité que nous avons à nous servir d’outils et à détourner des objets comme outils ; qui n’a pas essayé de défaire une vis avec un couteau quand il n’a pas de tournevis à portée de main ? Et en fait, cette capacité spontanée disparaît complètement quand on passe dans le monde numérique. Pourquoi ? Parce que dans le monde physique, on utilise des connaissances techniques, on sait qu’un couteau et un tournevis ont des propriétés similaires pour cette tâche. Alors que dans un environnement numérique, on a besoin de connaissances procédurales : on apprend que pour un logiciel il faut cliquer ici et là, et puis dans un autre logiciel pour faire la même chose, c’est différent. 

    Interaction instrumentale
    Le concept d’interaction instrumentale (illustration par Nicolas Taffin)

    C’est en partant de cette observation que j’ai proposé l’ERC One, puis le projet Proof-of Concept OnePub, qui pourrait peut-être même déboucher sur une startup. On a voulu fonder l’interaction avec nos ordinateurs d’aujourd’hui sur ce modèle d’outils – que j’appelle plutôt des instruments, parce que j’aime bien l’analogie avec l’instrument de musique et le fait de devenir virtuose d’un instrument. Ça remet en cause un peu tous nos environnements numériques. Pour choisir une couleur sur Word, Excel ou Photoshop, on utilise un sélecteur de couleurs différent. En pratique, même si tu utilises les mêmes couleurs, il est impossible de prendre directement une couleur dans l’un pour l’appliquer ailleurs. Pourtant, on pourrait très bien imaginer décorréler les contenus qu’on manipule (texte, images, vidéos, son…) des outils pour les manipuler, et de la même façon que je peux aller m’acheter les pinceaux et la gouache qui me conviennent bien, je pourrais faire la même chose avec mon environnement numérique en la personnalisant vraiment, sans être soumis au choix de Microsoft, Adobe ou Apple pour ma barre d’outils. C’est un projet scientifique qui me tient à cœur et qui est aussi en lien avec la collaboration numérique.

    Substrat
    Différents instruments pour interagir avec différentes représentations d’un document, ici un graphe issu d’un tableau de données

    Binaire : Par rapport à ces aspects collaboratifs, n’y a-t-il pas aussi des verrous liés à la standardisation ?

    MBL : Absolument. On a beau avoir tous ces moyens de communication actuels, nos capacités de collaboration sont finalement très limitées. À l’origine d’Internet, les applications s’appuyaient sur des protocoles et standards ouverts assurant l’interopérabilité : par exemple, peu importait le client ou serveur de courrier électronique utilisé, on pouvait s’échanger des mails sans problème. Mais avec la commercialisation du web, des silos d’information se sont créés. Aujourd’hui, des infrastructures propriétaires comme Google ou Microsoft nous enferment dans des “jardins privés” difficiles à quitter. La collaboration s’établit dans des applications spécialisées alors qu’elle devrait être une fonctionnalité intrinsèque.

    C’est ce constat qui a motivé la création du PEPR eNSEMBLE, un grand programme national sur la collaboration numérique, dont je suis codirecteur. L’objectif est de concevoir des systèmes véritablement interopérables où la collaboration est intégrée dès la conception. Cela pose des défis logiciels et d’interface. Une des grandes forces du système Unix, où tout est très interopérable, vient du format standard d’échange qui sont des fichiers textes ASCII. Aujourd’hui, cela ne suffit plus. Les interactions sont plus complexes et dépassent largement l’échange de messages.

    Interaction collaborative
    Interaction collaborative sur le mur d’écrans WILD, © Inria, photo H. Raguet

    C’est frustrant car on a quand même fait beaucoup de progrès en IHM, mais il faudrait aussi plus d’échanges avec les autres disciplines comme les réseaux, les systèmes distribués, la cryptographie, etc., parce qu’en fait, aucun système informatique aujourd’hui ne peut se passer de prendre en compte les facteurs humains. Au-delà des limites techniques, il y a aussi des contraintes qui sont totalement artificielles et qu’on ne peut aborder que s’il y a une forme de régulation qui imposerait, par exemple, la publication des API de toute application informatique qui communique avec son environnement. D’ailleurs, la législation européenne autorise le reverse engineering dans les cas exceptionnels où cela sert à assurer l’interopérabilité, un levier que l’on pourrait exploiter pour aller plus loin.

    Cela pose aussi la question de notre responsabilité de chercheur pour ce qui est de l’impact de l’informatique, et pas seulement l’IHM, sur la société. C’est ce qui m’a amené à m’impliquer dans l’ACM Europe Technology Policy Committee, dont je suis Chair depuis 2024. L’ACM est un société savante apolitique, mais on a pour rôle d’éduquer les décideurs politiques, notamment au niveau de l’Union européenne, sur les capacités, les enjeux et les dangers des technologies, pour qu’ils puissent ensuite les prendre en compte ou pas dans des textes de loi ou des recommandations (comme l’AI ACT récemment). 

    Binaire : En matière de transmission, sur un ton plus léger, tu as participé au podcast Les petits bateaux sur Radio France. Pourrais-tu nous en parler ?

    MBL : Oui ! Les petits bateaux. Dans cette émission, les enfants peuvent appeler un numéro de téléphone pour poser des questions. Ensuite, les journalistes de l’émission contactent un scientifique avec une liste de questions, collectées au cours du temps, sur sa thématique d’expertise. Le scientifique se rend au studio et enregistre des réponses. A l’époque, un de mes anciens doctorants [ou étudiants] avait participé à une action de standardisation du clavier français Azerty sur le positionnement des caractères non alphanumériques, et j’ai donc répondu à des questions très pertinentes comme “Comment les Chinois font pour taper sur un clavier ?”, mais aussi “Où vont les fichiers quand on les détruit ?”, “C’est quoi le com dans .com ?” Évidemment, les questions des enfants intéressent aussi les adultes qui n’osent pas les poser. On essaie donc de faire des réponses au niveau de l’enfant mais aussi d’aller un petit peu au-delà, et j’ai trouvé cela vraiment intéressant de m’adresser aux différents publics.

    Manuel NSI
    Numérique et Sciences Informatiques Terminale Spécialité, de Michel Beaudouin-Lafon, Benoit Groz, Emmanuel Waller, Cristel Pelsser, Céline Chevalier, Philippe Marquet, Xavier Redon, Mathieu Nancel, Gilles Grimaud. 2022.

    Je suis très attaché à la transmission, je suis issu d’une famille d’enseignants du secondaire, et j’aime moi-même enseigner. J’ai dirigé et participé à la rédaction de manuels scolaires des spécialités informatiques SNT et NSI au Lycée. Dans le programme officiel de NSI issu du ministère, une ligne parle de l’interaction avec l’utilisateur comme étant transverse à tout le programme, ce qui veut dire qu’elle n’est concrètement nulle part. Mais je me suis dit que c’était peut-être l’occasion d’insuffler un peu de ma passion dans ce programme, que je trouve par ailleurs très lourd pour des élèves de première et terminale, et de laisser une trace ailleurs que dans des papiers de recherche…

    Serge Abiteboul (Inria) et Chloé Mercier (Université de Bordeaux)

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

     

  • L’invasion de ChatGPT dans l’éducation : pour, contre, et comment

    Les IA génératives transforment toutes les disciplines, toutes les habitudes. Elles bouleversent en particulier l’éducation, peuvent parfois paniquer les enseignants. Une spécialiste de l’IA analyse objectivement le sujet. Michèle Sebag est chercheuse émérite au CNRS. Elle est depuis 2017 membre de l’Académie des technologies, et a été membre du Conseil national du numérique. Serge Abiteboul & Chloé Mercier.

    Site perso de Michele Sebag

     

    L’irruption de ChatGPT et des intelligences artificielles génératives dans le monde de l’éducation change la donne. Pour quels résultats ? Les prédictions faites sur les impacts d’un tel changement sont variables, allant d’un futur radieux à l’apocalypse.

    Ce qui change.

    Comme l’avait souligné Michel Serres (Petite Poucette, 2012), l’accès à l’information à travers Wikipédia ou Google permet à chacun·e de vérifier la complétude ou la cohérence des enseignements donnés ex cathedra. Cette capacité modifie la relation des étudiant·s au savoir des enseignant·s (confiance, mémorisation).

    Mais les IA génératives, ChatGPT et ses émules − LLaMA de Meta, Alpaca de Stanford, Gemini de Google, DeepSeek − vont plus loin. Une de leurs fonctions est de savoir répondre à la plupart des questions posées pour évaluer un·e étudiant·e.

    Avec ChatGPT, l’étudiant·e dispose ainsi d’un simulateur énergivore de Pic de la Mirandole, ayant réponse à tout − quoique parfois privé de discernement. Chaque étudiant·e se trouve ainsi dans la chambre chinoise1, disposant d’un programme permettant de répondre aux questions, et non nécessairement de la connaissance nécessaire pour répondre aux questions.

    L’enseignant·e est en face d’un double dilemme : i) à quoi sert l’enseignement si le fait de bien savoir se servir d’un ChatGPT donne les mêmes réponses ? ii) comment faire la différence entre quelqu’un qui sait, et quelqu’un qui sait se servir d’un ChatGPT ? La donne change ainsi en termes de transmission et d’évaluation des connaissances.

    Contre : Coûts matériels et immatériels

    Les opposants à l’ascension des ChatGPT dans le monde de l’éducation2 se fondent tout d’abord sur le fait que leur consommation en énergie n’est pas soutenable. En second lieu, ces systèmes ne sont pas fiables (”parfois privé de discernement” : les hallucinations en sont un exemple visible, mais il y a aussi toute l’information invisibilisée par suite des biais de corpus ou d’entrainement). En troisième lieu, leur impact sur la cognition est possible, voire probable.

    Je m’abstiendrai de discuter les aspects énergétiques. Pour fixer les idées3, la consommation de ChatGPT (entrainement et usage pendant l’année 2023, avait été évaluée à 15 TWh (consommation énergétique de la France pendant un an : 50 TWh). Ces chiffres sont à prendre avec des correctifs de plusieurs ordres de grandeur : d’une part, chacun·e veut avoir son LLM (facteur ×100, ×1000) ; d’autre part, la consommation d’entrainement et d’usage tend à décroitre massivement pour obtenir les mêmes fonctionnalités (facteur ×1/100, ×1/1000) − ce gain étant naturellement annulé par l’effet rebond, et l’apparition de nouvelles fonctionnalités.

    Je souhaite toutefois aller au-delà du fait qu’il vaudrait mieux limiter l’usage des ChatGPT pour des considérations énergétiques (comme les avions, les voitures, les ascenseurs, les cimenteries – continuer la liste). En pratique la pénétration des ChatGPT dans la société augmente.

    Je m’abstiendrai aussi de discuter le manque de fiabilité. La liste des bévues de ChatGPT et al. est infinie, mais trompeuse. Le système est chaque jour moins limité que la veille ; c’est un système en interaction avec nous qui le concevons ou l’utilisons, et le système apprend de ces interactions ; la différence entre la version de novembre 2022 et la version actuelle de ChatGPT est comparée à celle qui sépare un singe d’un être humain. Nous reviendrons sur la question de savoir qui possède les données et qui contrôle le modèle.

    Le troisième axe d’objection est que l’usage de ChatGPT pourrait priver l’étudiant·e d’une expérience essentielle d’apprentissage en autonomie, mais aussi, et plus gravement, de la confrontation aux sources authentiques des savoirs. Je reviendrai à cette objection centrale dans la suite.

    Pour : Une éducation faisant mieux et/ou différemment avec l’IA

    Plusieurs objectifs sont envisagés dans le rapport du Sénat sur IA et Éducation4. Un objectif clair consiste à utiliser les ChatGPT pour faire mieux ce qu’on fait déjà, permettant ”de suivre une classe de 25 comme une classe de 10”5. Les ChatGPT pourraient s’adapter aux élèves finement, détectant et prenant en compte les trajets cognitifs et les spécificités individuelles, en particulier les risques ou les troubles. Ils peuvent assister les professeurs, e.g. à générer des examens ou des quizz à partir de leur matériel pédagogique6 .

    Ici, un danger et une opportunité sont bien identifiés. D’une part, la qualité des résultats dépend de celle du matériel pédagogique fourni. D’autre part, les dispositions d’accès à ChatGPT incluent la mise à disposition d’OpenAI des sources fournies. Il est donc hautement recommandé de disposer d’un LLM souverain pour l’enseignement7 . On pourrait imaginer un ”commun” informatique, la création d’un ChatPedia qui serait à ChatGPT ce que Wikipédia est à une encyclopédie, avec propriété collective et traçable des contributions. Voir dans ce sens le projet européen Intelligence artificielle pour et par les enseignants (AI4T)8.

    D’autres objectifs, en cours d’étude, concernent le développement de fonctionnalités nouvelles (faire différemment, par exemple en proposant un tutorat personnalisé).

    La cognition des enseignant·s

    Un point épineux concerne la formation des enseignant·e·s à des usages éclairés des IA génératives. Il semble impossible, en effet, de former les élèves/étudiant·e·s à de tels usages éclairés si les enseignant·s n’ont pas été eux-mêmes formés. Cette logique se heurte toutefois au contexte : une fraction des enseignant·s avouent avec résignation ou indifférence leur éloignement total des mathématiques ; comment les attirer vers une formation formelle et roborative, pénétrant le quoi et le comment des technologies telles ChatGPT ?

    La formation des formateurs a aussi un impact sur la hiérarchie des institutions et des savoirs. Bref, elle génère des résistances.

    Comment avancer, dans un contexte où les perceptions de haut niveau (il est bon/nécessaire de former à l’IA) ne recoupent pas les perceptions au niveau des acteurs (l’IA est : i) incompétente ; ii) voleuse de sens/travail/valeur) ?

    La cognition des apprenant·s

    Selon l’Unesco les IAG pourraient priver les apprenant·e·s de la possibilité de développer leurs capacités cognitives et leurs compétences sociales par l’observation du monde réel, par des pratiques empiriques pouvant être des expériences, des discussions avec d’autres humains, ou par un raisonnement logique indépendant.

    Ce danger peut être analysé dans le cadre du Maitre ignorant de Jacques Rancière (1987), distinguant l’enseignement ”qui explique” et celui ”qui émancipe”. Dans le premier cas, la base de discussion est que l’un·e sait et l’autre apprend ; le message implicite est que le savoir s’obtient d’un maitre.

    Dans le second cas, l’objectif est non d’enseigner le savoir, mais d’établir que l’autre est capable d’apprendre tout ce qu’iel veut, au moyen de principes d’utilisation de notre propre intelligence. Il s’agit donc bien de réaliser nos capacités d’entendement autonomes.

    Le danger attendu des IAG selon l’Unesco concernerait ainsi les capacités d’entendement autonomes des apprenants, donc, dans le cadre de l’enseignement ”qui émancipe”.

    Une expérience

    Cette expérience a été réalisée par Louis Bachaud et ses étudiant·s, à l’Université de Lille en 2024. L’objectif était de faire interagir un professeur, des étudiant·s, et un ChatGPT, de telle sorte qu’iels en sortent au bout de 2 heures, satisfaits, intrigués, motivés, ayant appris quelque chose, sans que le processus ne soit fondé sur l’identification de boucs émissaires (en particulier, ni le professeur, ni aucun élève).

    Dans le premier essai, le professeur ayant posé une question générale, pertinente pour le cours (Quel est l’impact de Deezer sur l’audience d’un·e artiste?), la classe s’est divisée en petits groupes, dont chacun·e a écrit une requête et obtenu une réponse.

    Les requêtes et les réponses sont mises dans un pot commun ; chacun·e cherche de quelle requête procède une réponse, appréhendant graduellement et empiriquement ChatGPT comme un système d’entrée sortie. L’intérêt de tels essais est de permettre à chacun·e, y compris le professeur, de se servir du collectif pour comprendre rapidement comment se servir d’un nouvel outil, quels en sont les usages, et comment la qualité des sorties dépend de celle des demandes. En somme, tous se perfectionnent dans l’art du prompting, art fort obscur, fort demandé et qui fait présentement la fortune des cabinets de conseil en IA génératives.

    Les essais suivants ont raffiné ce schéma, en situant d’où parle la requête : réponds à cette question en sachant que je suis une musicienne de 30 ans − un DJ de 18 ans − un professeur de musique − une adolescente de 13 ans. Ces essais ont un aspect ludique (par exemple, la même commande précédée de je suis une fille de 18 ans ou je suis une femme de 18 ans ne produit pas la même réponse) conduisant à une discussion intéressante du modèle et des archétypes sous-jacents (reflétant essentiellement la culture US en 2024).

    En résumé, ce type d’expérience réalise l’enseignement qui émancipe, avec un retour globalement positif des étudiant·s sur le savoir appris et le recul nécessaire.

    Recommandations proposées

    Cette première expérience va dans le sens des axes 1 et 2 du rapport cité du Sénat, concernant respectivement l’accompagnement des acteurs, et la formation d’une culture citoyenne de l’IA. D’autres expériences à l’initiative des enseignant·s, et leurs retours, suivant la méthodologie proposée, ou d’autres méthodologies, permettront d’affiner les savoirs qui peuvent être acquis, et comment.

    Pour l’expérience considérée, les acquis obtenus reposent sur le développement de deux compétences. La première consiste, au niveau individuel, à savoir faire varier la formulation de ses demandes et sa position (d’où parle-t-on). La seconde, au niveau collectif, consiste à savoir observer les pratiques des autres et à en discuter.

    La compétence exploratoire − savoir appréhender un sujet selon des points de vue différents − semble une capacité utile toutes choses égales par ailleurs. La compétence collective est peut-être plus intéressante encore ; outre l’intérêt des compétences sociales acquises, l’interaction permet de faire jeu égal avec ChatGPT.

    Nous défendrons en effet la thèse selon laquelle l’entendement d’une IA ne doit pas être comparé à celui d’un être humain (ma fille n’a pas eu besoin de millions d’images de chats et de chiens pour apprendre à distinguer un chat d’un chien…) mais à celui d’un ensemble d’humains. Le fait que les IAs ne doivent pas être appréhendées au niveau de l’individu a également été souligné par Geoffrey Hinton9.

    Les interactions d’un groupe humain, discutant entre eux des réponses obtenues et des bonnes questions à poser à ChatGPT, peuvent contribuer au développement des capacités cognitives et des compétences sociales, dans un contexte vivifiant.

    Avertissement : l’expérience doit être suivie par les étudiant·e·s ; indépendamment de son intérêt en soi, il convient donc qu’elle soit notée.

    Michèle Sebag, CNRS émérite, LISN, Université Paris-Saclay.

    1 Mind, Language and Society, Searle, 1998. Supposons qu’une personne glisse un message écrit en chinois sous la porte d’une chambre. Supposons dans la chambre une personne disposant d’un programme, spécifiant comment écrire une réponse en chinois (algorithme de dessin des caractères) en fonction d’un algorithme de lecture du dessin du message initial. Ce programme permet à la personne de la chambre de répondre en chinois au message chinois reçu. La personne hors de la chambre, recevant une réponse à son message, en conclut que la personne dans la chambre sait parler chinois.

    2 Voir en particulier la tribune de Serge Pouts-Lajus dans le Monde de l’Éducation du 26 novembre 2024.

    3 Rapports de l’Académie des Technologies, https ://www.academie-technologies.fr/publications/prouesses-et-limites-de-limitation-artificielle-de-langages-avis/ et https://www.academie-technologies.fr/ia-generative-et-mesinformation-le-webinaire-de-la-tech-edition-3/.

    5 Arthur Mensch, cofondateur de l’entreprise Mistral AI, 22 mai 2024 : https ://www.senat.fr/compte-rendu-commissions/20240520/affeco.html.

    6 Plateforme Aristote, Renaud Monnet, Centrale Supélec.

    9G. Hinton note : Deux IA peuvent se transmettre instantanément les modèles appris par l’une ou l’autre [si les IA disposent d’une même représentation]. Cependant, la transmission des connaissances relatives à (e.g. la mécanique quantique) des enseignant·s vers les apprenant·s peut prendre beaucoup de temps et ne présente pas de garanties.

  • Les robots resteront c…s, mais nous, le serons un peu moins.

    Lorsque Stanislas Dehaene et Yann Le Cun se sont rencontrés ils nous ont expliqué dans un super livre, co-écrit avec Jacques Girardon, que  « l’intelligence a émergé avec la vie, elle s’est magnifiée avec l’espèce humaine » tandis que ce que d’aucun appelle « intelligence artificielle » va surtout changer le regard que nous portons sur l’intelligence naturelle, dont humaine.  Ici, c’est notre collègue Max Dauchet qui prend la plume pour nous faire partager les idées clés et son analyse sur ces dernières avancées de l’informatique et des neurosciences. Serge Abiteboul et Thierry Viéville.

    Voici ce que je retiens d’un petit livre de deux grands chercheurs sur l’intelligence humaine et l’intelligence machine.

    Le recueil, déjà ancien mais toujours actuel, est basé sur une interviewi de deux chercheurs français mondialement connus : Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale au Collège de France, pour notre cerveau et notre intelligence, et Yann Le Cun, prix Turing, pour les machines bio-inspirées comme le deep learning et leur intelligence artificielle. Ce livre est passé sous les radars des media car il privilégie la science au détriment du buzz.

    Il se lit d’un trait.

    Voici ce que j’en retiens.

    L’intelligence est présentée comme la capacité générale à s’adapter à une situation. Selon cette définition, l’intelligence émotionnelle est un aspect de l’intelligence, à laquelle contribuent aussi bien nos sens, nos mains que notre cortex, le tout constituant un système de saisie et de traitement d’informations qui accroît les chances de survie de l’espèce en fonction de son environnement, ainsi que celles de l’individu au sein de son espèce. Il s’agit d’une organisation qui n’est pas nécessairement basée sur des neurones, ainsi l’intelligence d’une moule consiste en son aptitude à filtrer l’eau pour en tirer des nutriments. Néanmoins, au fil du temps, les systèmes interconnectant les « petites cellules grises » ramifiées se sont avérés particulièrement performants. Quant à l’humain, il a bénéficié de circonstances ayant permis l’extension de la boite crânienne et son cortex.

    Tout le développement de la vie peut ainsi être vu comme un apprentissage compétitif de perpétuation. Le cerveau et son cortex ne sont pas de simples réseaux de neurones interconnectés au hasard, ils sont dotés de zones organisées et spécialisées et de processus de contrôle des connexions synaptiques sophistiqués. Les structures cérébrales les plus favorables ont été sélectionnées et figées avec plus ou moins de souplesse selon les avantages procurés. Ces zones ont constitué au fil du temps la partie innée de notre cerveau, dont les «noyaux gris» tels le striatum évoqué par Bohlerii. Le fonctionnement hérité de ces structures est inconscient, qu’il s’agisse de la régulation vitale de notre organisme, du traitement de la vision ou de tout autre signal capté par nos sens. L’évolution a conjointement à la structuration cérébrale de l’espèce préservé une plasticité cérébrale qui assure un avantage adaptatif à court terme, voire une capacité à se reconfigurer en cas d’accident ou d’invalidité. Cette plasticité permet chez l’humain une large part d’acquis à deux échelles. A l’échelle individuelle, il s’agit de l’apprentissage par l’expérience, le groupe, l’école, la culture. Cet apprentissage se traduit en structurant les circuits neuronaux par des « réglages » des synapses, qui sont des millions de milliards de points de transmission d’informations électrochimiques entre les neurones. Les connaissances ainsi apprises par un individu durant sa vie disparaissent avec lui. Mais elles sont transmises à l’échelle collective par un processus qui sort du cadre de l’hérédité génétique et est spécifique aux hominidés: la civilisation, ses constructions, ses outils, ses objets, ses cultures, ses croyances, ses sciences et ses arts – et en dernier lieu l’écriture et la capacité à se construire une histoire. Au lieu de coévoluer avec sa savane, sa mer ou sa forêt, l’humain coévolue avec l’accumulation de ses créations. Pour illustrer la dualité inné-acquis, Dehaene prend l’exemple des langues et de la causalité. Si un bébé peut apprendre n’importe quelle langue, c’est parce que toutes les langues ont des principes communs, et qu’une zone du cerveau s’est spécialisée dans leur traitement. Pour la causalité, imaginons deux populations sur une île. L’une fait le lien entre une chute de pierre et un danger, entre un crocodile et un danger, entre un signe de congénère et son attitude envers lui, autant d’exemples de lien entre cause et effet. L’autre population ne fait pas le lien, celle-ci disparaîtra et à la longue l’espèce survivante héritera de structures ou zones du cerveau «câblées» pour la recherche de causalités. De même pour les corrélations.

    Ces considérations donnent la tonalité du récit de l’évolution de l’intelligence proposé dans le livre et font consensus dans les milieux scientifiques actuels. Il faut néanmoins souligner qu’il ne s’agit que de récits, pas de modèles aussi éprouvés que l’électromagnétisme ou la relativité. Il s’agit d’une tentative de dresser le tableau d’ensemble d’un puzzle dont de nombreuses pièces sont manquantes. Il en est de même du récit darwinien en général. Néanmoins en neurosciences on peut monter des expériences pour conforter ou infirmer des hypothèses, et Dehaene en relate quelques-unes, alors qu’en paléontologie ou en anthropologie on est souvent réduit à fouiller à la recherche d’indices peut-être disparus.

    Pour ce qui est des machines, Le Cun fait à juste titre remarquer que le terme «intelligence machine» serait plus adéquat que celui consacré d’«intelligence artificielle» car l’intelligence est un système évolutif et interactif, dont l’organisation importe plus que le support, biomoléculaire ou silicium. On pourrait même voir l’écologie et l’évolution de la planète comme une intelligence, sans pour autant verser le moins du monde dans le culte de Gaïa (un chapitre du livre s’intitule d’ailleurs «L’intelligence de la vie»). Remarquons au passage que cette idée évoque la mouvance nord américaine de l’Intelligence design, à ceci près – nuance qui n’est pas des moindres – que dans cette vision épurée du judéo-christianisme, l’intelligence évoquée est finaliste, elle est la main de Dieu. Alors que dans le darwinisme nul objectif, nulle réalisation de dessein ne sont assignés au cheminement de l’évolution. Ce qui fait envisager en fin d’interview le dépassement de l’intelligence humaine sur le temps long, le passage par un couplage humain-machine semblant aux auteurs une étape probable. A noter qu’il n’est heureusement pas pour autant question dans l’ouvrage de transhumanisme, ensemble de micro-mouvements pseudo scientifiques surfant entre crainte d’un grand remplacement (par des cyborgs) et sur la quête d’immortalité.

    Illustration du livre proposée par ChatGPT, générée par l’auteur. Elle ne reflète pas la tonalité humanisme du texte, qui nous aide au contraire à dépasser les mythes trans et post humanistes.


    L’intelligence machine est survolée dans cet opuscule à travers sa comparaison à l’humain, et sous l’angle des machines bio-inspirées, comme l’est le deep learning dont Le Cun est un des pères. Le neuro et le data scientiste ne voient pas de limites a priori à l’intelligence machine, des progrès majeurs restant pour cela à accomplir dans la capacité de planification d’ensemble d’une stratégie, qui constitue encore un avantage majeur du cerveau humain. A noter que le mot «conscience» apparaît 22 fois sans être explicitement défini, car pour les interlocuteurs il est évacué de toute considération philosophique. Les activités innées sont inconscientes, celles apprises comme la conduite automobile le deviennent au fil de l’habitude. Les activités conscientes sont celles qui nécessitent de la réflexion.

    Sur un plan technique, la rivalité historique entre l’approche symbolique (par le raisonnement) et l’approche connexionniste (par les réseaux neuronaux) de l’IA est brièvement rappelée. Le Cun y évoque ce que l’on a baptisé «l’hiver de l’IA», fait de discrédit et d’assèchement des financements, dans lequel les déconvenues du Perceptron avait plongé le connexionnisme. Il souligne un fait souvent passé inaperçu qui éclaire pourtant la triomphale résurgence des réseaux de neurones. Il s’agit des travaux activement menés durant cet «hiver» de deux décennies sous la modeste appellation de «traitement du signal et des images» pour ne pas agiter le chiffon rouge d’une intelligence artificielle bio-inspirées. Ces travaux ont notamment mené aux réseaux de convolution (CNN Convolution Neural Network) chers à Le Cun et qui sont à la base du succès du deep learning.

    Enfin les auteurs pointent un principe essentiel, qui lui est largement connu mais qu’il est bon de marteler : «Apprendre, c’est éliminer» dit Dehaene en écho à une expression fétiche de son maître Jean-Pierre Changeux. Et l’on peut ajouter qu’apprentissage et créativité sont les deux faces d’une même pièce. Pas seulement au sens de la connaissance comme terreau du progrès, mais en un sens beaucoup plus fondamental relevant des lois du traitement de l’information au même titre que la chute de la pomme relève des lois physiques. En deux mots, apprendre par coeur ne sert à rien, si l’on apprend à reconnaître un visage en retenant par coeur chaque pixel d’un photo, on ne saura pas reconnaître la personne sur une autre photo, il faut approximer un visage par quelques caractéristiques, c’est à dire «éliminer» intelligemment les informations inutiles. Et il se crée ainsi des représentations internes du monde qui en sont des approximations utiles pour nous. Cependant, aucune pression évolutive n’a «verrouillé» l’usage de ces représentations en les limitant aux instances qui les avaient suscitées. Ainsi notre propension «câblée» à la causalité, déjà évoquée, sorte d’approximation de la logique usuelle du monde qui nous entoure, nous a fait imaginer des dieux comme causes des évènements naturels, et nourrit aussi peut-être le complotismeiii et sa recherche de causes cachées.

    Max Dauchet, Professeur Émérite de l’Université de Lille.

    En savoir plus : on ne peut que chaudement recommander au lecteur motivé les vidéos des cours donnés au Collège de France par Stanislas Dehaene en Psychologie cognitive expérimentaleYann Le Cun en Informatique et Sciences du Numérique et aussi Benoit Sagot dans la même discipline, ainsi que ceux de Stéphane Mallat en Sciences des données, ces derniers portant sur les réseaux de neurones comme approximateurs au sens des lignes qui précédent.

    Références :

    i Stanislas Dehaene, Yann Le Cun, Jacques Girardon. La Plus Belle Histoire de l’intelligence. Des origines aux neurones artificiels : vers une nouvelle étape de l’évolution. Ed. Robert Laffont, collection La Plus Belle Histoire, 2018.

    ii Sébastin Bohler, Le striatum, ed. bouquins, 2023.

    iii Dans le livre seuls les dieux sont évoqués comme « inventions », le complotisme n’est pas cité. 

     

  • Combattre l’agilité numérique du crime

    Il n’y a plus d’enquêtes policières sans preuve numérique, sans recours massifs aux données électroniques que des criminels peuvent aussi chiffrer de manière inviolable, transférer dans des serveurs de pays peu coopératifs, rendre leur origine anonyme ou les disséminer sur le dark web. Qui des criminels ou des forces de police auront le dernier mot1 ? Charles Cuvelliez et Jean-Jacques Quisquater partagent avec le nous le bilan de ces obstacles qu’Europol vient de dresser. Pierre Paradinas et Benjamin Ninassi
    © canva.com avec le prompt « plus d’enquêtes policières sans preuve numérique, sans recours massifs aux données électroniques »

     

    Volume et volatilité des données

    Il y a le volume des données à examiner : il se chiffre en teraoctets si pas petaoctets qu’il faut stocker, exploiter, analyser pour les autorités policières. Ce sont les fournisseurs de services numériques qui sont obligés de les conserver quelques mois2 au cas où. Ces données peuvent être de tout type, structurées comme des bases de données ou libres, comme des boites emails, des fichiers. Entre autorités policières, il n’y pas d’entente comment les données doivent être stockées, exploitées, structurées, ce qui pose ensuite un problème de coopération entre elles.

    La perte de données est un autre obstacle : il y a eu une tentative d’harmoniser entre Etats membres la durée de rétention des données exploitables à titre judiciaire mais elle a été invalidée par la Cour Européenne de Justice. Depuis, chaque Etat membre a ses règles sur quelles données doivent être gardées et pendant combien de temps pour d’éventuelles enquêtes. Dans certains Etats membres, il n’y a aucune rétention prévue ou à peine quelques jours. Quand une demande arrive, les données ont évidemment disparu.

    Adresse Internet multi-usage

    L’épuisement des adresses Internet est un autre obstacle : les adresses dites IPv4 qui sont nées avec Internet sont toutes utilisées. Il faut les partager avec une adresse parfois pour 65 000 utilisateurs. Ces adresses sont en fait étendues avec le port IP, une extension qui dit quel service est utilisé par l’internaute (et qui donc ne l’identifie pas) et n’est pas conservée. C’est que les adresses de nouvelle génération peinent à devenir la norme puisqu’on étend justement artificiellement le pôle d’adresse IPv4. On pourrait à tout le moins imposer un nombre maximum d’internautes qui se partagent une seule adresse, dit Europol, ou imposer la rétention du port.

    Jusqu’au RGPD, on pouvait accéder au titulaire d’un nom de domaine, ses coordonnées, son email, quand il l’avait ouvert. C’était précieux pour les enquêteurs mais le RPGD a amené l’ICANN, qui gère les noms de domaines non nationaux (gTLD) à ne plus rendre cette information publique. Tous les gTLD gérés par l’ICANN sont concernés. Il y a encore moyen de consulter ces données qui ne sont plus publiques mais les intermédiaires (registrars) qui assignent les noms de domaines à une organisation ou à une personne physique communiquent ces données sur base volontaire. Et surtout, rien n’est prévu pour garantir qu’une demande de renseignement policière sur le propriétaire d’un nom de domaine par une autorité policière reste anonyme. Interpol a bien proposé sa propre base de données de tous les noms de domaines impliqués dans des activités illicites mais encore faut-il les identifier. De toute façon, le système DNS qui traduit un nom de domaine en adresse IP sur Internet est exploité et détourné par les criminels pour réorienter les internautes vers des domaines qui contiennent des malwares ou de l’hameçonnage.

    Chiffrement de tout

    Autre défi : l’accès aux données. Les criminels prennent l’habitude de chiffrer toutes leurs données et sans clé de déchiffrement, on ne peut rien faire. Dans un Etat membre, il est possible de forcer par la contrainte un criminel à donner son mot de passe, à déverrouiller son appareil, même sans l’intervention d’un juge tandis que dans un autre Etat membre (non cité dans le rapport) un mot de passe même découvert légalement lors d’une perquisition n’est pas utilisable. Non seulement les criminels appliquent le chiffrement à leurs données mais les fournisseurs de communications électroniques vont aussi chiffrer par défaut leurs communications3. La 5G prévoit par défaut le chiffrement des données de bout en bout pour les appels vocaux si l’appel reste en 5G. L’opérateur peut même appliquer le chiffrement des données en roaming : l’appareil de l’utilisateur échange des clés de chiffrement avec son opérateur à domicile avant de laisser du trafic s’échapper sur le réseau du pays visité. Les criminels le savent et utilisent des cartes étrangères avec une clé…à l’étranger. Autre progrès fort gênant de la 5G, la technique dite de slicing, en cours de déploiement (5G SA) : elle permet de répartir le trafic d’un même utilisateur entre différents réseaux 5G virtuels à l’intérieur du réseau 5G réel pour n’optimiser les performances qu’en fonction de l‘usage (latence à optimiser ou débit à maximiser). Cela permet aux entreprises d’avoir leur réseau 5G privé dans le réseau 5G public mais cela complique la tâche des autorités policières qui doivent poursuivre plusieurs flux de trafics d’une même cible. Même les textos sont chiffrés de bout en bout avec le déploiement de RCS, un protocole dont s’est inspiré WhatsApp.

    Pour des raisons de sécurité, il faut aussi chiffrer le trafic DNS, celui qui traduit le nom de domaine en adresse IP. On peut le faire au niveau bas, TLS, ce qui permet  encore de suivre le trafic émis par le suspect, même s’il reste chiffré, mais parfois le trafic DNS est chiffré au niveau du protocole http, directement au niveau du navigateur ce qui le mélange avec tout le trafic internet. Ceci dit, accéder au traffic DNS de la cible requiert une forte coopération de l’opérateur télécom en plus.

    Fournisseurs de communications électroniques dits OTT

    Avec le Code de Communications Électronique, non seulement les opérateurs télécom traditionnels doivent permettre les écoutes téléphoniques mais aussi la myriade de fournisseurs de communications électroniques sur Internet (les Over The Top providers, ou OTT) mais ce n’est pas souvent le cas et il n’y rien qui est en place au niveau légal coercitif pour les forcer. Les techniques de chiffrement de bout en bout vont en tout cas exiger que ces opérateurs prévoient des possibilités pour les autorités policières de venir placer des équipements d’écoute comme au bon vieux temps. Mais comment vérifier qu’il n’y a pas d’abus non seulement des autorités judiciaires mais aussi des hackers.

    Les cryptomonnaies

    Les cryptomonnaies sont évidemment prisées par les criminels. Il est si facile d’échapper aux autorités judicaires avec les cryptomonnaies. C’est vrai qu’elles sont traçables mais les techniques pour les brouiller sont bien connues aussi : il y a le mixage qui consiste à mélanger les transactions pour dissimuler l’origine des sources. Il y a le swapping, c’est-à-dire échanger une cryptomonnaie contre un autre (et il y en a des cryptomonnaies) de proche en proche pour obscurcir le chemin suivi. Il s’agit aussi d’échanger les cryptomonnaies en dehors des plateformes ou alors via des plateformes décentralisées, sans autorité centrale à qui adresser une réquisition.

    Même dans le cas d’une plate-forme centralisée soi-disant dans un pays donné, une réquisition qui y est envoyée après avoir pris du temps, ne mènera nulle part car la plate-forme ne sera pas physiquement dans le pays où elle est enregistrée. Il y a depuis, en Europe, la Travel Rule : elle oblige les plateformes qui envoient et reçoivent des cryptomonnaies à conserver le nom de l’émetteur et du bénéficiaire des fonds (cryptos).

    Les techniques d’anonymisation sur Internet sont devenues redoutablement efficaces grâce à des VPNs. Ces réseaux privés sont à l’intérieur même d’internet et complément chiffrés. Ils masquent au niveau d’internet les vraies adresses IP du trafic. A côté des VPN, il y a les serveurs virtuels qu’on peut éparpiller sur les clouds en multiple exemplaires. C’est sur ces serveurs qu’est hébergé le dark web.

    La coopération internationale est le dernier défi. Chaque pays ne permet pas de faire n’importe quoi au point qu’un pays doit parfois pouvoir prendre le relais d’un autre pays pour faire un devoir d’enquête non autorisé dans le pays d’origine. Il faut aussi se coordonner, éviter la déconfliction, un terme barbare qui désigne des interférences involontaires d’un Etat qui enquête sur la même chose qu’un autre État.

    Tout ces constats, Europol les confirme dans son rapport sur le crime organisé publié le 18 mars. Ce dernier a bien compris le don d’ubquité que lui donne le recours à Internet et la transition vers un monde en ligne : recrutement à distance de petites mains, très jeunes, pour des tâches si fragmentées qu’elles ne se rendent pas compte pour qui et pour quoi elles travaillent, ni ne connaissent leur victime; possibilité de coordonner sans unité de temps ni de lieu les actions criminelles aux quatre coins du monde; utilisation de la finance décentralisée et des cryptomonnaies pour blanchir l’argent. Le tout avec la complicité des États qui pratiquent la guerre hybride et encouragent à l’ultra-violence, à l’infiltration des structures légales qui ont pignon sur rue, cette mise en scène visant à provoquer sidération et doute sur le bien-fondé de nos démocraties.

    Depuis 2019, plusieurs nouveaux instruments législatifs de l’Union E uropéenne ont été introduits pour répondre à ces problèmes, explique Europol. Leur efficacité dépendra de la manière dont elles sont mises en œuvre dans la pratique.

    Les seules histoires de démantèlement de réseau criminels qui réussissent, lorsqu’on lit les communiqués de presse entre les lignes, ont toutes une caractéristique en commune : elles sont internationales, alignées au cordeau, avec des capacités techniques reconnues des agences qui y ont travaillé. Europol a raison : ce cadre législatif a surtout pour vocation d’abattre les frontières entre pays qu’internet ne connait pas. Mais c’est une condition nécessaire, pas suffisante.

    Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles) & Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT). 

    Pour en savoir plus :
    – The changing DNA of serious and organised crime EU Serious and Organised Crime Threat Assessment 2025 (EU-SOCTA), Europol.
    – Eurojust and Europol (2025), Common Challenges in Cybercrime – 2024 review by Eurojust and Europol, Publication Office of the European Union, Luxembourg

    Notes:

    1/ Cette question a pris toute son actualité avec les discussions à l’Assemblée sur la loi sur le narcotrafic qui a essayé d’imposer aux messageries chiffrées (comme WhatsApp, Signal, Telegram…) un accès à la justice quant aux échanges cryptés des narcotrafiquants et criminels. De tout façon, un amendement sur la loi NIS2 votée au Sénat devrait interdire aux messageries d’affaiblir volontairement leur sécurité

    2/ La durée de rétention des données par les opérateurs télécom en France est de 12 mois suite à un décret de la Première Ministre de l’époque E. Borne qui évoquait une menace grandissante. Il n’y a pas d’harmonisation européenne en la manière suite au recalage de e-Privacy, le RGPD qui devait s’appliquer aux opérateurs télécoms. Il y avait une directive annexe de rétention des données pour des fins judiciaires mais elle a été recalée il y a des années par la Cour Européenne de Justice. Donc, c’est resté une matière nationale, comme souvent les matières de sécurité.

    3/ Un chiffrement de bout en bout des communications ou des données a toujours été présenté comme la solution inviolable et Apple a constamment mis en avant cette sécurité,expliquant ne pouvoir répondre à aucune demande d’entrer dans un iPhone saisi à un criminel ou un terroriste, mais contrainte et forcée et par le gouvernement de Grande-Bretagne, elle vient de faire volte-face, avec peut-être des conséquences pour tous les appareils Apple de la planète. En savoir plus…

  • De l’impact de l’IA sur l’industrie manufacturière

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers,  en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Pierre-Emmanuel Dumouchel, fondateur et Directeur Général de la start-up Dessia Technologies, réalisée par Pascale Vicat-Blanc, avec l’aide d’Erwan Le Merrer, président du conseil scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

    1. Bonjour Pierre-Emmanuel, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ?

    Pierre-Emmanuel

    Dessia Technologies est une jeune start-up fondée en 2017 par d’anciens ingénieurs de PSA Peugeot Citroën. Nous sommes basés en région parisienne et comptons aujourd’hui une quarantaine de collaborateurs. Notre mission est d’aider les grandes entreprises industrielles, notamment dans les secteurs automobile, aéronautique, ferroviaire et naval, à digitaliser leurs connaissances et à automatiser des tâches de conception grâce à l’intelligence artificielle. Nous travaillons avec des clients prestigieux comme Renault, Valeo, Safran, Airbus, Naval Group et Alstom. Nous utilisons par exemple des algorithmes d’IA pour automatiser le design des câblages électriques ou pour générer des architectures de batteries électriques. Forts de deux levées de fonds, nous sommes soutenus par quatre fonds d’investissement, dont celui d’Orano.

    2. En quoi pensez-vous que l’IA a déjà transformé votre métier ?

    L’intelligence artificielle a transformé en profondeur la manière dont les ingénieurs abordent la résolution de problèmes. Avant l’arrivée de ces technologies, les ingénieurs cherchaient principalement une ou deux solutions optimales pour répondre à un problème donné. Aujourd’hui, grâce à l’IA, ils explorent un éventail beaucoup plus large de solutions possibles. Les modèles génératifs, en particulier, permettent de proposer automatiquement de nombreuses alternatives et de hiérarchiser les options selon des critères précis. Cette évolution a modifié le rôle de ces ingénieurs, qui se concentrent désormais davantage sur l’analyse et la sélection des meilleures solutions pour leur entreprise.

    3. À quels changements peut-on s’attendre dans le futur ? Quelles tâches pourraient être amenées à être automatisées ? À quel horizon ?

    Dans le futur, l’interaction homme-machine sera profondément redéfinie grâce aux LLM (« Large Language Models » ou grands modèles de langage). Ces modèles remplaceront les interfaces graphiques traditionnelles par des interactions écrites ou orales, rendant les outils d’ingénierie plus intuitifs et accessibles. Les ingénieurs deviendront des gestionnaires de processus automatisés, orchestrant des agents autonomes pour exécuter des tâches techniques. La plupart des activités actuellement réalisées manuellement, comme la configuration de systèmes complexes ou la gestion de chaînes logistiques, seront automatisées d’ici 5 à 10 ans. Le rôle des ingénieurs évoluera donc vers un travail décisionnel, où ils valideront les choix proposés par les systèmes automatisés, favorisant une approche collaborative et stratégique.

    Ainsi, lIA révolutionne particulièrement l’interaction et l’expérience de l’humain (UX) vis-à-vis des systèmes numériques. Les techniciens n’échangent plus via des pages HTML mais interagissent avec des éléments de savoir, grâce au langage naturel et via des messages communiquant leurs intentions de manière concise (prompt). L’IA générative permet donc de repenser les univers d’interaction traditionnels (via une « souris » et un écran) pour aller vers des univers d’interaction fluide en 3D et en langage naturel.

    Demain, les interactions se feront via des agents : des automates réalisant des tâches pour le compte des ingénieurs. Les humains travailleront de concert avec des agents spécialisés, tels que les agents spécialistes de l’architecture électrique, avec ceux de l’architecture 3D et ceux des problèmes thermiques, qui se coordonneront entre eux. Ces agents permettront de résoudre des problèmes de conception en ingénierie qui sont actuellement insolubles, tels que concevoir une architecture de batterie ou un véhicule pour baisser l’empreinte carbone.

    Une ou un ingénieur devra être capable de manipuler de nouvelles briques de savoir, par exemple pour s’assurer que la ligne d’assemblage d’une batterie ou d’un véhicule fonctionne bien, ou comment la faire évoluer, ainsi que le processus de conception. Il s’agit d’une mutation vers l’intégration et le développement continus (CI/CD) des produits manufacturés, réalisés en ingénierie concurrente.

    On entre dans une ère dans laquelle se poseront des questions telles que celle de la sélection des tâches à automatiser et à déléguer à des agents, celle de la structuration du savoir de chaque ingénieur, de la manière de poser des questions, et de collecter des éléments de savoir.

    Les ingénieurs devront aussi brainstormer, collaborer et travailler sur leur expertise pour prendre les décisions à partir des sorties des agents. La collaboration se fera au niveau décisionnel plutôt qu’au niveau opérationnel.

    L’IA remet l’humain au centre. La numérisation a apporté un travail qui s’effectue de manière solitaire, seul derrière son écran. L’IA casse ce mode et pousse à développer un travail plus collaboratif ciblant les aspects stratégiques concernant la tâche à effectuer.

    4. Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ?

    Nous recherchons des profils capables de s’adapter à l’écosystème technologique actuel et de tirer parti des outils modernes comme les LLM. Par exemple, dans les métiers marketing et vente, nous attendons une maîtrise des outils génératifs pour créer du contenu ou analyser des données de marché. Du côté des ingénieurs et data scientists, une bonne compréhension des algorithmes d’IA, des outils d’automatisation et des techniques de prototypage rapide est essentielle.

    Ces remarques et les suivantes sur l’emploi des ingénieurs et autres collaborateurs concernent l’industrie en général et ne sont pas spécifiques à Dessia.

    5. Pouvez-vous préciser quelles formations, à quel niveau ?

    Les formations nécessaires dépendent des métiers, mais une tendance claire se dessine : la capacité d’adaptation et l’auto-apprentissage deviennent des compétences prioritaires. Pour les métiers techniques comme l’ingénierie et la data science, une spécialisation poussée reste essentielle, avec des profils de personnes ayant souvent obtenu un diplôme de doctorat ou ayant une expertise avancée en mathématiques et algorithmique. Pour d’autres postes, les recruteurs privilégient les candidats capables de se former rapidement sur des sujets émergents, au-delà de leur parcours académique, et de maîtriser les outils technologiques en constante évolution.

    Les nouveaux employés devront ainsi s’adapter à de plus en plus d’exigences de la part des employeurs, ils devront avoir une expérience en IA, en pilotage de projets d’IA. Non seulement dans les domaines de l’ingénierie mais aussi des ventes. Il devront connaitre l’IA, utiliser les LLM, avoir de très bonnes qualités humaines et relationnelles.

    6. Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables ?

    Toutes les fonctions au sein d’une entreprise devront intégrer l’IA à leur activité, car cette technologie est en passe de devenir une nouvelle phase de digitalisation. Les entreprises qui ne suivent pas cette transformation risquent non seulement de perdre en compétitivité, mais aussi de rencontrer des difficultés à recruter des talents. L’IA deviendra un standard incontournable pour améliorer la productivité et attirer les jeunes générations, qui recherchent des environnements de travail modernes et connectés.

    7. Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique ?

    Nous ne faisons pas de distinction stricte. Chaque rôle dans l’entreprise doit intégrer l’IA, quil s’agisse de marketeurs utilisant des outils génératifs pour automatiser des campagnes ou d’ingénieurs chefs de projets s’appuyant sur l’IA pour optimiser la gestion de leurs plannings. Les développeurs travailleront en collaboration avec des agents IA pour accélérer leurs cycles de production, tandis que les CTO et managers utiliseront des outils intelligents pour piloter leurs indicateurs de performance. Cette polyvalence est au cœur de notre approche.

    8. Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables ?

    Nous privilégions des approches de transformation ciblées et pratiques plutôt que des formations classiques. Par exemple, un ou une ingénieure avec des compétences en VBA (note : Visual Basic for Applications) pourrait être accompagné pour se former à Python et à l’automatisation, augmentant ainsi sa valeur ajoutée dans l’entreprise. Un collègue secrétaire pourrait apprendre à utiliser des outils « no-code » ou des chatbots pour améliorer la gestion des intranets ou la création de contenus automatisés. Ces plans de transformation, accompagnés d’experts ou de consultants, permettront aux employés de devenir les acteurs de leur propre évolution.

    9. Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA ?

    Nous appelons à une plus grande ouverture dans l’écosystème de l’intelligence artificielle, en particulier à travers l’open source. Cela permettrait de garantir une compétitivité équilibrée et d’éviter une concentration excessive de pouvoir entre les mains de quelques grands acteurs. Les modèles d’IA devraient être facilement personnalisables et utilisables en local pour protéger les données sensibles des entreprises. Cette approche favoriserait un écosystème plus collaboratif et innovant, permettant à un plus grand nombre d’entreprises de bénéficier des avancées technologiques.

    Pierre-Emmanuel Dumouchel, fondateur et Directeur Général de la start-up Dessia Technologies, interviewé, par  Pascale Vicat-Blanc, avec l’aide Erwan Le Merrer, avec le concours de la SIF.