• À Framasoft, la priorité, c’est le changement de société

    Angie Gaudion, chargée de relations publiques au sein de Framasoft, revient sur l’histoire de l’association, son financement, son évolution, leur positionnement dans l’écosystème numérique et, plus largement, le soutien apporté aux communs numériques. Cet article a été publié le 21 octobre 2022 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant. Serge Abiteboul et Thierry Viéville.

    Framasoft, qu’est-ce que c’est ?

    Pour comprendre Framasoft, il faut s’intéresser à son histoire. Née en 2001, Framasoft était d’abord une sous-catégorie du site participatif Framanet, lequel regroupait des ressources à destination des enseignants et mettait en avant des logiciels éducatifs gratuits (libres et non-libres). Framasoft est devenu « indépendant » et 100% libre plusieurs années plus tard. Mais il y a déjà une volonté de valoriser le logiciel libre dans le milieu de l’enseignement. D’ailleurs, en juin 2002, Framasoft est, avec l’AFUL, à l’origine de l’action Libérons les logiciels libres à l’école.

    Entre 2001 et 2004, un collectif se structure autour de la promotion des logiciels libres et propose des interventions sur ces questions (conférences, ateliers, stands, etc.). C’est en 2004 que Framasoft se structure en association avec pour objet la promotion du logiciel libre et de la culture librePour atteindre cet objectif, apparaissent entre 2004 et 2014 plusieurs projets comme les Framakey (clé USB contenant des logiciels libres permettant de les utiliser sans avoir à les installer sur son ordinateur), Framabook (maison d’édition d’ouvrages sous licence libre), Framablog (chroniques autour du Libre, traductions originales et annonces des nouveautés de l’ensemble du réseau Framasoft), etc…

    À partir de 2011 (10 ans), Framasoft se diversifie et décide de proposer des services libres en ligne : Framapad (mars 2011), Framadate (juin 2011), Framacalc (février 2012), Framindmap et Framavectoriel (février 2012), Framazic (novembre 2013) et Framasphère (2014).

    En octobre 2014, nous lançons la campagne “Dégooglisons Internet” dont l’objectif est de proposer des services libres alternatifs à ceux proposés par les géants du web à des fins de monopole et d’usage dévoyé des données personnelles. Cette campagne nous fait connaître du grand public et, entre 2014 et 2017, on déploie jusqu’à 38 services en ligne. L’égalité de l’accès à ces applications est un engagement fort : en les proposant gratuitement, Framasoft souhaite promouvoir leur usage envers le plus grand nombre et illustrer par l’exemple qu’un Internet décentralisé et égalitaire est possible. En parallèle, nous lançons en 2016 le Collectif des Hébergeurs Alternatifs Transparents Ouverts Neutres et Solidaires (CHATONS). Framasoft cherche a faire connaître et essaimer des hébergeurs alternatifs aux GAFAM proposant des services libres et respectueux de la vie privée. En effet, nous ne souhaitons pas concentrer toutes les démarches alternatives, mais plutôt partager le gâteau avec d’autres structures (nous ne voulons pas devenir “le Google du libre”).

    2017 marque la fin de la campagne “Dégooglisons Internet” : les services existants sont conservés mais nous n’en déployons plus de nouveaux. Depuis 2019, nous avons fermé progressivement une partie de ces services. Nous avons fait le choix de ne conserver que ceux qui n’étaient pas proposés ailleurs et ceux qui sont les plus utilisés. Par exemple, le service Framalistes (un outil de listes de discussion) est utilisé par 960 000 personnes et envoie chaque jour près d’un million d’emails. On sait donc que si l’on supprime ce service, cela manquera aux personnes qui l’utilisent. La décision d’arrêter certains services a aussi été prise en fonction de la difficulté technique à les maintenir. Par exemple Framasite était utilisé par de nombreuses personnes mais présentait une dette technique énorme. Néanmoins, depuis son arrêt, nous nous rendons bien compte que le service manque parce qu’il n’y a pas vraiment d’alternatives.

    2017, c’est aussi le lancement de la campagne Contributopia. On est parti du constat que pour changer le positionnement des gens, il fallait non plus faire pour elleux, mais avec elleux (faire ensemble). L’objectif est de décloisonner le libre de son ornière technique pour développer ses valeurs éthiques et sociales (donc politiques). On a donc décidé de proposer différents dispositifs pour valoriser la contribution (méconnue, mal valorisée et trop complexe) et outiller celles et ceux qui veulent « faire » des communs. Contributopia prend de nombreuses formes : on continue à développer des alternatives lorsqu’elles n’existent pas (PeerTube, Mobilizon), on essaie de faire émerger d’autres acteurices à l’international, on développe les partenariats avec des structures dont les valeurs sont proches des nôtres pour les outiller (archipélisation). Et on essaie d’être le plus résilient en faisant tout cela, tout en valorisant la culture du partage.

    En 2021, nous actons, par la modification des statuts, que Framasoft est devenue une association d’éducation populaire aux enjeux du numérique et des communs culturels. Notre objet social n’est plus de faire la promotion du logiciel libre, mais de transmettre des connaissances, des savoirs et de la réflexion autour de pratiques numériques émancipatrices. Pourtant, nous continuons à offrir des services en ligne afin de démontrer que ces outils existent et sont des alternatives probantes aux services des géants du web. Nous transmettons davantage désormais connaissances et savoirs-faire sur ces outils et accompagnons les internautes dans leur autonomisation vis-à-vis des géants du web.

    Aujourd’hui, 37 personnes sont membres de l’association, dont 10 salariées. Mais cela ne veut pas dire que nous ne sommes que 37 à contribuer. On estime qu’entre 500 et 800 personnes nous aident régulièrement, que ce soit pour de la traduction d’articles, des propositions de lignes de codes pour les logiciels que nous développons, du repérage de bugs, des illustrations, des contributions au forum d’entraide de la communauté… Pour finir, en terme de nombre de bénéficiaires, on ne peut donner qu’une estimation parce que nous ne collectons quasiment aucune donnée, mais on estime à 1,2 millions le nombre de personnes qui utilisent nos services chaque mois. Cependant, on ne s’attarde pas vraiment sur les chiffres, on ne veut pas d’un monde où on compte, d’un monde où on analyse systématiquement l’impact.

    Frise chronologique de l'évolution de Framasoft : 2001, création de Framanet comportant une page Framasoft regroupant des ressources à destination des enseignants. 2002, Framasoft s'associe à l'association Libérons les logiciels à l'école. 2004, Création de Framasoft en association, avec pour objet social la promotion du logiciel libre. 2011, lancement de services en ligne libres et gratuits (Framapad, Framadate, Framaform...). Jusqu'en 2017, 38 services seront lancés. Il en reste 16 aujourd'hui. 2014-1027, Campage "Dégooglisons Internet". 2021, changement de l'objet social de Framasoft qui devient une association d'éducation populaire.

     

    Quel est votre modèle de financement ?

    Framasoft est actuellement une association dont le modèle économique repose sur le don, donc exclusivement sur des financements privés. Notre budget s’élève à 630 000 € en 2021. 98,42 % de ce montant est financé par les dons, qui se répartissent entre :

    • 12,56 % provenant de fondations
    • 85,86 % provenant de dons de particuliers.

    Les 1,58 % qui ne proviennent pas des dons viennent de la vente de prestations. Par exemple, Framasoft a développé pour le site apps.education.fr un plugin d’authentification unique sur PeerTube, permettant de connecter au service la base de tous les login et mots de passe d’enseignants à l’échelle nationale et d’éviter ainsi qu’ils aient à se créer un nouveau compte.

    Ce budget sert principalement à financer les salaires des 10 salariées. À cela s’ajoutent quelques prestations techniques (développement et design), du soutien à d’autres acteurs du logiciel libre et des frais de fonctionnement divers.

    Cette question du mode de financement est particulièrement importante pour nous. Le modèle du don convient parfaitement à Framasoft même si nous sommes conscients qu’il est difficilement reproductible pour des projets de grande envergure. Cela reste un choix politique. Nous savons que de nombreuses structures du libre sont aujourd’hui financées par les géants du net. C’est un paradoxe assez fort, d’autant plus qu’il est évident que toutes ces structures préféreraient que ce ne soit pas le cas. Mais en l’absence d’autres sources de financement, elles n’ont pas toujours le choix. Et il serait vraiment dommage que les services qu’elles proposent n’existent pas faute de financement. Il y a donc un réel enjeu de soutien de ces structures, notamment pour assurer leur pérennité.

    Que pensez-vous de l’idée ou des réactions de celles et ceux qui se disent que les initiatives du libre ont du mal à « passer à l’échelle » ?

    Pour mettre fin à la dépendance envers les géants du numériques, un moyen d’y parvenir, sans avoir besoin d’acquérir une taille critique et une position dominante est de s’associer à d’autres projets et de collaborer ensemble à une autre vision du web.

    On peut s’interroger sur cette recherche permanente de croissance : s’il est indispensable que des services alternatifs aux modèles dominants du net existent, est-ce nécessaire qu’une seule et même entité concentre l’ensemble des services ? La centralisation peut conférer une certaine force, mais chez Framasoft nous avons fait le choix de nous passer de cette force : l’essaimage nous semble le meilleur moyen de passer à l’échelle. Si la priorité est de mettre fin à la dépendance envers les géants du numériques, un moyen d’y parvenir, sans avoir besoin d’acquérir une taille critique et une position dominante est de s’associer à d’autres projets et de collaborer ensemble à une autre vision du web.

    Chez Framasoft, nous ne souhaitons pas le passage à l’échelle. D’ailleurs, nous ne savons même pas de quelle échelle on parle ! Dans les faits, l’association a grossi au fil du temps, mais notre volonté est d’avoir une croissance limitée et raisonnée parce que nous sommes convaincus qu’il vaut mieux être plusieurs acteurs qu’un seul. Nous ne voulons donc pas centraliser les usages et les profits. Si le but premier est d’avoir de plus en plus d’utilisateurs de logiciels libres – ce qui était l’objectif avec « Dégooglisons Internet » – peu importe que ce soit chez Framasoft ou chez d’autres. Tant que les internautes ont fait leur migration vers des logiciels libres, pour nous le « passage à l’échelle » est réussi. C’est une vision différente des structures productivistes : nous visons un « passage à l’échelle » côté utilisateurs et non côté entreprise. La priorité, pour nous, c’est le changement de société. 

    Le passage à l’échelle pose aussi, selon nous, la question de la façon dont on traite les humains. Si l’on veut prendre soin des humains il faut des relations de confiance et d’empathie entre individus. Tisser de tels liens nous semble difficile si l’on est sans cesse en train de doubler nos effectifs. Cela explique aussi le fait que nous soyons une association de cooptation où tout le monde se connaît.

    Du fait de notre ADN issu du logiciel libre, nous ne voulons pas entrer dans le modèle du capitalisme néolibéral et du productivisme. Nous tenons à défendre le modèle associatif. Nous sommes dans un contexte où les associations et leurs financements sont très mis à mal par les politiques publiques de ces dernières années. C’est donc un véritable choix que de garder ce modèle pour le soutenir et montrer que le modèle économique du don est viable.

    Nous visons un « passage à l’échelle » côté utilisateurs et non côté entreprise. La priorité, pour nous, c’est le changement de société.

    Si on rentre plus précisément dans la perspective de « Dégooglisation », comment vous positionnez-vous par rapport aux géants du web ?

    Notre objectif est de permettre à toute personne qui le souhaite de remplacer les services des géants du web qu’elle utilise par des alternatives. Nous ne nous positionnons donc pas vraiment en concurrence car, en tant qu’hébergeurs de services alternatifs, nous ne cherchons pas systématiquement à reproduire à l’identique les services de ces géants. Par exemple, le service Framadate propose exactement les mêmes fonctionnalités que Doodle (et même davantage puisqu’il permet de réaliser des sondages classiques). En revanche, le service Framapad (basé sur le logiciel Etherpad) ne fait pas exactement la même chose que Google Docs et pourtant nous considérons que c’est son alternative. Il ne permet pas la gestion d’un espace de stockage, mais simplement l’édition collaborative en simultané d’un texte. Le service est chrono-compostable : le pad disparaît après un certain délai. Nous avons proposé une alternative à Google Drive avec le service Framadrive que nous avons limité à 5 000 comptes, lesquels ont été pris d’assaut. Nous allons prochainement proposer un nouveau service alternatif de cloud et d’édition collaborative basé sur le logiciel Nextcloud. Ce service ne sera pas commercialisé et sera proposé aux organisations actrices du progrès et de la justice sociale avec des limitations (taille du stockage, nombre d’utilisateurs) pour leur montrer qu’il existe une alternative viable et les inciter à transiter dans un second temps vers des services libres plus complets proposés par certaines structures membres du collectif CHATONS. Notre objectif est de permettre d’expérimenter et ensuite de rediriger vers d’autres partenaires proposant, eux, des solutions pérennes.

    J’aimerais que l’on (les hébergeurs de services alternatifs) devienne une alternative viable à grande échelle. Ce serait possible, mais cela voudrait dire que nous aurions changé très fortement le système. On peut se dire qu’avec le mouvement fort des communs, et pas uniquement des communs numériques, une partie de la population a pris conscience qu’il est temps de mettre en cohérence ses usages numériques avec ses valeurs. Il demeure cependant ardu de mesurer si ces initiatives augmentent. La question est : que mesure-t-on ? Est-ce que l’on mesure le nombre de projets ? Ou le nombre de personnes dans ces communautés qui gèrent des communs ? À cet égard, il y a un enjeu de sous-estimation parce que beaucoup de « commoners » s’ignorent comme tels. Les bénévoles qui gèrent des associations sportives sont un bon exemple. Ensuite, plus que de dénombrer ces projets, il serait plus intéressant d’en analyser l’impact sur la société. Cela implique de financer la recherche pour qu’elle travaille sur ces questions, ce qui n’est pas suffisamment le cas aujourd’hui. Même si quelques projets existent néanmoins, tels que le projet de recherche TAPAS (There Are Platforms As Alternatives).

    L’État contribue-t-il aujourd’hui aux communs ? Cette contribution est-elle souhaitable ?

    L’État contribue aux communs. Par exemple, l’Éducation nationale propose la page apps.education.fr qui référence un ensemble de services pédagogiques en ligne basés sur du logiciel libre. Mais l’État est paradoxal : il contribue aux communs et signe des accords avec Microsoft pour implémenter Windows sur les postes informatiques des écoles. De plus, cette initiative de l’Éducation nationale est très bonne, mais elle reste très méconnue du corps enseignant. Au-delà de la contribution, il y a donc aussi un enjeu important de promotion.

    Cette contribution étatique ne nous pose aucun problème, tant que cela ne crée pas de situations de dépendance et qu’il n’y a pas d’exigences de ces institutions publiques en termes d’impact ou de performance. Il faudrait, notamment, que les financements soient engagés sur plusieurs années. Il faudrait aussi arrêter le financement de projets et privilégier des financements du fonctionnement. Ensuite, nous pensons que certains dispositifs mis en place ces dernières années par les pouvoirs publics ne devraient pas exister. Par exemple, le contrat d’engagement républicain, qui doit obligatoirement être signé par une association pour qu’elle puisse bénéficier de financements publics, met ces dernières dans des positions difficiles. L’association doit satisfaire aux principes qui y sont présentés et, si tel n’est pas le cas, le financement peut être suspendu, voire il peut être demandé de rembourser les montants précédemment engagés. Mais la forme sous laquelle ce contrat est rédigé est si floue que les termes utilisés peuvent être interprétés de multiples manières. Il devient alors assez facile de tordre le texte pour mettre la pression, voire faire cesser l’activité d’une association. Ce n’est donc pas le principe de ce contrat qui me gêne, mais ce flou sur la formulation des termes qui fait qu’on ne sait pas où est la limite de son application. C’est d’ailleurs ce qui s’est passé le 13 septembre dernier quand le Préfet de la Vienne a sommé par courrier la ville et la métropole de Poitiers de retirer leurs subventions destinées à soutenir un village des alternatives organisé par l’association Alternatiba Poitiers. Pour quel motif  ? Au sein de cet événement, une formation à la désobéissance civile non-violente a été jugée « incompatible avec ce contrat d’engagement républicain ». Signée par 65 organisations (dont Framasoft), une tribune rappelle que la désobéissance civile relève de la liberté d’expression, du répertoire d’actions légitimes des associations et qu’elle s’inscrit dans le cadre de la démocratie et de la république.

    Framasoft est aussi signataire de la tribune Pour que les communs numériques deviennent un pilier de la souveraineté numérique européenne parue en juin dernier. En effet, dans le cadre des travaux engagés au sein de l’Union européenne, il semblait important de rappeler quel’espace numérique ne doit pas être laissé à la domination des plateformes monopolistiques. Et que pour pallier à cela, l’Union européenne doit, plus que jamais, initier des politiques d’envergure afin que les communs numériques puissent mieux se développer et permettre de maintenir une diversité d’acteurs sur le Web.
    Plus largement, on peut se demander pourquoi il devrait y avoir une contrepartie au développement d’un commun. Pourquoi le simple fait de créer, développer et maintenir un commun ne suffirait-il pas ?

    Communs numériques et ergonomie font-ils bon ménage ?

    C’est le marronnier quand on vient à parler de communs numériques ! Pour ce qui concerne les services en ligne alternatifs, il est évident que le design et l’expérience utilisateur devraient être davantage pris en compte et mériteraient des financements plus importants au sein des structures qui les développent. Chez Framasoft, nous faisons appel depuis plusieurs années à des designers pour réfléchir aux interfaces des logiciels que nous développons (PeerTube et Mobilizon). Cette prise de conscience est récente. Dans le monde du libre, il me semble que, pendant assez longtemps, il n’y a pas vraiment eu de réflexion quant à l’adoption des outils par le plus grand nombre.

    Les services numériques tels qu’ils existent aujourd’hui nous ont fait prendre des habitudes et ont créé un réflexe de comparaison. Mais passer d’iPhone à Android ou l’inverse génère aussi des crispations. Le passage aux communs en générera naturellement aussi et peut-être plus. C’est d’ailleurs un discours que l’on porte beaucoup chez Framasoft : c’est plus simple d’aller au supermarché que d’avoir une pratique éthique d’alimentation. Il en va de même en ligne. Modifier ses pratiques numériques demande un effort. Mais cela ne veut évidemment pas dire que l’on ne peut pas améliorer les interfaces de nos services. Cependant, cela nécessite des financements qui ne sont pas toujours faciles à avoir. Les utilisateurs de services libres devraient en prendre conscience pour davantage contribuer à l’amélioration de ces communs. On peut lier ce mécanisme à la problématique du passager clandestin : tout le monde souhaite des services libres avec une meilleure expérience utilisateur mais peu sont prêts à les financer. Aujourd’hui, les projets de communs ont des difficultés à trouver des financements pour cet aspect de leurs services.

    Angie Gaudion, chargée de relations publiques au sein de Framasoft,

  • La passion du pair-à-pair

    Un nouvel entretien autour de l’informatique.

    Anne-Marie Kermarrec est une informaticienne française, professeure à l’École polytechnique fédérale de Lausanne. Elle est internationalement reconnue pour ses recherches sur les systèmes distribués, les systèmes « pair à pair », les algorithmes épidémiques et les systèmes collaboratifs d’apprentissage automatique. Elle fait partie du Conseil présidentiel de la science français et est nouvellement élue à l’Académie des Sciences. Elle contribue régulièrement à binaire, et a publié en 2021 « Numérique, compter avec les femmes », chez Odile Jacob.

    Anne-Marie Kermarre. Par EPFL, CC BY 4.0, Wikimedia Commons

    Binaire : Tout d’abord, peux-tu nous retracer rapidement le parcours depuis la petite fille en Bretagne jusqu’à la membre Académie des sciences ?

    AMK : Oui, je viens de Bretagne ; je suis la petite dernière d’une fratrie de quatre. On a tous suivi des études scientifiques. Au lycée, en seconde, j’avais pris option informatique pour aller dans un lycée particulier à Saint-Brieuc. À la fac, j’hésitais entre l’économie, les maths, l’informatique, et j’ai choisi l’informatique, un peu par hasard j’avoue. Je n’avais pas une idée très précise de ce que c’était mais il se trouve que j’avais un frère informaticien, qui avait fait un doctorat, et ça avait l’air d’un truc d’avenir !

    J’ai découvert la recherche pendant mon stage de maîtrise, où j’ai étudié les architectures des ordinateurs. Puis, en DEA et en thèse, j’ai bifurqué vers les systèmes distribués, là encore, un peu par hasard. La façon de travailler en thèse m’a beaucoup plu, et m’a donné envie de continuer dans cette voie. J’ai donc poursuivi un postdoc à Amsterdam, avec un chercheur qui m’a beaucoup inspiré, Andy Tanenbaum. C’est là que j’ai commencé à travailler sur les systèmes distribués à large échelle – mon sujet principal de recherche depuis. Après deux ans comme maitresse de conférences à Rennes, j’ai passé cinq ans comme chercheuse pour Microsoft Research à Cambridge en Angleterre. C’était très chouette. Ensuite, je suis devenue directrice de recherche Inria et j’ai monté une équipe sur les systèmes pair-à-pair, un sujet très en vogue à l’époque. Cela m’a conduite à créer une start-up, Mediego, qui faisait de la recommandation pour les journaux en ligne et exploitait les résultats de mon projet de recherche. En 2019, juste avant le Covid, j’ai vendu la start-up. Depuis je suis professeure à l’EPFL. J’y ai monté un labo, toujours sur les systèmes distribués à large échelle, avec des applications dans l’apprentissage machine et l’intelligence artificielle.

    Binaire : Pourquoi est-ce que tu n’es pas restée dans l’industrie après ta start-up?

    AMK : La création de ma start-up a été une expérience très enrichissante techniquement et humainement. On était parti d’un algorithme que j’avais développé et dont j’étais très fière, mais finalement, ce qui a surtout fonctionné, c’est un logiciel de création de newsletters qu’on avait co-construit avec des journalistes. Les joies du pivot en startup. Et à un moment donné, j’avais un peu fait le tour dans le sens où, même si ce n’était pas une grosse boîte, une fois qu’on avait trouvé notre marché, je m’occupais essentiellement des sous et des ressources humaines… et plus tellement, plus assez, de science. Donc j’ai décidé de revenir dans le monde académique que je n’avais pas complètement quitté, puisque j’y avais encore des collaborations. J’ai aimé mon passage dans l’industrie, mais j’aime aussi la nouveauté, et c’est aussi pour ça que j’ai pas mal bougé dans ma carrière. Et après quelque temps, le monde académique me manquait, les étudiants, les collègues. Et puis, ce qui me plaît dans la recherche : quand on a envie, on change de sujet. On fait plein de choses différentes, on jouit d’une énorme liberté et on est entouré d’étudiants brillants. J’avais vraiment envie de retrouver cette liberté et ce cadre.

    Et puis, au vu de tout ce qui se passe avec ces grosses boîtes en ce moment, je me félicite d’être revenue dans le monde académique ; je n’aurais pas du tout envie de travailler pour elles maintenant….

    Binaire : Ton premier amour de chercheuse était le pair-à-pair. Est-ce que tu peux nous expliquer ce que c’est, et nous parler d’algorithmes sur lesquels tu as travaillé dans ce cadre ?

    Architecture centralisée
    (1)
    Architecture pair à pair
    (2)

    Architecture centralisée (1), puis pair-à-pair (2).
    Source: Wikimedia commons.

    AMK : Commençons par les systèmes distribués. Un système distribué consiste en un ensemble de machines qui collaborent pour exécuter une application donnée ; l’exemple type, ce serait les data centers. On fait faire à chaque machine un morceau du travail à réaliser globalement. Mais à un moment donné, il faut quand même de la synchronisation pour mettre tout ça en ordre.

    La majorité des systèmes distribués, jusqu’au début des années 2000, s’appuyait sur une machine, qu’on appelle un serveur, responsable de l’orchestration des tâches allouées aux autres machines, qu’on appelle des clients. On parle d’architecture client-serveur. Un premier inconvénient, qu’on appelle le passage à l’échelle, c’est que quand on augmente le nombre de machines clientes, évidemment le serveur commence à saturer. Donc il faut passer à plusieurs serveurs. Comme dans un restaurant, quand le nombre de clients augmente, un serveur unique n’arrive plus à tout gérer, on embauche un deuxième serveur, puis un autre, etc. Un second problème est l’existence d’un point de défaillance unique. Si un serveur tombe en panne, le système en entier s’écroule, alors même que des tas d’autres machines restent capables d’exécuter des tâches.

    Au début des années 2000, nous nous sommes intéressés à des systèmes distribués qui n’étaient plus seulement connectés par des réseaux locaux, mais par Internet, et avec de plus en plus de machines. Il est alors devenu crucial de pouvoir supporter la défaillance d’une ou plusieurs machines sans que tout le système tombe en panne. C’est ce qui a conduit aux systèmes pair-à-pair.

    Binaire : On y arrive ! Alors qu’est-ce que c’est ?

    AMK : Ce sont des systèmes décentralisés dans lesquels chaque machine joue à la fois le rôle de client et le rôle de serveur. Une machine qui joue les deux rôles, on l’appelle un pair. En termes de passage à l’échelle, c’est intéressant parce que ça veut dire que quand on augmente le nombre de clients, on augmente aussi le nombre de serveurs. Et si jamais une machine tombe en panne, le système continue de fonctionner !

    Bon, au début, les principales applications pour le grand public étaient… le téléchargement illégal de musique et de films avec des systèmes comme Gnutella ou BitTorrent ! On a aussi utilisé ces systèmes pour de nombreuses autres applications comme le stockage de fichiers ou même des réseaux sociaux. Plus récemment, on a vu arriver de nouveaux systèmes pair-à-pair très populaires, avec la blockchain qui est la brique de base des crypto-monnaies comme le Bitcoin.

    Maintenant, entrons un peu dans la technique. Dans un système distribué avec un très grand nombre de machines (potentiellement des millions), chaque machine ne communique pas avec toutes les autres, mais juste avec un petit sous-ensemble d’entre elles. Typiquement, si n est le nombre total de machines, une machine va communiquer avec un nombre logarithmique, log(n), de machines. En informatique, on aime bien le logarithme car, quand n grandit énormément, log(n) grandit doucement.

    Maintenant, tout l’art réside dans le choix de ce sous-ensemble d’environ log(n) machines avec qui communiquer. La principale contrainte, c’est qu’on doit absolument éviter qu’il y ait une partition dans le réseau, c’est-à-dire qu’il doit toujours exister un chemin entre n’importe quels nœuds du réseau, même s’il faut pour cela passer par d’autres nœuds. On va distinguer deux approches qui vont conduire à deux grandes catégories de systèmes pair-à-pair, chacune ayant ses vertus.

    La première manière, dite « structurée », consiste à organiser tous les nœuds pour qu’ils forment un anneau ou une étoile par exemple, bref une structure géométrique particulière qui va garantir la connectivité du tout. Avec de telles structures, on est capable de faire du routage efficace, c’est-à-dire de transmettre un message de n’importe quel point à n’importe quel autre point en suivant un chemin relativement court. Par exemple, dans un anneau, en plaçant des raccourcis de façon astucieuse, on va pouvoir aller de n’importe quelle machine à n’importe quelle autre machine en à peu près un nombre logarithmique d’étapes. Et la base de tous ces systèmes, c’est qu’il y a suffisamment de réplication un peu partout pour que n’importe quelle machine puisse tomber en panne et que le système continue à fonctionner correctement.

    La seconde manière, dite « non structurée », se base sur des graphes aléatoires. On peut faire des choses assez intéressantes et élégantes avec de tels graphes, notamment tout ce qui s’appelle les algorithmes épidémiques (j’avais parlé de ça dans un autre article binaire). Pour envoyer un message à tout un système, je l’envoie d’abord à mes voisins, et chacun de mes voisins fait la même chose, etc. En utilisant un nombre à peu près logarithmique de voisins, on sait qu’au bout d’un nombre à peu près logarithmique d’étapes, tout le monde aura reçu le message qui s’est propagé un peu comme une épidémie. Cela reste vrai même si une grande partie des machines tombent en panne ! Et le hasard garantit que l’ensemble reste connecté.

    On peut faire évoluer en permanence cette structure de graphe aléatoire, la rendre dynamique, l’adapter aux applications considérées. C’est le sujet d’un projet ERC que j’ai obtenu en 2008. L’idée était la suivante. Comme je dispose de ce graphe aléatoire qui me permet de m’assurer que tout le monde est bien connecté, je peux construire au-dessus n’importe quel autre graphe qui correspond bien à mon application. Par exemple, je peux construire le graphe des gens qui partagent les mêmes goûts que moi. Ce graphe n’a même pas besoin de relier tous les nœuds, parce que de toute façon ils sont tous connectés par le graphe aléatoire sous-jacent. Et dans ce cas-là, je peux utiliser ce réseau pour faire un système de recommandation. En fait, au début, je voulais faire un web personnalisé et décentralisé. C’était ça, la « grande vision » qui a été à la base de la création de ma startup. Sauf que business model oblige, finalement, on n’a pas du tout fait ça 😉 Mais j’y crois encore !

    Architecture structurée
    (1)

    Graphe aléatoire
    (2)

    Architectures pair-à-pair: structurée (ici en anneau (1)) et  routage aléatoire (2).
    Source: Geeks for geeks.

    Binaire : Et aujourd’hui, toujours dans le cadre du pair-à-pair, tes recherches portent sur l’apprentissage collaboratif.

    AMK : Oui, l’apprentissage collaboratif, c’est mon sujet du moment ! Et oui, on reste proche du pair-à-pair, mon dada !

    Dans la phase d’entraînement de l’apprentissage automatique classique, les données sont rapatriées dans des data centers où se réalise l’entrainement. Mais on ne veut pas toujours partager ses données ; on peut ne pas avoir confiance dans les autres machines pour maintenir la confidentialité des données.

    Donc, imaginons des tas de machines (les nœuds du système) qui ont chacune beaucoup de données, qu’elles ne veulent pas partager, et qui, pour autant, aimeraient bénéficier de l’apprentissage automatique que collectivement ces données pourraient leur apporter. L’idée est d’arriver à entraîner des modèles d’apprentissage automatique sur ces données sans même les déplacer. Bien sûr, il faut échanger des informations pour y arriver, et, en cela, l’apprentissage est collaboratif.

    Une idée pourrait être d’entrainer sur chaque machine un modèle d’apprentissage local, récupérer tous ces modèles sur un serveur central, les agréger, renvoyer le modèle résultat aux différentes machines pour poursuivre l’entrainement, cela s’appelle l’apprentissage fédéré. A la fin, on a bien un modèle qui a été finalement entraîné sur toutes les données, sans que les données n’aient bougé. Mais on a toujours des contraintes de vulnérabilité liées à la centralisation (passage à l’échelle, point de défaillance unique, respect de la vie privée).

    Alors, la solution est d’y parvenir de manière complètement décentralisée, en pair-à-pair. On échange entre voisins des modèles locaux (c’est à dire entrainés sur des données locales), et on utilise des algorithmes épidémiques pour propager ces modèles. On arrive ainsi à réaliser l’entrainement sur l’ensemble des données. Ça prend du temps. Pour accélérer la convergence de l’entrainement, on fait évoluer le graphe dynamiquement.

    Cependant, que ce soit dans le cas centralisé ou, dans une moindre mesure, décentralisé, l’échange des modèles pose quand même des problèmes de confidentialité. En effet, même si les données ne sont pas partagées, il se trouve qu’il est possible d’extraire beaucoup d’informations des paramètres d’un modèle et donc du client qui l’a envoyé. Il y a donc encore pas mal de recherches à faire pour garantir que ces systèmes soient vraiment respectueux de la vie privée, et pour se garantir d’attaques qui chercheraient à violer la confidentialité des données : c’est typiquement ce sur quoi je travaille avec mon équipe à l’EPFL.

    Binaire : L’entraînement dans un cas distribué, est-ce que cela ne coûte pas plus cher que dans un cas centralisé ? Avec tous ces messages qui s’échangent ?

    AMK : Bien sûr. Il reste beaucoup de travail à faire pour réduire ces coûts. En revanche, avec ces solutions, il est possible de faire des calculs sur des ordinateurs en local qui sont souvent sous-utilisés, plutôt que de construire toujours plus de data centers.

    Binaire : Cela rappelle un peu les problèmes de coût énergétique du Bitcoin, pour revenir à une autre application du pair-à-pair. Peux-tu nous en parler ?

    AMK : Un peu mais nous sommes loin des délires de consommation énergétique du Bitcoin.

    En fait, au début, quand j’ai découvert l’algorithme original de la blockchain et du Bitcoin, je n’y ai pas du tout cru, parce que d’un point de vue algorithmique c’est un cauchemar ! En systèmes distribués, on passe notre vie à essayer de faire des algorithmes qui soient les plus efficaces possibles, qui consomment le moins de bande passante, qui soient les plus rapides possibles, etc… et là c’est tout le contraire ! Un truc de malade ! Bon, je regrette de ne pas y avoir cru et de ne pas avoir acheté quelques bitcoins à l’époque…

    Mais c’est aussi ça que j’aime bien dans la recherche scientifique : on se trompe, on est surpris, on apprend. Et on découvre des algorithmes qui nous bluffent, comme ceux des IA génératives aujourd’hui.

    Binaire : Tu as beaucoup milité, écrit, parlé autour de la place des femmes dans le numérique. On t’a déjà posé la question : pourquoi est-ce si difficile pour les femmes en informatique ? Peut-être pas pour toi, mais pour les femmes en général ? Pourrais-tu revenir sur cette question essentielle ?

    AMK : On peut trouver un faisceau de causes. Au-delà de l’informatique, toutes les sciences “dures” sont confrontées à ce problème. Dès le CP, les écarts se creusent entre les filles et les garçons, pour de mauvaises raisons qui sont des stéréotypes bien ancrés dans la société, qui associent les femmes aux métiers de soins et puis les hommes à conduire des camions et à faire des maths… Pour l’informatique, la réforme du lycée a été catastrophique. La discipline n’avait déjà pas vraiment le vent en poupe, mais maintenant, quand il faut abandonner une option en terminale, on délaisse souvent l’informatique. Et ça se dégrade encore dans le supérieur. La proportion de femmes est très faible dans les écoles d’ingénieurs, et ça ne s’améliore pas beaucoup. Pour prendre l’exemple d’Inria, la proportion de candidates entre le début du recrutement et l’admission reste à peu près constante, mais comme elle est faible à l’entrée on ne peut pas faire de miracles…

    Pourtant, une chose a changé : la parité dans le domaine est devenue un vrai sujet, un objectif pour beaucoup, même si ça n’a pas encore tellement amélioré les statistiques pour autant. Ça prend beaucoup de temps. Un sujet clivant est celui de la discrimination positive, celui des quotas. Beaucoup de femmes sont contre dans les milieux académiques parce qu’elles trouvent ça dévalorisant, ce que je peux comprendre. Je suis moi-même partagée, mais parfois je me dis que c’est peut-être une bonne solution pour accélérer les choses…

    Binaire : Bon, de temps en temps, cela change sans quota. Même à l’Académie des sciences !

    AMK : C’est vrai, magnifique ! Je suis ravie de faire partie de cette promo. Une promo sans quota plus de 50 % de femmes parmi les nouveaux membres Académie des sciences en général, et 50 % en informatique. On a quand même entendu pendant des années qu’on ne pouvait pas faire mieux que 15-20% ! Pourvu que ça dure !

    Serge Abiteboul, Inria, et Chloé Mercier, Université de Bordeaux.

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/
  • Analyseuse de chiffres

    Un nouvel entretien autour de l’informatique. Anne Canteaut est une chercheuse française en cryptographie de l’Inria (Institut national de recherche en sciences et technologues du numérique). Ses recherches portent principalement sur la conception et l’analyse d’algorithmes cryptographiques symétriques. Elle a reçu en 2023 le Prix Irène-Joliot-Curie de la Femme scientifique de l’année. Elle a été élue en 2025­­ à l’Académie des sciences.

    Anne Canteaut
    Anne Canteaut, Wikipedia

    Binaire : Pourrais-tu nous raconter comment tu es devenue une chercheuse de renommée internationale de ton domaine ?

    AC : Par hasard et par essais et erreurs. Longtemps, je n’ai pas su ce que je voulais faire. En terminale, j’ai candidaté dans des prépas à la fois scientifiques et littéraires. J’ai basculé côté scientifique par paresse, parce que cela demandait moins de travail. Après la prépa scientifique, la seule chose que je savais, c’était que je ne voulais pas faire d’informatique. Je voyais l’informatique comme un hobby pour des gars dans un garage qui bidouillent des trucs en buvant du coca et en mangeant des pizzas ; très peu pour moi. J’ai découvert l’informatique à l’ENSTA : une science comme les maths ou la physique, et pas du bricolage.

    J’aimais beaucoup les maths. Alors, j’ai réalisé un stage de maths « pures » et je me suis rendu compte que le côté trop abstrait n’était pas pour moi. Faire des raisonnements sur des objets que l’on pouvait manipuler plus concrètement, comme on le fait en informatique, me convenait bien mieux. J’ai fait ma thèse à l’Inria-Rocquencourt, un postdoc à l’ETH à Zurich, puis j’ai été recrutée à l’Inria où j’ai fait toute ma carrière, sauf une année sabbatique au Danemark. A l’Inria, j’ai été responsable d’une équipe nommée Secret, déléguée scientifique[1] du Centre de Paris et présidente de la commission d’évaluation[2] d’Inria pendant 4 ans.

    Binaire : Peux-tu nous parler de ton sujet de recherche ?

    AC : Je suis cryptographe. La cryptographie a de nombreuses facettes. Dans une messagerie chiffrée ou un protocole de vote électronique comme Belenios, on trouve différents éléments cryptographiques élémentaires, et puis on les combine. J’aime bien la comparaison que fait Véronique Cortier[3]. Dans une bibliothèque IKEA, on part de planches, et d’une notice de montage. Celui qui fait la notice suppose que les planches sont bien faites et explique comment construire la bibliothèque en assemblant les planches. Dans le cadre de la cryptographie, mon travail consiste à réaliser des planches aussi parfaites que possible pour qu’elles puissent être utilisées par des collègues comme Véronique Cortier dans leurs notices. Les planches, ce sont les blocs cryptographiques de base. Les notices, ce sont, par exemple, les protocoles cryptographiques.

    Le chiffrement est un de ces blocs de base. J’ai surtout étudié le « chiffrement symétrique ». Il suppose que deux interlocuteurs partagent un même secret (une clé) qu’ils utilisent pour s’envoyer un message très long. Du temps du téléphone rouge entre la Maison Blanche et le Kremlin, la clé était communiquée par la valise diplomatique, un canal de communication fiable qui ne peut pas être intercepté. Cela permettait de s’échanger des clés très longues. Aujourd’hui, on veut pouvoir communiquer une clé (une chaine de bits) de manière confidentielle sans disposer de valise diplomatique. Plutôt que de se passer « physiquement » une clé, on utilise un chiffrement asymétrique, ce qui nous oblige à utiliser des clés relativement courtes. Dans ces protocoles asymétriques, on dispose d’une clé publique et d’une clé privée. Tout le monde peut m’envoyer un message en le chiffrant avec la clé publique ; il faut détenir la clé privée pour pouvoir le déchiffrer. Le problème est que ce chiffrement asymétrique est très coûteux, alors on envoie la clé d’un chiffrement symétrique, et on passe ensuite à un chiffrement symétrique qui est bien moins coûteux.

    Dans tous les cas, le problème central est « combien ça coûte de casser un chiffrement, c’est-à-dire de décrypter un message chiffré, ou encore mieux de retrouver la clé secrète ? ». Quel est le coût en temps, en mémoire ? Comment peut-on utiliser des informations annexes ? Par exemple, que peut-on faire si on dispose de messages chiffrés et de leurs déchiffrements (le contexte de la pierre de Rosette[4]) ?

    Binaire : Tu te vois plutôt comme conceptrice de chiffrement ou comme casseuse de code ?

    AC : On est toujours des deux côtés, du côté de celui qui conçoit un système de chiffrement assez sûr, et du côté de celui qui essaie de le casser. Quand on propose une méthode de chiffrement, on cherche soi-même à l’analyser pour vérifier sa solidité, et en même temps à la casser pour vérifier qu’elle ne comporte pas de faiblesse. Et, quand on a découvert une faiblesse dans une méthode de chiffrement, on cherche à la réparer, à concevoir une nouvelle méthode de chiffrement.

    Comme l’art minimaliste, la crypto minimaliste

    Il faut bien sûr contenir compte du contexte. J’ai par exemple travaillé sur des méthodes de chiffrements quand on dispose de très peu de ressources énergétiques. Dick Cheney, ancien vice-président états-uniens, avait un implant cardiaque, un défibrillateur. Il craignait une cyberattaque sur son implant et avait obtenu de ses médecins de désactiver son défibrillateur pendant ses meetings publics. Pour éviter cela, on est conduit à sécuriser les interactions avec le défibrillateur, mais cela demande d’utiliser sa pile, donc de limiter sa durée de vie. Cependant, changer une telle pile exige une opération chirurgicale. Sujet sérieux pour tous les porteurs de tels implants ! La communauté scientifique a travaillé pendant des années pour concevoir un système de chiffrement protégé contre les attaques et extrêmement sobre énergétiquement. Un standard a finalement été publié l’an dernier. J’appelle cela de la crypto minimaliste. Pour faire cela, il a fallu interroger chaque aspect du chiffrement, questionner la nécessité de chaque élément pour la sécurité.

    Binaire : Tu as travaillé sur le chiffrement homomorphe. Pourrais-tu nous en parler ? 

    AC : Chiffrer des données, c’est un peu comme les mettre dans un coffre-fort. Le chiffrement homomorphe permet de manipuler les données qui sont dans le coffre-fort, sans les voir. On peut par exemple effectuer des recherches, des calculs sur des données chiffrées sans avoir au préalable à les déchiffrer, par exemple pour faire des statistiques sur certaines d’entre elles.

    On a besoin de combiner ces techniques homomorphes, avec du chiffrement symétrique. Problème : les gens qui font du chiffrement homomorphe ne travaillent pas avec des nombres binaires. Par exemple, ils peuvent travailler dans le corps des entiers modulo p, où p est un nombre premier. Dans le monde de la cryptographie symétrique, nous travaillons habituellement en binaire. On n’a pas envie quand on combine les deux techniques de passer son temps à traduire du codage de l’un à celui de l’autre, et vice versa. Donc nous devons adapter nos techniques à leur codage.

    On rencontre un peu le même problème avec les preuves à minimum de connaissance (zero-knowledge proofs). Nous devons adapter les structures mathématiques des deux domaines.

    Binaire : Tu es informaticienne, mais en fait, tu parles souvent de structures mathématiques sous-jacentes. Les maths sont présentes dans ton travail ?

    AC : Oui ! Maths et informatique sont très imbriquées dans mon travail. Une attaque d’un système cryptographique, est par nature algorithmique. On essaie de trouver des critères pour détecter des failles de sécurité. Résister à une attaque de manière « optimale », ça s’exprime généralement en se basant sur des propriétés mathématiques qu’il faut donc étudier. On est donc conduit à rechercher des objets très structurés mathématiquement.

    Le revers de la médaille c’est que quand on a mis dans le système un objet très structuré mathématiquement, cette structure peut elle-même suggérer de nouvelles attaques. Vous vous retrouvez avec un dialogue entre les maths (l’algèbre) et l’informatique.

    Binaire : Peux-tu nous donner un exemple de problème mathématique que vous avez rencontré ?

    AC : Une technique de cryptanalyse bien connue est la cryptanalyse différentielle. Pour lui résister, une fonction de chiffrement doit être telle que la différence f(x+d)-f(x), pour tout d fixé, soit une fonction (dans le cadre discret) dont  la distribution soit proche de l’uniforme. Cela soulève le problème mathématique : existe-t-il une fonction f bijective telle que chaque valeur possible des différences soit atteinte pour au plus deux antécédents x (ce qui est le plus proche de l’uniforme que l’on puisse atteindre en binaire) ?

    Même sans avoir besoin de comprendre les détails, vous voyez bien que c’est un problème de math. Que sait-on de sa solution ? Pour 6 bits, on connait une solution. Pour 8 bits, ce qui nous intéresse en pratique, on ne sait pas. Une réponse positive permettrait d’avoir des méthodes de chiffrement moins coûteuses, donc des impacts pratiques importants. Des chercheurs en math peuvent bosser sur ce problème, chercher à découvrir une telle fonction, sans même avoir besoin de comprendre comment des cryptographes l’utiliseraient.

    Binaire : Les bons citoyens n’ont rien à cacher. Depuis longtemps, des voix s’élèvent pour demander l’interdiction de la cryptographie. Qu’en penses-tu ?

    AC : Le 11 septembre a montré que les terroristes pouvaient utiliser les avions à mauvais escient, et on n’a pas pour autant interdit les avions. D’abord, il faut avoir en tête que la crypto sert aussi à protéger les données personnelles, et les données des acteurs économiques. Ensuite, comment fait-on pour interdire l’usage de la cryptographie ? Comme fait-on pour interdire un algorithme ?

    Il faut comparer, en informatique aussi, les avantages et les inconvénients d’une utilisation particulière. On le fait bien pour les médicaments en comparant bénéfices et effets secondaires. Pour prendre un exemple, dans un lycée que je connais, il a été question de remplacer le badge de cantine par une identification biométrique (lecture de la paume de la main). J’ai préféré payer quelques euros de plus pour garder le badge et ne pas partager des informations biométriques stockées on ne sait où par on ne sait qui. Dans ce cas, les avantages me semblaient clairement inférieurs aux risques. 

    Binaire : As-tu quelque chose à dire sur l’attractivité de l’informatique pour les femmes ? Comment expliques-tu le manque d’attractivité, et vois-tu des solutions ?

    AC : Côté explication, mon point de vue découle de mon expérience personnelle. Il y a des problèmes à tous les niveaux des études, mais un aspect crucial est que, encore maintenant en 2025, on enseigne très peu l’informatique au collège et au lycée. Du coup, comme les jeunes savent mal ce que c’est, ils se basent sur l’image renvoyée par la société : l’informatique est pour les hommes, pas pour les femmes. Même les déjà rares jeunes femmes qui commencent une spécialité NSI [5] abandonnent la voie informatique dans des proportions considérables. Elles imaginent que l’informatique tient d’une culture « geek » très masculine, et que cela donne donc une supériorité aux hommes.

    Le problème est assez semblable en math. Il est superbement traité dans le livre « Matheuses », aux Éditions du CNRS.

    Les matheuses
    © Editions CNRS

    Je ne vois pas de solution unique. Mais, par exemple, peut-être faudrait-il revoir la part trop importante accordée au volontariat. Les filles candidatent moins ; à compétence égale, elles sont moins inclines à se mettre en avant. Ça peut aller de se présenter aux Olympiades de maths au lycée, jusqu’à faire une demande de prime au mérite dans un institut de recherche. C’est pourquoi les candidatures au concours de cryptanalyse Alkindi, destiné aux élèves de collège et de lycée, ne se basent pas entièrement sur le volontariat. Ce n’est pas un élève d’une classe qui participe, mais toute la classe. Résultat : parmi les gagnants, il y a autant de filles que de garçons.

    Binaire : tu viens d’être élue à l’Académie des sciences, tu as eu le prix Irène-Joliot-Curie. Comment vis-tu ces reconnaissances des qualités de tes recherches ?

    AC : Je suis évidemment très flattée. Mais je crains que cela donne une image faussée de la recherche, beaucoup trop individuelle. La recherche dans mon domaine est une affaire éminemment collective. J’ai écrit très peu d’articles seule. Pour obtenir des résultats brillants dans le domaine du chiffrement qui est le mien, on a vraiment besoin d’une grande diversité de profils, certains plus informaticiens et d’autres plus mathématiciens. D’ailleurs, c’est vrai pour la recherche en informatique en général. C’est plus une affaire d’équipes, que d’individus.

    Serge Abiteboul, Inria ENS, Paris, Claire Mathieu, CNRS et Université Paris Cité

     

    [1] Assure la coordination scientifique du centre.  

    [2] Plus importante instance scientifique d’Inria au niveau national.

    [3] Véronique Cortier contribue régulièrement à binaire.

    [4] La pierre de Rosette est un fragment de stèle gravée de l’Égypte antique portant trois versions d’un même texte qui a permis le déchiffrement des hiéroglyphes au XIXe siècle. [Wikipédia]

    [5] La spécialité NSI, numérique et sciences informatiques, est une spécialité offerte en première générale et éventuellement poursuivie en terminale. Les chiffres sont mauvais pour les garçons et catastrophiques pour les filles. Voir  https ://www.socinfo.fr/uploads/2024/06/2024-05-31-NSI-2023-perilenlademeure.pdf]

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Tout ce que nous devons à Jean-Pierre …

       Nous avons la profonde tristesse de vous annoncer le décès de Jean-Pierre Archambault, Président de l’EPI, le 23 février 2025.

       Ancien enseignant et professeur agrégé de mathématiques, il a créé puis coordonné pendant de nombreuses années le pôle de compétences « logiciels libres » du SCÉRÉN, jouant un rôle de premier plan dans la légitimation et le développement du libre dans le système éducatif.

       Dans les années 80 et 90, il a participé au pilotage du développement des Technologies de l’Information et de la Communication (TIC) dans l’académie de Créteil : organisation du volet formation du plan Informatique Pour Tous, mise en œuvre de la télématique scolaire et des réseaux locaux, expérimentation d’internet, formation des enseignants.

       En tant que président de l’association Enseignement Public et informatique (EPI) il a été un artisan actif de l’introduction d’une discipline informatique au lycée et au collège, après une sensibilisation à l’école primaire. Ainsi, il a été membre du groupe de travail de l’Académie des sciences qui a préparé le rapport « L’enseignement de l’informatique en France – Il est urgent de ne plus attendre » adopté par l’académie en mai 2013.

       Il a été pendant plusieurs années membre du Conseil d’Administration de la Société Informatique de France (SIF) et coresponsable du groupe ITIC-EPI-SIF.

       Il était convaincu que l’enseignement de l’informatique et l’utilisation de l’informatique dans les disciplines et activités sont deux démarches complémentaires. Ses éditoriaux d’EpiNet, qu’il rédigeait avec soin, étaient sources de réflexion et appréciés de toutes et de tous.

      Toutes ces actions militantes signifiaient des relations nouées avec les partenaires (collectivités territoriales, éditeurs, entreprises, parents d’élèves, associations d’enseignants, syndicats …) et les responsables du système éducatif. Elles sont toujours allées de pair avec une activité de réflexion, une veille et prospective sur les usages, les statuts et les enjeux pédagogiques et éducatifs de l’informatique et des technologies de l’information et de la communication. Cela a amené Jean-Pierre à organiser et à intervenir dans des colloques, forums, salons et séminaires. Il est l’auteur de nombreux articles dont la plupart sont sur les sites de l’EPI et d’edutice.archives-ouvertes.

       Nous garderons un souvenir inoubliable de ces longues années passées ensemble. Jean-Pierre fut pour nous un excellent collègue et un ami.

    Nous binaire, reprenons ici le texte de epi.asso qui rend hommage à … notre ami Jean-Pierre.

     

     

  • Une vie numérique sans GAFAM est-elle possible ?

    Corinne Vercher-Chaptal a mené une étude approfondie sur sept plateformes considérées comme alternatives aux plateformes dominantes. Entre transition écologique et renouveau démocratique, elle nous décrit les promesses de ces plateformes innovantes. Cet article a été publié le 21 octobre 2022 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant. Serge Abiteboul et Thierry Viéville.

    Vous avez piloté une équipe de recherche qui a étudié 7 plateformes dites alternatives : en quoi ces plateformes se différencient des GAFAM ?

    Ces modèles étaient alternatifs, non pas parce qu’ils proposaient de faire différemment ce que font les modèles dominants, mais plutôt parce qu’ils créent une offre de valeurs qui n’existe pas dans le secteur dans lequel trône la plateforme dominante.

    Les cas que nous avons étudiés sont dits alternatifs par le modèle économique, de gouvernance et le service qu’ils proposent dans un secteur où domine une grande plateforme. Assez rapidement, il nous est apparu que ces modèles étaient alternatifs, non pas parce qu’ils proposaient de faire différemment ce que font les modèles dominants, mais plutôt parce qu’ils créent une offre de valeurs qui n’existe pas dans le secteur dans lequel trône la plateforme dominante.

    Le secteur du tourisme est en cela assez emblématique. Il est fortement dominé par Airbnb. Nous avons étudié la plateforme coopérative « Les Oiseaux de passage » qui propose une autre manière de voyager en mettant en relation des habitants, professionnels et voyageurs, pour aller vers une forme sociale du tourisme s’approchant de l’hospitalité. La particularité de ce modèle est que, contrairement à Airbnb, il s’extrait des standards marchands et poursuit une finalité sociale et patrimoniale. La plateforme propose une tarification qui ne repose pas sur un algorithme de prix (tarification dynamique) mais qui est modérée en fonction de l’hôte et du voyageur, permettant une diversité d’échanges, gratuits ou tarifés.

    Mobicoop, plateforme coopérative de covoiturage libre, est un autre cas intéressant. Son origine est une réaction à la marchandisation du covoiturage. En 2007, une association appelée « Covoiturage.fr » crée une plateforme pour mettre gratuitement en contact des personnes pour covoiturer. En 2011, au moment où le covoiturage connaît une expansion, la plateforme instaure une commission sur les trajets effectués par les co-voitureurs, et devient Blablacar. Les militants de la communauté initiale ont alors réagi en recréant une nouvelle plateforme pour maintenir une mise en relation gratuite des annonces de covoiturage. C’est ainsi qu’est apparue Mobicoop. L’objectif premier n’est pas seulement le covoiturage en tant que tel et le remboursement de ses frais du voyage, mais de proposer un moyen de participer à la réduction de la prolifération des véhicules individuels (autosolisme), et donc à la transition écologique. Ainsi, Mobicoop est développée en logiciel libre et ne prélève aucune commission puisque cela serait antinomique avec sa finalité : plus la plateforme est ouverte, plus l’objectif écologique sera atteint. Pour faire vivre la plateforme et ses besoins en développement, la coopérative a recours aux appels au don et au sociétariat mais surtout à la vente en marque blanche de plateformes et de prestations de mobilité partagée aux collectivités territoriales. Ce versant marchand permet donc à la plateforme de proposer au grand public un service d’intermédiation gratuit en accord avec son éthique et son objectif environnemental.

    Au-delà de ces exemples, il existe une diversité de modèles économiques alternatifs. Tous ont le même défi : pérenniser leur modèle. Même si pour la plupart, ces modèles n’ont pas vocation à se substituer entièrement aux dominants, il faut qu’ils aient les moyens de constituer et de fidéliser des communautés d’usagers et de contributeurs prêts à valider, sous une forme ou une autre, (don, sociétariat, cotisation…) la valeur sociale et environnementale créée, et qui n’a pas été formatée pour le marché et ses exigences.

    Voyez-vous un rapprochement entre ces modèles et les mondes du logiciel libre et des communs, qui sont classiquement cités comme des alternatives aux modèles dominants sur Internet ?

    Le monde coopératif se mêle de plus en plus au monde des communs et du logiciel libre, ce qui n’était pas évident au départ.

    Originellement, l’objet des communs numériques est l’ouverture des services numériques, et celui du coopérativisme est la propriété partagée visant à protéger les intérêts des membres. Ces deux objectifs sont distincts mais ne sont pas incompatibles. En France, nous avons la chance d’avoir le dispositif SCIC (société coopérative d’intérêt collectif) qui permet de rassembler les deux approches en ouvrant la gouvernance des coopératives à une diversité de parties prenantes. Le dispositif SCIC renforce la prise en compte de l’intérêt général, et la dimension délibérative qui est le propre des communs. La propriété est ainsi repensée pour qu’elle ne soit plus exclusive à quelques sociétaires prédéfinis mais accessible à toutes les parties prenantes, devenant ainsi plus inclusive. Ce dispositif participe donc grandement au rapprochement des coopératives avec les communs.

    Le rapprochement avec le logiciel libre est moins évident puisque la notion de propriété est en tant que telle antinomique de l’esprit du libre, qui en rejette toute forme. Aujourd’hui, on assiste à une politisation d’une partie du mouvement qui a pensé dès ses débuts un Internet émancipateur via la non-propriété et l’universalité de l’accès. Certains militants du logiciel libre estiment avoir fait une erreur en n’articulant pas les logiciels libres à des finalités sociale et/ou environnementale. Cela a provoqué une forme de scission au sein du mouvement entre ceux qui ont une vision fonctionnelle et individuelle des libertés numériques, prônant une liberté sans limite, et ceux qui ont une approche collective et délibérative s’attachant à préserver l’éthique du projet.

    Ainsi, des outils tels que les licences à réciprocité ont été développés par cette deuxième branche du mouvement pour essayer de répondre à ce qu’ils estiment être les limites des logiciels libres initiaux. L’objectif de ces licences est de restreindre l’ouverture et l’usage de la licence soit en décidant de la nature de l’organisation usagère (organisation de l’économie sociale et solidaire par exemple), soit en restreignant l’usage commercial à certaines finalités. Par exemple, CoopCycle, une coopérative de livraison à vélo, a autorisé uniquement l’usage de la licence aux collectifs de livreurs constitués en coopératives. Cela va encore plus loin avec les Hippocratic licenses (licences hippocratiques) qui imposent un critère éthique aux projets open source et restreignent l’utilisation au respect des droits humains. L’Hippocratic License fait cependant l’objet de controverses au sein du mouvement du logiciel libre.

    Ces licences, qui peuvent permettre de restaurer une relation de réciprocité entre le secteur marchand et les communs, rapprochent le coopérativisme du mouvement du logiciel libre tout en préservant l’esprit des communs.

    Quel rôle l’État doit-il adopter vis-à-vis de ces modèles alternatifs ?

    Les communs offrent une formidable opportunité de renouveau démocratique en permettant une co-construction avec l’État d’actions publiques nouvelles et adaptées aux crises écologique, sociale et sanitaire.

    Ce qui est certain c’est qu’en l’absence de dispositifs financiers et institutionnels adaptés à leurs spécificités, les modèles alternatifs ne peuvent se développer et se pérenniser. J’en veux pour preuve l’initiative Les Oiseaux de passage qui doit en grande partie son développement à l’attribution du statut de jeune entreprise innovante (JEI). Cependant, ce ne fût pas sans difficulté car cette plateforme a longtemps eu du mal à se voir reconnaître comme étant innovante. Il y a sans doute des dispositifs à créer ou à modifier dans l’écosystème de l’innovation pour clarifier cette caractérisation et aider à la pérennisation de ce type d’initiatives, dont l’objectif est de mobiliser le numérique au service de projet solidaire, de transition socio-environnementale.

    Il y a aussi un véritable enjeu à lutter contre la précarité des contributeurs, phénomène bien connu dans le monde du logiciel libre. De nombreux acteurs de la communauté du logiciel libre vivent dans une précarité certaine. Il est donc primordial de s’attacher à réfléchir à des innovations institutionnelles pour sécuriser le travail des contributeurs aux communs.

    Enfin, au sein de l’équipe du rapport TAPAS, nous avons pointé l’opportunité d’un rapprochement entre les communs (numériques et non-numériques) avec l’acteur public. Il est essentiel qu’un espace autre que purement marchand, obéissant à une rationalité autre qu’instrumentale, se développe pour déployer les communs. Il faut enseigner que les communs peuvent être le lieu de solidarités citoyennes, comme le souligne Alain Supiot, inscrites dans les territoires. A cette échelle, les communs peuvent participer à la construction de politique de transition avec les collectivités locales dans les domaines qui leur incombent comme le transport, l’habitation, la qualité de l’eau, l’alimentation…Pour ce faire, l’État doit avoir un rôle facilitateur qui va au-delà du seul soutien financier. A côté d’une régulation contraignante à destination des GAFAM, l’état peut mettre en place une régulation habilitante visant à soutenir les alternatives, dans le respect de leur identité et de leurs spécificités. Cela peut être par la mise à disposition de ressources matérielles ou immatérielles, comme l’initiative “Brest en communs” où la ville a fourni des réseaux d’accès Wifi ouverts et gratuits sur le territoire, par exemple. Finalement, là où il existe des zones où le service public est défaillant ou absent, les communs offrent une formidable opportunité de renouveau démocratique en permettant une co-construction avec l’État d’actions publiques nouvelles et adaptées aux crises écologique, sociale et sanitaire.

    Corinne Vercher-Chaptal , Professeure Université Sorbonne Paris Nord.

    Pour aller plus loin :
  • Comment mettre en avant les communs au travail ?

    Odile Chagny nous éclaire sur la manière dont les communs transforment le travail. Elle est économiste à l’Institut de Recherches Économiques et Sociales (IRES) et co-fondatrice du réseau Sharers et Workers. Cet article a été publié le 25 janvier 2023 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant.

    Qu’est-ce que Sharers & Workers ?

    Sharers & Workers est un réseau d’animation de l’écosystème autour des transformations du travail en lien avec la transformation numérique. Initialement centrés sur l’économie des plateformes, les travaux du réseau se sont recentrés sur les problématiques de l’IA et des données depuis 2019. Notre objectif est de faire se rencontrer des acteurs de la recherche, des acteurs de la transformation numérique en entreprise et des acteurs syndicaux pour appréhender collectivement ces transformations. Nous avons deux convictions :

    • l’économie numérique et le numérique sont vecteurs de bouleversements profonds pour les marchés et les acteurs économiques et sociaux préexistants. Ces nouveaux modèles d’affaires nous amènent nécessairement à renouveler nos façons de penser et d’agir sur le travail, les compétences, les relations de travail, les formes de représentation, les façons de partager la valeur etc. 
    • Il nous semble nécessaire de croiser les points de vue et de mettre en relation l’ensemble des parties prenantes, qui n’ont pas toujours les mêmes approches, afin de mieux appréhender ces transformations. 

    Comment le réseau Sharers & Workers s’est-il emparé de la question des communs ?

    Le numérique permet une production collaborative étendue et une gouvernance ouverte. Autant de formes d’organisation et de modèles que l’on retrouve très souvent dans les communs et les communs numériques, très étudiés sous l’angle de la ressource et de la gouvernance, mais assez peu sous celui des modèles de travail sous-jacents. Nous nous intéressons à cette dimension, souvent moins explorée dans la littérature scientifique : le travail en commun ou produisant des communs génère-t-il des conditions et des organisations de travail spécifiques ?
    Nous avons porté ce questionnement dans le cadre du Transformateur Numérique, un dispositif d’innovation collaborative porté par l’Anact (Agence nationale pour l’amélioration des conditions de travail) et la Fing (Fédération Internet Nouvelle Génération) et qui vise à accélérer les initiatives mettant le numérique au service de la qualité de vie au travail. La huitième édition du Transformateur a ainsi été organisée en 2018 en partenariat avec le Groupe Chronos et Sharers & Workers avec pour thème : “Travails et communs, travail en commun, vers de nouvelles organisations du travail ?”. 

    Par la suite, ces rencontres se sont formalisées par la mise en place d’une expérimentation soutenue par le Fact (Fonds pour l’amélioration des conditions de travail de l’Anact). Dans ce cadre, nous avons accompagné six structures de l’écosystème des communs pour expérimenter de nouvelles formes d’organisations, de collaboration, d’encadrement de l’activité et d’innovation sociale, tout en mettant ces initiatives en réseau pour qu’elles se nourrissent mutuellement. Ces structures avaient toutes la particularité de mobiliser les potentialités offertes par le numérique, que ce soit pour la production de communs numériques, pour l’organisation du travail ou de la coopération… Il ne s’agissait absolument pas de s’interroger sur la gouvernance ou le statut de ces structures mais plutôt d’étudier comment mettre en avant les valeurs liées au communs dans les modalités de travail et d’organisation.

    À ce sujet, qu’avez-vous observé ? En quoi les communs sont-ils des modèles d’organisation du travail spécifique ?

    Notre travail a ainsi permis de formaliser des règles et processus qui étaient auparavant implicites, en s’adaptant à la volonté d’auto-organisation et de co-construction qui leur est chère.

    L’organisation et les objectifs de ces structures étant différents de ceux des entreprises “traditionnelles”, les façons de travailler et de reconnaître le travail le sont aussi et posent la question des outils mis à disposition des communs à ce titre.

    La difficulté commune à ces six structures était finalement de réussir à faire fonctionner des collectifs aux engagements variables et inégaux, avec certains contributeurs particulièrement sur-sollicités. Le suivi que nous avons mené a ainsi montré que ceci est notamment dû à l’absence de définition des concepts organisationnels mis en œuvre : comment mesurer et reconnaître la contribution et le contributeur, comment le rétribuer, comment gérer une collectif de contributeurs, comment évaluer les compétences, comment gérer les conflits…

    Il ressort également de nos observations que cette carence définitionnelle va de pair avec une grande difficulté à trouver un équilibre entre horizontalité et verticalité. Ces structures cherchent à remettre en question la subordination hiérarchique, à tendre vers des formes plus distribuées du pouvoir, à s’éloigner de la logique du “command and control” pour aller vers des formes de coopération plus horizontales. Elles cherchent aussi à expérimenter des “modèles organisationnels distribués » de production des communs, ce qui floute encore davantage la frontière entre l’intérieur et l’extérieur de l’entreprise et, de fait, de ses travailleurs. Toutefois, ces initiatives peuvent générer une certaine incompréhension voire frustration de la part des parties prenantes qui peuvent même mettre en péril les collectifs. Il s’agit enfin de rétribuer correctement le travail pour éviter un épuisement des contributeurs, ce qui sous-entend de savoir mesurer et évaluer le travail en amont. Notre travail a ainsi permis de formaliser des règles et processus qui étaient auparavant implicites, en s’adaptant à la volonté d’auto-organisation et de co-construction qui leur est chère.

    Nous avons aussi pu être amenés à expérimenter des dispositifs organisationnels nouveaux. Nous sommes face à des structures qui ne veulent pas poser la question du statut juridique : CAE, SCOP, SCIC… ce n’est pas leur préoccupation. Elles se demandent plutôt comment favoriser une approche du travail par les communs et comment s’outiller à cet égard. Il faut donc chercher d’autres modes de construction et d’outils pour gérer une entreprise, que ce soit en matière de gestion des conflits, des compétences, de la rétribution, de la coopération, de l’identification du travail, voire de la carrière. Tous ces mots-là, dont le Code du travail traite, il faut les réinterroger dans le cadre du commun. Par exemple, l’une des structures que nous avons accompagnées réfléchit depuis plusieurs années à la création d’un CDI communautaire : pourquoi aurait-on un contrat pour une seule personne et pas pour deux ? Ils ont ainsi répondu à des offres d’emploi pendant l’expérimentation avec deux personnes pour un même poste. Nous les avons fait accompagner par des juristes travaillistes de l’université de Lyon II. Ce sont des expérimentations très préliminaires et difficiles à mener parce qu’on est aux frontières de ce que permet le Code du travail. 

    Vous avez co-écrit avec Amandine Brugière un article intitulé “De la production de communs aux communs du travail”[1], comment définissez-vous ces communs du travail ?

    Il est très difficile de faire fonctionner sur la durée un collectif de travail ouvert, en l’absence de définition claire de cette ouverture. On observe en fait une tyrannie de l’absence de structure.

    La littérature fait apparaître deux principales approches des communs. La première, emmenée par Elinor Ostrom, part des ressources partagées pour ensuite étudier les règles qui en régissent les usages collectifs. La seconde approche, celle du “commoning” et notamment reprise par Pierre Dardot et Christian Laval, s’intéresse davantage au processus même de production d’un commun. C’est la continuité de celle-ci que nous nous sommes inscrites, car même si on a une ressource et une gouvernance, sans contributeur cela reste une coquille vide. Toutefois, dans les deux approches, l’accent est mis sur les règles juridiques voire politiques qui découlent de ces modèles, mais très peu sur les transformations organisationnelles qu’ils engendrent, c’est-à-dire la façon dont les ressources, les processus et les rapports sociaux sont mis en place par le collectif pour atteindre leurs buts.

    Nous avons identifié un écueil supplémentaire à ceux régulièrement pointés dans la littérature sur les communs : outre la surexploitation de la ressource et la difficulté à pérenniser le collectif de contributeurs – qui est réel, il y a un vrai enjeu d’épuisement du commoner. Il est très difficile de faire fonctionner sur la durée un collectif de travail ouvert, en l’absence de définition claire de cette ouverture. On observe en fait une tyrannie de l’absence de structure (pour reprendre les termes de la militante Jo Freeman) : toutes les organisations ont besoin de poser des règles structurelles, tout en s’émancipant des cadres traditionnels existants. Un équilibre doit donc être trouvé – et c’est là toute la difficulté – entre la liberté des personnes à s’engager volontairement dans ces projets et la nécessité de répartir, discuter, vérifier, évaluer même des tâches et responsabilités à chacun pour s’assurer de la bonne marche du projet. 

    Selon vous, comment devrait intervenir l’État vis-à-vis de ces structures et à leurs contributeurs ?

    Pour moi il s’agit d’abord d’une question de droit à l’expérimentation. Les expérimentations menées sont systématiquement hors-champ du Code du travail, et créent donc des risques juridiques. L’État pourrait porter davantage d’attention à ces innovations.

    Pour moi il s’agit d’abord d’une question de droit à l’expérimentation. Les expérimentations menées sont systématiquement hors-champ du Code du travail, et créent donc des risques juridiques. L’État pourrait porter davantage d’attention à ces innovations, qui ne sont pas des innovations de structure juridique mais d’organisation du collectif et du travail qui cherchent à mettre en avant des formes inédites et inconnues de coopération : comment les outiller et les accompagner ? Par nos expérimentations, nous avons parfois recréé du droit, mais il faudrait formaliser tout cela.

    Il faudrait aussi proposer des dispositifs adaptables : on ne peut pas mettre en place la même solution partout, cela ne fonctionne pas. Nous sommes face à des structures dont les valeurs portées relèvent d’un engagement politique, qu’elles déclinent dans tous leurs rouages. Elles ont donc besoin de s’approprier les outils. C’est une erreur de considérer que l’on peut avoir un dispositif générique. Par exemple, le droit créé autour de l’économie sociale et solidaire (ESS) n’apporte pas toutes les réponses ; notamment, il ne propose pas de solution pour rétribuer la contribution ouverte et ce droit concerne  des structures qui demeurent dans une logique marchande. Donner la possibilité à ces organisations de construire elles-mêmes leurs propres outils participe autant de l’accompagnement que l’accompagnement en lui-même. J’ai constaté une réticence forte à accepter des solutions émanant du du pouvoir exécutif ou du législateur. Il faut absolument éviter toute logique descendante.

    Enfin, on pourrait davantage s’inspirer des initiatives et des idées qui germent dans ces collectifs, notamment au sein de l’État dans une logique ascendante. Je pense que l’État peut aider à l’expérimentation, mais aussi regarder ce que les autres ont produit pour éventuellement le reprendre à son compte, l’étendre, le faciliter… L’État pourrait par exemple accepter d’avoir ces structures comme prestataires. La commande publique est un réel levier à cet égard.

    Odile Chagny, économiste, chercheuse à l’Institut de Recherches Économiques et Sociales (IRES) et co-fondatrice du réseau Sharers et Workers.

    [1] BRUGIÈRE, Amandine & CHAGNY, Odile. “De la production de communs aux communs du travail”. La Revue des conditions de travail, n°12, juillet 2021.”

  • Ces binaires non binaires

    Connaissez vous Sophie Wilson, Lynn Conway et Claire Wolf ? Bruno Levy nous offre la découverte de trois grandes personnalités du numérique, qui ont permis des avancées majeures en matière de capacité de calcul. Tandis que Marie Curie disait ne pas avoir fait sa carrière scientifique au mépris de sa vie de famille, mais « au mépris des imbéciles » ces trois personnes ont fait leur carrière scientifique au mépris des idées reçues. Serge Abiteboul, Benjamin Ninassi, et Thierry Viéville.

    Le numérique et ce que certains aiment appeler « intelligence artificielle » sont au cœur de nos vies. La plupart de nos actions, même les plus anodines, impliquent à un moment ou à un autre l’utilisation d’un ordinateur. Certains sont gigantesques, comme les centres de calculs des géants de la tech, et d’autres sont minuscules, cachés dans les objets du quotidien pour les rendre plus efficaces, plus « intelligents », mais cela, en tant que lecteur ou lectrice assidu·e du blog Binaire, vous le savez déjà !

    Mais connaissez vous des personnalités atypiques, hautes en couleur qui ont rendu ces innovations possibles ?

    Parmi elles, vous connaissez sans doute déjà Alan Turing qui a joué un rôle clef dans la définition des bases fondamentales de la science informatique et dans le décryptage des codes secrets Nazis. Vous vous souvenez de la triste fin de son histoire, jugé et condamné pour son homosexualité en 1952, contraint à la castration chimique, il met fin à ses jours le 7 Juin 1954. Plus de 60 ans après, Elizabeth II revient sur sa condamnation à titre posthume.

    L’actualité récente outre-Atlantique me fait prendre la plume pour vous inviter à un petit voyage au pays des trans-istors, quitte à assaisonner Binaire avec une pincée de non-binaire !

    Sophie Wilson : elle se cache dans votre poche, le saviez vous ?

    © Wikicommon

    Nos plus petits appareils numériques, tout comme les gros serveurs qui donnent vie à Internet ou encore les super-calculateurs qui tentent de percer les secrets des lois de la Physique ont tous en commun un composant essentiel : le micro-processeur. En quelque sorte, pour nos appareils numériques, le microprocesseur joue le rôle du « chef d’orchestre », jouant la « partition » – un programme – qui décrit le fonctionnement de l’appareil. Ce programme est écrit dans un langage, qui a son propre « alphabet », constitué d’instructions élémentaires, très simples, encodées sous forme de nombres dans la mémoire de l’ordinateur. De la même manière qu’il existe plusieurs alphabets (mandarin, cantonais, japonais, latin, grec, cyrillique …), on peut imaginer plusieurs jeux d’instructions différents. Définir cet « alphabet » n’est pas un choix anodin, comme nous l’a montré Sophie Wilson, informaticienne Anglaise, femme trans née en 1957.

    A la fin des années 1980, la BBC avait un ambitieux programme d’éducation au numérique. Alors employée d’Acorn Computers, Sophie Wilson a joué un rôle clef en définissant un jeu d’instruction original, caractérisé par son extrême simplicité (de type RISC, pour Reduced Instruction Set Computer (voir aussi : sur le blog binaire : « Un nouveau  RiscV» )), ce qui a permis à son entreprise de remporter le marché de la BBC. Ça n’est pas une idée qui vient naturellement à l’esprit ! On aurait pu penser qu’un jeu d’instruction plus complexe (CISC, pour Complex Instruction Set Computer) rendrait l’ordinateur plus puissant, mais ceci a permis de grandement simplifier la conception du microprocesseur, et a facilité une autre innovation, l’exécution en pipeline qui permet d’améliorer à la fois l’efficacité et la fréquence d’horloge du processeur. Une autre conséquence intéressante de cette simplicité est la réduction de la consommation énergétique, particulièrement intéressante pour l’embarqué ou les téléphones portables, et pour cause, le « cœur numérique » de votre fidèle compagnon portable n’est autre qu’un héritier de la lignée de processeurs ARM initiée par Sophie Wilson.

    Lynn Conway a compté les transistors jusqu’à l’infini … deux fois !

    © Wikicommon

    Les micro-processeurs sont le résultat d’un assemblage d’un très très … très grand nombre de petits éléments – des transistors. Les premiers micro-processeurs, tels que le 4004 sorti par Intel en 1971, comptaient quelques milliers de transistors. Depuis cette époque, la technique permettant de graver des transistors dans du silicium (la stéréo-lithographie) a fait des progrès considérables, permettant de graver dans une seule puce des millions de transistors dans les années 90 (on parlait alors de VLSI pour « Very Large Scale Integration », et des milliards à l’heure actuelle ! Au début des années 1970, les premiers micro-processeurs étaient conçus « à la main », les ingénieurs dessinant les quelques milliers de transistors, mais peu à peu la croissance du nombre d’éléments ont rendu nécessaire l’invention de nouveaux outils et nouvelles méthodologies, permettant aux architectes de l’infiniment petit de poser les « routes », les « usines » et les « entrepôts » microscopiques ( ou plutôt nano-scopiques) qui constituent les micro-processeurs modernes. Lynn Conway a joué un rôle clef dans cette révolution… deux fois !

    Recrutée en 1964 par IBM, elle rejoint l’équipe d’architecture des ordinateurs, pour concevoir un super-ordinateur : l’ACS (Advanced Computer System). A cette époque on ne parle pas encore de micro-processeur, mais elle introduit dès lors une innovation spectaculaire, le DIS (Dynamic Instruction Scheduling) : si on revient à notre processeur de tout à l’heure, il exécute une suite d’instruction, mais est-il obligé de les exécuter dans l’ordre où elles se présentent ? Lynn Conway montre qu’il est parfois intéressant de changer l’ordre d’exécution des instructions, ce qui permet d’exécuter plusieurs instructions à la fois ! (ce qu’on appelle un processeur superscalaire). Mais voilà, elle révèle en 1968 son intention de changer de sexe, ce qui lui vaut d’être licenciée par IBM. Bien des années plus tard, en 2020, l’entreprise lui a adressé des excuses publiques.

    Elle reprend alors sa carrière, cette fois en tant que femme, en repartant de zéro, sans révéler son identité précédente. Elle gravit les échelons un par un, tout d’abord comme analyste programmeuse, puis elle travaille au fameux Xerox Parc où elle va diriger le « Large Scale Integration group ». C’est là qu’elle met au point l’ensemble de techniques et de logiciels permettant de réaliser les plans de micro-processeurs extrêmement complexes (la chaîne EDA pour Electronic Design and Automation). Après un passage au DARPA de 1983 à 1985, elle devient professeur à l’Université du Michigan, et rédige avec Carver Mead un ouvrage qui fera référence sur le sujet, et qui a permis de diffuser très largement ces technologies révolutionnaires de conception de puces  (c.f. cette liste de référence sur le contexte et l’impact de cette publication ).

    Alors qu’elle approche de l’age de la retraite, elle révèle son histoire et son passé chez IBM, et travaille pour défendre les droits des personnes trans-genre. Elle décède l’année dernière, le 9 Juin 2024, à l’age de 86 ans.

    Claire Wolf : impression 3D et conception électronique pour toutes et tous !

    ©yosyshq (https://www.yosyshq.com/team)

    Les nombreux outils disponibles dans notre monde numérique rendent notre vie plus facile, permettent de créer et d’échanger de l’information, mais, particulièrement dans le contexte actuel, il serait dangereux de laisser le contrôle de ces outils a un petit nombre d’acteurs. Née en 1980, femme trans, Claire Wolf a apporté des innovations importantes dans deux domaines différents.

    Les technologies dites d’impression 3D (ou plutôt de fabrication additive) permettent à tout un chacun de fabriquer des objets avec des formes précises. Ceci ouvre la porte à de nombreuses applications, ou plus modestement, permet de réparer les objets du quotidien en créant soi-même des pièces de rechange. Développée dans les années 1980, cette technologie a connu un regain d’intérêt quand les différents brevets la protégeant ont expiré, permettant à tout un nouvel ensemble d’acteur de proposer des solutions et des produits. Mais créer des objets en 3D reste un travail d’expert, dépendant de logiciels coûteux et complexes. Claire Wolf a développé le logiciel OpenSCAD ,  une sorte de langage de programmation « avec des formes », permettant facilement de créer des pièces complexes en combinant des éléments plus simples. Ce logiciel a permis à toute une communauté de « makers » de créer et de partager des formes (voir par exemple https://www.thingiverse.com/).

    Mais Claire Wolf ne s’est pas arrêtée là ! Si grâce à OpenSCAD tout un chacun peut réparer le buffet de la cuisine en imprimant une cale de la bonne forme en 3D, est-ce qu’on ne pourrait pas imaginer un outil permettant à tout un chacun de concevoir ses propres puces ?

    Ceci peut sembler totalement hors de portée, mais il existe une étape intermédiaire : les FPGAs. Ce sont des circuits électroniques re-configurables, véritable « terre glaise », que chacun peut modeler à sa guise pour réaliser n’importe quel circuit logique (voir par exemple sur le blog binaire «Une glaise électronique re-modelable à volonté») Mais il y a une difficulté : ces FPGAs sont livrés avec des logiciels du constructeur, lourds et monolithiques, difficiles à apprendre, et peu adaptables à des cas d’utilisation variés. Pour cette raison, Claire Wolf a créé Yosys, un logiciel Open-Source rendant la conception de circuits logiques bien plus facile et abordable. Et pour ceux qui souhaitent franchir le pas jusqu’à la création d’un vrai circuit intégré, des initiatives tels que TinyTapeOut de Matt Venn permettent de le faire pour quelques centaines d’Euros ! Pour enrichir l’écosystème des outils de conception de circuits électroniques (EDA), Claire Wolf a créé l’entreprise YosysHQ, qui offre des solutions de vérification formelle.

    Comme le chante Jean-Jacques Goldman, elles ne sont pas des « standards », « des gens bien comme ils faut », mais elles donnent leur différence. Espérons que notre société sache rester consciente de sa diversité, fière de sa richesse, ouverte et fraternelle.

    Bruno Levy.

  • Prêtez Attention : quand « prêter » est « données » (épisode 2)

    A l’heure où Elon Musk fait un peu n’importe quoi au nom de la liberté d’expression, quand des grands patrons du numérique lui emboitent le pas sans doute pour pousser leurs intérêts économiques, il devient encore plus indispensable de comprendre les mécanismes qui causent des dysfonctionnements majeurs des plateformes numériques.  Ce deuxième épisode d’un article de Fabien Gandon et Franck Michel nous aide à mieux comprendre.  Serge Abiteboul & Thierry Viéville.

    Image générée par les auteurs avec Bing/DALL·E 3 à partir du prompt “photo of a street with many people with their smartphones displaying different hypnotic images” ©CC-BY

    Dans le précédent billet nous vous avons donné l’excuse parfaite pour ne pas avoir fait de sport ce week-end : ce n’est pas de votre faute, votre cerveau a été hacké ! Nous avons vu que, à coup de likes, de notifications, de flux infinis et d’interfaces compulsogènes, les grands acteurs du Web ont mis au point des techniques capables de piller très efficacement notre temps de cerveau. Nous avons aussi vu que, en s’appuyant sur des données comportementales massives, les algorithmes apprennent à exploiter notre biais de négativité et favorisent les contenus qui suscitent colère, peur, indignation, ressentiment, frustration, dégoût, etc. Nous avons constaté que, en nous enfermant dans un espace informationnel où rien ne contredit nos croyances, les algorithmes de recommandation ont tendance à créer des visions du monde différentes pour chaque utilisateur. Nous avons enfin conclu que cette combinaison d’émotions, de biais cognitifs et de recommandations automatisées peut conduire à une escalade émotionnelle, à la polarisation et la radicalisation des opinions.

    En manque… d’attention et en over-dose d’inattention

    Finalement, ce premier billet nous amène à nous interroger sur le caractère addictogène de certains médias sociaux. Une addiction peut survenir dans toute activité pour laquelle une personne développe un appétit excessif. Il peut s’agir d’une dépendance à une substance (ex. une drogue) ou d’une dépendance comportementale, cette dernière se caractérisant par l’impossibilité de contrôler la pratique d’une activité comme les jeux d’argent, ou dans notre cas, l’utilisation d’un média social. On sait qu’une dépendance se développe lorsqu’un comportement particulier est incité et encouragé, qu’il est récompensé d’une manière ou d’une autre, et que rien n’incite à l’arrêter. Or les algorithmes de captation de l’attention sont des héritiers directs de la captologie et suivent à la lettre la formule de développement d’un comportement addictif : les utilisateurs font l’objets de notifications régulières pour initialiser et enclencher l’habitude ; la récompense de l’utilisation repose sur de multiples mécanismes (ex. nombre de likes, émotions, etc.) ; et l’absence de moyens de « décrocher » est au cœur des interfaces (ex. fil infini, auto-play, opt-out par défaut, etc.). On dit souvent qu’un algorithme est une recette, ici on pourrait même parler de la recette d’une drogue de synthèse numérique.

    Voilà… Maintenant que le doute est là, vous voyez votre téléphone non seulement comme un espion qui vend vos données, mais aussi comme un traître, un manipulateur et même un dealer numérique ! Et vous vous interrogez sur les dégâts que font ces hackers du cerveau. Mais le problème va plus loin car le Web et Internet forment de vastes toiles qui couplent toutes leurs ressources, et les impacts de ces manipulateurs automatiques se propagent et se combinent par l’effet de mise en réseau.

    Fausses informations pour vraie attention

    Partant des constats déjà sombres du précédent billet, il faut noter que les choses s’aggravent encore lorsque les contenus dont nous parlons sont des fake news, des fausses informations. En effet, celles-ci s’appuient souvent sur la colère, la frustration ou le dégoût pour hameçonner notre attention. Elles trouvent ainsi sur les réseaux sociaux un terrain particulièrement fertile. Par leurs affirmations choquantes, elles sont vécues par beaucoup comme une injonction à prendre parti en les re-partageant plutôt que de faire appel à l’esprit critique et vérifier leur véracité. Ainsi des études ont montré que les algorithmes de recommandation tendent à favoriser les fausses informations véhiculant des idées clivantes ou des événements choquants. Et comme ces informations sont souvent relayées par des connaissances, le biais de la preuve sociale nous incite à les juger crédibles et dignes de confiance. Répétées encore et encore, associées à des représentations du monde convoquant les théories du complot, renforcées sous la pression des bulles de filtres, et propulsées par l’effet de réseau, les fausses informations instaurent une économie du doute où la vérité est remplacée par la vraisemblance. Avec une éditorialisation qui ne fait pas la différence entre un article écrit par des journalistes professionnels d’un côté, et des fausses informations relayées par un bot malveillant de l’autre, « la presse n’est plus perçue comme celle qui publie, mais comme celle qui cache« . Progressivement et insidieusement, le doute sape notre confiance dans les experts (savants, journalistes…), entraînant des risques pour la santé publique et favorisant l’émergence d’idées extrêmes et de populismes qui mettent en danger les démocraties. Ce que Giuliano Da Empoli résume par la phrase : « le populisme naît de l’union de la colère et la frustration avec les algorithmes« .

    Attentions troubles et troubles d’attention

    Qui plus est, des études ont montré que la personnalité, les valeurs, les émotions et la vulnérabilité des utilisateurs influencent leur propension à propager de la désinformation. Chacun de nous aura donc des réactions différentes face aux mécanismes que nous avons vus. Mais au-delà de ce fait, nous avons jusqu’ici considéré des utilisateurs lambda sans problème de santé particulier. Il convient cependant d’envisager ce qui se passe pour les utilisateurs souffrant de handicaps ou de troubles mentaux comme la dépression, l’anxiété, le trouble d’achat compulsif, la paranoïa, le FOMO, le FOBO, etc.

    On peut penser en particulier au trouble de déficit de l’attention (TDA). Des études attestent que les symptômes du TDA peuvent être aggravés par l’utilisation des médias numériques et de leurs applications conçues pour capter l’attention. Plus inquiétant encore, ces applications pourraient provoquer des TDA chez des personnes n’ayant aucun antécédent de ce trouble. Si ces études sont préliminaires elles nous encouragent à davantage de recherches sur le sujet ainsi qu’à nous poser la question du principe de précaution.

    A l’attention des créatifs

    Nous, les auteurs de ce billet, sommes des scientifiques. Comme d’autres collègues nous nous sommes reconnus dans l’article de David R. Smith : « Attention, attention : vos atouts scientifiques les plus précieux sont attaqués ». Dans cet article, Smith appelle à se pencher sur ce que les plateformes du Web font à la recherche et au domaine académique. En effet, même les scientifiques et ingénieurs les mieux informés sur ces sujets ne sont pas immunisés contre ces problèmes. Tout comme lire le “Petit traité de manipulation à l’usage des honnêtes gens” et “La soumission librement consentie” n’immunise pas contre la manipulation, connaître les méthodes de captation de l’attention n’est pas suffisant pour leur échapper. 

    Les « gadgets numériques », comme les appelle Smith, contribuent à ce qu’il appelle « un trouble de déficit de l’attention académique ». On sait que la concentration, mais aussi les moments d’ennui, de flânerie intellectuelle et de rêverie, sont essentiels à la pensée créative. Beaucoup d’entre nous ont déjà expérimenté l’éclair d’une idée soudaine au milieu d’un moment de détente. En volant ces moments, les systèmes de captation de l’attention entravent le processus créatif.

    Bien sûr, ces remarques peuvent être généralisées à de nombreuses autres activités et professions nécessitant concentration, créativité et imagination. On peut en effet se demander ce que les systèmes de captation de l’attention font à des domaines comme la politique, la santé, l’éducation ou la création artistique, par exemple. En d’autres termes : attention penseurs et créateurs ! Nous devons repenser ces systèmes pour qu’ils répondent à nos besoins, et non l’inverse car la véritable monnaie d’échange de nos métiers est celle des idées.

    Attention Fragile ! Vers des principes de préservation de l’attention

    Après ces constats anxiogènes, essayons maintenant d’être constructifs. Puisque, dans un monde de plus en plus numérique, notre attention sur-sollicitée s’avère fragile, nous proposons d’aller vers une gouvernance responsable de l’attention sur le Web en posant plusieurs principes.

    Un premier groupe de principes concerne les utilisateurs. Pour renforcer leur autonomie, le principe de la réflexivité continue propose que les plateformes leur fournissent régulièrement des retours d’information leur permettant d’être conscients de leurs usages (temps passé, exposition à des contenus négatifs, diversité, etc.), et permettant ainsi de garantir leur consentement éclairé à chaque instant. En outre, le principe de transparence préconise de leur expliquer clairement les motivations et les raisons derrière chaque recommandation, et le principe de soutien à la diligence raisonnable insiste sur l’importance de leur fournir les moyens et les informations nécessaires pour échapper aux boucles et processus imposés par les systèmes. Enfin, le principe d’opt-in par défaut suggère que les notifications et la personnalisation des recommandations soient désactivées par défaut, et activées uniquement après un consentement éclairé et un paramétrage volontaire.

    Attention by design

    Un deuxième groupe de principes vise à s’assurer que les plateformes intègrent dès leur conception (by design) le respect des utilisateurs. Le principe d’incitation orientée recommande d’utiliser des moyens légaux (interdire certaines pratiques) et économiques (taxes) pour encourager les plateformes à adopter des comportements ayant un impact sociétal positif (éducation, soutien à la collaboration et au débat constructif, élaboration collective de solutions sur les grands problèmes de société…). Et inversement, sanctionner les comportements nuisibles, une sorte de politique de la carotte et du bâton. 

    De plus, le principe de conception d’interactions bienveillantes appelle à placer le bien-être des utilisateurs au cœur de la conception des interfaces et de leurs objectifs algorithmiques, en s’alignant sur les bonnes pratiques des bright patterns plutôt que celles des dark patterns. D’autres médias sociaux sont en effet possibles, comme Wikipédia qui fait émerger du contenu de qualité sans jamais rechercher la viralité des contenus ni la popularité des contributeurs qui restent pour l’essentiel des citoyens anonymes.

    Le principe des recommandations équilibrées vise à éviter la spécialisation excessive des contenus recommandés et à prévenir la formation de bulles de filtres. Notons aussi que lorsqu’une fausse information est corrigée ou démentie, il est fréquent que le message portant la correction ou le démenti soit quasiment invisible en comparaison de la viralité avec laquelle la fausse information a circulé. Aussi, pour aller vers plus de transparence, le principe de la visibilité équilibrée propose que les mesures préventives et correctives d’un problème soient rendues aussi visibles que le problème qu’elles traitent.

    Enfin, pour que ces principes soient appliqués, le principe d’observabilité stipule que les plateformes doivent fournir aux institutions, à la société civile et aux chercheurs les instruments juridiques et techniques leur permettant d’effectuer un contrôle et une vérification actifs de l’application et de l’efficacité des réglementations.

    L’attention comme bien commun

    Dans une perspective plus large, si nous considérons l’attention comme un bien commun au sens économique, le principe de la préservation des communs numériques stipule aussi que les services ayant un impact mondial sur nos sociétés doivent être considérés comme des communs numériques, et à ce titre, protégés et soumis à des règles spécifiques de « préservation ». Cela pourrait par exemple passer par le fait de doter ces services (ou au moins les nouveaux entrants) d’une mission de soutien à un débat public constructif. 

    Enfin, le principe de transfert des meilleures pratiques invite à s’inspirer des approches éprouvées dans d’autres domaines, comme le droit encadrant la publicité, les casinos ou le traitement de certaines addictions, pour réguler efficacement les pratiques sur le Web. Prenons l’exemple de l’industrie du jeu vidéo : il a été montré qu’un lien existe entre les « loot boxes » (sortes de pochettes surprises des jeux vidéos) et l’addiction aux jeux d’argent. Celles-ci seraient comparables aux jeux de hasard, pouvant entraîner des comportements addictifs et mettre les joueurs en danger. Ce constat a donné lieu à plusieurs régulations. La manière d’étudier et de traiter cette exploitation indésirable de nos comportements et la transposition de connaissances issues d’autres domaines sont des sources d’inspiration pour d’autres pratiques problématiques sur le Web, telles que celles dont nous venons de parler.

    Faisons attention… à nous

    Résumons-nous. Avec l’objectif initial, somme toute banal, de rendre la publicité plus efficace, la généralisation des techniques de captation de l’attention et l’utilisation qu’elles font des biais cognitifs et des émotions ont des effets délétères très préoccupants sur nos sociétés : polarisation des opinions, diffusion de fausses informations, menace pour la santé publique, les économies et les démocraties. Et oui ! Ce sont donc des (ro)bots qui hackent notre attention car ils sont conçus pour cela ou, plus précisément, pour la capter de façon optimale en vue de la monétiser. De fait, ils utilisent le Web dans un but économique qui va à l’encontre du bien commun. Mais en adoptant les principes proposés ci-dessus, nous pensons qu’il est possible de construire un Web qui continue de soutenir l’activité économique sans pour autant entraîner la captation systématique de l’attention.

    Dans ses essais, Montaigne nous disait “quand on me contrarie, on éveille mon attention, non pas ma colère : je m’avance vers celui qui me contredit, qui m’instruit.”. Or les plateformes nous poussent à faire le contraire : éveiller l’émotion négative et s’éloigner d’autrui. Mais il n’est pas raisonnable de laisser de multiples moyens technologiques hacker nos cerveaux et créer un déficit mondial d’attention, nous empêchant ainsi de la porter sur des sujets qui devraient actuellement nous « contrarier ». A une époque où nous devons modifier nos comportements (par exemple, la surconsommation de biens et d’énergie) et porter notre attention sur des questions cruciales comme le changement climatique, nous devrions nous demander si les algorithmes de recommandation font les bonnes recommandations, et pour qui. Compte tenu des quatre milliards d’utilisateurs pris chaque jour dans leurs boucles de recommandation, il est important de surveiller en permanence comment et dans quel but ces systèmes captent notre attention. Car lorsque notre attention est consacrée à un contenu choisi par ces plateformes, elle est perdue pour tout le reste.

    Merci… pour votre attention 🙂

    Fabien Gandon, Directeur de Recherche Inria et Franck Michel, ingénieur de recherche, Université Côte d’Azur, CNRS, Inria. 

  • Prêtez Attention : quand « prêter » est « données » (épisode 1)

    A l’heure où Elon Musk fait un peu n’importe quoi au nom de la liberté d’expression, quand des grands patrons du numérique lui emboîtent le pas sans doute pour pousser leurs intérêts économiques, il devient encore plus indispensable de comprendre les mécanismes qui causent des dysfonctionnements majeurs des plateformes numériques.  Ce premier épisode d’un article de Fabien Gandon et Franck Michel nous aide à mieux comprendre.  Serge Abiteboul & Thierry Viéville.

    Image générée par les auteurs avec Bing/DALL·E 3 à partir du prompt “photo of a street with many people with their smartphones displaying different hypnotic images” ©CC-BY

    Nous sommes un dimanche après-midi. Vous avez un petit moment pour vous. Vous pourriez lire, vous balader, aller courir ou écouter de la musique mais machinalement votre main saisit votre téléphone. Le « sombre miroir » s’éclaire et vous passez de l’autre côté. Vous ouvrez l’application de votre réseau social préféré qui vient de vous notifier qu’elle a du nouveau pour vous. Et c’est vrai ! Jean a posté un message à propos de la tragicomédie « Qui a hacké Garoutzia ? » qu’il a vue au théâtre hier soir. Vous approuvez ce poste d’un pouce virtuel et déjà votre vrai pouce pousse vers le poste suivant. Entre une publicité pour un abonnement au théâtre, une photo postée d’Avignon par un ami que vous avez du mal à remettre, l’annonce pour un jeu où tester vôtre culture générale… votre pouce se lance dans un jogging numérique effréné. Imperceptiblement le flux d’information qui vous est proposé dévie, une vidéo de chats acrobates, un « clash » entre stars de la télévision, une manifestation qui tourne à l’affrontement… Et avant que vous ne le réalisiez une petite heure s’est écoulée et il est maintenant trop tard pour un vrai jogging. Vous ressentez une certaine résistance à reposer votre téléphone : après tout, il y avait peut-être encore tant de contenus intéressants, inédits, surprenants ou croustillants dans ce fil de recommandations. Mais vous devez vous rendre à l’évidence, ce fil est sans fin. Vous ne pouvez croire à quelle vitesse la dernière heure est passée. Vous avez l’impression qu’on vous l’a volée, que vous avez traversé un « tunnel temporel ». Sans même vous rappeler de ce que vous avez vu défiler, vous reposez ce téléphone un peu agacé en vous demandant… mais qui a hacké mon attention ?

    A l’attention de tous…

    Sir Tim Berner-Lee, récipiendaire du prix Turing pour avoir inventé le Web, a toujours considéré que les Web devait « être pour tout le monde », mais il a aussi partagé début 2024 un dialogue intérieur en deux articles à propos du Web : « Le dysfonctionnement des réseaux sociaux » et « Les bonnes choses ». Et oui… même le père du Web s’interroge gravement sur celui-ci et met face à face ce qu’il y a de meilleur et de pire sur le Web. Loin d’avoir réalisé l’idéal d’une communauté mondiale unie, Tim constate que des applications du Web comme les réseaux sociaux amplifient les fractures, la polarisation, la manipulation et la désinformation, menaçant démocraties et bien-être. Tout en reconnaissant les nombreuses vertus du Web (outils éducatifs, systèmes open source ou support à la souveraineté numérique), il nous propose de mettre l’accent sur la transparence, la régulation, et une conception éthique d’un Web et d’un Internet plus sûrs et responsables. Autrement dit, l’enjeu actuel est de préserver les richesses du Web tout en se protégeant de ses dérives.

    Parmi ces dérives, on trouve le problème de la captation de notre attention, un sujet sur lequel nous voulons revenir dans ce billet ainsi que le suivant. C’est l’objet d’un de nos articles publié cette année à la conférence sur l’IA, l’éthique et à la société (AIES) de l’Association pour l’Avancement de l’Intelligence Artificielle (AAAI), que nous résumons ici. Le titre pourrait se traduire par « Prêtez attention : un appel à réglementer le marché de l’attention et à prévenir la gouvernance émotionnelle algorithmique ». Nous y appelons à des actions contre ces pratiques qui rivalisent pour capter notre attention sur le Web, car nous sommes convaincus qu’il est insoutenable pour une civilisation de permettre que l’attention soit ainsi gaspillée en toute impunité à l’échelle mondiale.

    Attention à la march…andisation (de l’attention)

    Si vous lisez cette phrase, nous avons déjà gagné une grande bataille, celle d’obtenir votre attention envers et contre toutes les autres sollicitations dont nous sommes tous l’objet : les publicités qui nous entourent, les « apps » dont les notifications nous assaillent jour et nuit, et tous les autres « crieurs numériques » que l’on subit au quotidien. 

    Depuis l’avènement de la consommation de masse dans les années 50, les médias et les publicitaires n’ont eu de cesse d’inventer des méthodes toujours plus efficaces pour capter notre attention et la transformer en revenus par le biais de la publicité. Mais ce n’était qu’un début… Au cours des deux dernières décennies, en s’appuyant sur la recherche en psychologie, en sociologie, en neurosciences et d’autres domaines, et soutenues par les avancées en intelligence artificielle (IA), les grandes plateformes du Web ont porté le processus de captation de l’attention à une échelle sans précédent. Basé presque exclusivement sur les recettes publicitaires, leur modèle économique consiste à nous fournir des services gratuits qui, en retour, collectent les traces numériques de nos comportements. C’est le célèbre “si c’est gratuit, c’est nous le produit” et plus exactement, ici, le produit c’est notre attention. Ces données sont en effet utilisées pour maximiser l’impact que les publicités ont sur nous, en s’assurant que le message publicitaire correspond à nos goûts, nos inclinations et notre humeur (on parle de “publicité ciblée”), mais aussi en mettant tout en place pour que nous soyons pleinement attentifs au moment où la publicité nous est présentée.

    Recrutant des « armées » de psychologues, sociologues et neuroscientifiques, les plateformes du Web comme les médias sociaux et les jeux en ligne ont mis au point des techniques capables de piller très efficacement notre « temps de cerveau disponible ». Résultat, nous, les humains, avons créé un marché économique où notre attention est captée, transformée, échangée et monétisée comme n’importe quelle matière première sur les marchés.

    Faire, littéralement, attention

    A l’échelle individuelle, lorsque l’on capte notre attention à notre insu, on peut déjà s’inquiéter du fait que l’on nous vole effectivement du temps de vie, soit l’un de nos biens les plus précieux. Mais si l’attention est un mécanisme naturel au niveau individuel, l’attention collective, elle, est le fruit de l’action de dispositifs spécifiques. Il peut s’agir de lieux favorisant l’attention partagée (ex. un théâtre, un cinéma, un bar un soir de match, une exposition), de l’agrégation d’attention individuelle pour effectuer des mesures (ex. audimat, nombre de vues, nombre de partages, nombre de ventes, nombre d’écoutes, etc.) ou autres. Pour ce qui est de l’attention collective, nous faisons donc, littéralement, l’attention. En particulier, les plateformes créent l’attention collective et dans le même temps captent ce commun afin de le commercialiser sans aucune limite a priori.

    Parmi les techniques utilisées pour capter notre attention, nous pouvons distinguer deux grandes catégories. Tout d’abord, certaines techniques sont explicitement conçues pour utiliser nos biais cognitifs. Par exemple, les likes que nous recevons après la publication d’un contenu activent les voies dopaminergiques du cerveau (impliquées dans le système de récompense) et exploitent notre besoin d’approbation sociale ; les notifications des apps de nos smartphones alimentent notre appétit pour la nouveauté et la surprise, de sorte qu’il est difficile d’y résister ; le « pull-to-refresh », à l’instar des machines à sous, exploite le modèle de récompense aléatoire selon lequel, chaque fois que nous abaissons l’écran, nous pouvons obtenir une nouveauté, ou rien du tout ; le défilement infini (d’actualités, de posts ou de vidéos…) titille notre peur de manquer une information importante (FOMO), au point que nous pouvons difficilement interrompre le flux ; l’enchaînement automatique de vidéos remplace le choix délibéré de continuer à regarder par une action nécessaire pour arrêter de regarder, et provoque un sentiment frustrant d’incomplétude lorsqu’on l’arrête ; etc. De même, certaines techniques exploitent des « dark patterns » qui font partie de ce qu’on nomme design compulsogène ou persuasif, pour nous amener, malgré nous, à faire des actions ou des choix que nous n’aurions pas faits autrement. C’est typiquement le cas lorsque l’on accepte toutes les notifications d’une application sans vraiment s’en rendre compte, alors que la désactivation des notifications nécessiterait une série d’actions fastidieuses et moins intuitives.

    Les petites attentions font les grandes émotions… oui mais lesquelles?

    Une deuxième catégorie de techniques utilisées pour capter notre attention repose sur les progrès récents en matière d’apprentissage automatique permettant d’entraîner des algorithmes de recommandation de contenu sur des données comportementales massives que Shoshana Zuboff appelle le « surplus comportemental« . Ces algorithmes apprennent à recommander des contenus qui non seulement captent notre attention, mais également augmentent et prolongent notre « engagement » (le fait de liker, commenter ou reposter des contenus, et donc d’interagir avec d’autres utilisateurs). Ils découvrent les caractéristiques qui font qu’un contenu attirera plus notre attention qu’un autre, et finissent notamment par sélectionner des contenus liés à ce que Gérald Bronner appelle nos invariants mentaux : la conflictualité, la peur et la sexualité. En particulier, les émotions négatives (colère, indignation, ressentiment, frustration, dégoût, peur) sont parmi celles qui attirent le plus efficacement notre attention, c’est ce que l’on appelle le biais de négativité. Les algorithmes apprennent ainsi à exploiter ce biais car les contenus qui suscitent ces émotions négatives sont plus susceptibles d’être lus et partagés que ceux véhiculant d’autres émotions ou aucune émotion particulière. Une véritable machine à créer des “réseaux soucieux” en quelque sorte.

    Bulles d’attention et bulles de filtres

    En nous promettant de trouver pour nous ce qui nous intéresse sur le Web, les algorithmes de recommandation ont tendance à nous enfermer dans un espace informationnel conforme à nos goûts et nos croyances, une confortable bulle de filtre qui active notre biais de confirmation puisque nous ne sommes plus confrontés à la contradiction, au débat ou à des faits ou idées dérangeants.

    En apparence bénignes, ces bulles de filtres ont des conséquences préoccupantes. Tout d’abord, au niveau individuel, parce que, s’il est important de se ménager des bulles d’attention pour mieux se concentrer et résister à l’éparpillement, il est aussi important de ne pas laisser d’autres acteurs décider quand, comment et pourquoi se forment ces bulles. Or c’est précisément ce que font les algorithmes de recommandation et leurs bulles de filtres, en décidant pour nous à quoi nous devons penser.

    Ensuite, au niveau collectif, Dominique Cardon pointe le fait que les bulles de filtres séparent les publics et fragmentent nos sociétés. Ceux qui s’intéressent aux informations sont isolés de ceux qui ne s’y intéressent pas, ce qui renforce notamment le désintérêt pour la vie publique.

    Et en créant une vision du monde différente pour chacun d’entre nous, ces techniques nous enferment dans des réalités alternatives biaisées. Or vous et moi pouvons débattre si, alors que nous observons la même réalité, nous portons des diagnostiques et jugements différents sur les façons de résoudre les problèmes. Mais que se passe-t-il si chacun de nous perçoit une réalité différente ? Si nous ne partons pas des mêmes constats et des mêmes faits ? Le débat devient impossible et mène vite à un affrontement stérile de croyances, au sein de ce que Bruno Patino appelle une « émocratie, un régime qui fait que nos émotions deviennent performatives et envahissent l’espace public« . Dit autrement, il n’est plus possible d’avoir un libre débat contradictoire au sein de l’espace public, ce qui est pourtant essentiel au fonctionnement des démocraties.

    La tension des émotions

    Puisque les algorithmes de recommandation sélectionnent en priorité ce qui produit une réaction émotionnelle, ils invibilisent mécaniquement ce qui induit une faible réponse émotionnelle. Pour être visible, il devient donc impératif d’avoir une opinion, de préférence tranchée et clivante, de sorte que la réflexion, la nuance, le doute ou l’agnosticisme deviennent invisibles. L’équation complexe entre émotions, biais cognitifs et algorithmes de recommandation conduit à une escalade émotionnelle qui se manifeste aujourd’hui sur les médias sociaux par une culture du « clash », une hypersensibilité aux opinions divergentes interprétées comme des agressions, la polarisation des opinions voire la radicalisation de certains utilisateurs ou certaines communautés. Ce qui fait dire à Bruno Patino que « les biais cognitifs et les effets de réseau dessinent un espace conversationnel et de partage où la croyance l’emporte sur la vérité, l’émotion sur le recul, l’instinct sur la raison, la passion sur le savoir, l’outrance sur la pondération ». Recommandation après recommandation, amplifiée par la désinhibition numérique (le sentiment d’impunité induit par le pseudo-anonymat), cette escalade émotionnelle peut conduire à des déferlements de violence et de haine dont l’issue est parfois tragique, comme en témoignent les tentatives de suicide d’adolescents victimes de cyber-harcèlement. Notons que cette escalade est souvent encore aggravée par les interfaces des plateformes, qui tendent à rendre les échanges de plus en plus brefs, instinctifs et simplistes.

    Le constat que nous dressons ici peut déjà sembler assez noir, mais il y a pire… Et à ce stade, pour garder votre attention avant que vous ne zappiez, quoi de mieux que de créer un cliffhanger, une fin laissée en suspens comme dans les séries télévisées à succès, et d’utiliser l’émotion qui naît de ce suspens pour vous hameçonner dans l’attente du prochain épisode, du prochain billet à votre attention

    Fabien Gandon, Directeur de Recherche Inria, et Franck Michel, ingénieur de recherche, Université Côte d’Azur, CNRS, Inria. 
  • Biais selon la langue dans Wikipédia, Google, ChatGPT et YouTube

    Cet article est paru le 8 octobre 2024 sur le site ami de Laurent Bloch sous licence Creative Commons. Laurent  y commente l’article « A Perspective Mirror of the Elephant » de Communications of the Association for Computing Machinary, la principale revue mensuelle de la première des associations internationales dédiées à l’informatique. Serge Abiteboul. 

    Une révolution cognitive, des divergences culturelles

    Nul doute que les chercheurs qui étudieront l’histoire de la pensée au tournant du XXIe siècle accorderont un chapitre substantiel à l’apparition des moteurs de recherche et des encyclopédies en ligne, qui apportent dans les lieux les plus reculés et aux populations les plus démunies des connaissances et des informations naguère réservées aux habitants de villes universitaires dotées de bibliothèques et de librairies, et seulement au prix de temps de recherche bien plus importants. Il n’est pas excessif de parler ici de révolution cognitive.

    Il faudrait d’ailleurs parler plutôt du moteur de recherche et de l’encyclopédie en ligne, parce que le Google Search et Wikipédia sont en position de monopole (temporaire), conformément aux lois des rendements croissants et de la concurrence monopolistique [1]. Mais là n’est pas le sujet pour l’instant.

    L’utilisateur régulier de ces outils si commodes aura pu faire une remarque empirique : pour Wikipédia par exemple et si l’on s’en tient aux articles des domaines techniques, des sciences de la nature ou de l’informatique, selon la langue d’interrogation la qualité des articles peut varier, mais leur teneur informationnelle ne sera pas trop hétérogène, essentiellement parce que les termes scientifiques et techniques sont généralement dotés de définitions relativement claires et univoques, peu sujettes à controverses idéologiques. Si par contre on va sur le terrain des sciences humaines et sociales, on peut tomber sur de vraies divergences de vue. Et ne parlons pas des sujets politiques, historiques ou culturels…

    Une démarche systématique sur deux domaines bien délimités

    Queenie Luo, Michael J. Puett et Michael D. Smith, auteurs de l’article dont il est question ici [2], se sont donné pour tâche un examen systématique de ce biais selon la langue, qui est en fait un biais culturel et politique, entre plusieurs versions de Wikipédia, Google, ChatGPT et YouTube. Ils ont choisi deux sujets, le bouddhisme et le libéralisme, et douze langues, anglais, français, allemand, chinois, thaï, vietnamien, italien, espagnol, russe, coréen, népalais et japonais, avec l’aide de connaisseurs de ces langues et des cultures qui les utilisent.

    L’introduction de l’article repose sur une fable du folklore indien : six aveugles croisent un éléphant, chacun peut toucher une partie de l’animal, et chacun arrive à des conclusions complètement différentes sur la nature de ce qu’ils ont rencontré [3].

    De même, lorsque l’on soumet une question à Google, plutôt que de donner une réponse synthétique globale, le moteur de recherche se base sur la langue d’interrogation pour donner une réponse qui corresponde à l’univers culturel du questionneur, voire à ses biais ethnocentrés. Ainsi, une recherche d’images sur Google par la locution anglaise wedding clothes donnera des images de costumes de mariage de style occidental, en omettant les kimonos japonais ou les saris indiens.

    C’est pire avec ChatGPT, dont le corpus d’apprentissage (à la date de rédaction de l’article tout du moins) est presque exclusivement en anglais.

    Lors de la soumission de chaque interrogation, nos auteurs ont retenu à fin d’analyse les 50 premiers sites mentionnés par Google, les 35 premières vidéos retenues par YouTube, le texte intégral de l’article de Wikipédia, et cinq réponses de ChatGPT dans cinq fenêtres d’interrogation (de prompt comme il faut dire maintenant) distinctes. Le but des auteurs n’était pas de quantifier la disjonction entre les réponses des systèmes et le corpus global, mais d’identifier les occurrences de ces disjonctions et de commencer à identifier les types de biais qu’elles induisent.

    Les observations

    Bouddhisme

    En 2 500 ans le bouddhisme s’est répandu dans la plupart des pays d’Asie, et connaît depuis quelques décennies un grand succès en Occident, sans oublier les migrations de populations asiatiques vers ces mêmes pays occidentaux. Mais, sans surprise, chacun de ces univers culturels a sa propre acception du bouddhisme, qui est plus un courant de pensée ou une vision du monde, au demeurant peu dogmatique [4], qu’une religion au sens où l’entendent les fidèles des religions du Livre, juifs, chrétiens et musulmans.

    Les interrogations en français et en allemand donnent des liens vers des sites encyclopédiques ou historiques, en anglais on reçoit plutôt des adresses de centres de retraites spirituelles. Le chinois donne la ligne du parti sur l’organisation des monastères bouddhistes, les sites indiqués en réponse à une question en vietnamien évoquent des pratiques rituelles et de mendicité, cependant que le thaï orientera vers une explication de la différence entre le bouddhisme et le culte des fantômes, répandu sur les rives de la Chao Phraya.

    Chaque langue d’interrogation fournit des réponses qui exhibent une forte conformité aux représentations culturelles dominantes de la communauté de ses locuteurs. L’article approfondit la question en examinant les réponses à des questions plus discriminantes, voire sujettes à controverses, en comparant les réponses de Google et celles de ChatGPT, etc. À la différence de Google, ChatGPT, bien que très anglo-centrique, permet qu’on lui demande d’utiliser un corpus linguistique spécifique, par exemple en chinois, mais cela exige un peu de tâtonnement par essais-erreurs. YouTube est très orienté vers les musiques de méditation et les tutoriels, ses biais liés à la langue sont plus prononcés.

    Les articles consacrés au bouddhisme sont très consultés par les adeptes de Wikipédia, dans toutes les langues, mais avec là aussi des sensibilités différentes. L’article attribue une grande influence de Foucault, Derrida et Lacan sur le wikipédien français, cependant que son collègue allemand serait sans surprise plutôt un disciple de Schopenhauer, Heidegger et Nietzsche.

    Libéralisme

    Le libéralisme a une histoire et une géographie complexe : pour les Américains les libéraux seraient assez proches de Bernie Sanders, alors que les Français penseraient plutôt à Bruno Retailleau. Les sites signalés par Google si on l’interroge en anglais donnent une image favorable du libéralisme, au contraire des sites mentionnés en réponse à des interrogations en français, allemand, italien ou espagnol, ainsi que pratiquement tous les sites asiatiques. Dans de nombreux pays asiatiques l’insistance du libéralisme sur la liberté est perçue comme une menace envers l’ordre social, notamment le rôle de la famille et l’importance de l’unité nationale.

    YouTube interrogé en russe diffuse des vidéos qui associent libéralisme et démocratie, et les soupçonnent d’avoir contribué à la chute de l’Union soviétique.

    Bref, selon les histoires et les cultures de chaque domaine linguistique, le terme « libéralisme » a des acceptions différentes, suscite des réactions différentes, et nos outils de recherche et de documentation informatisés nous donnent les réponses que, en moyenne, nous attendons.

    Plus de clivages, ou une synthèse ?

    Nos auteurs reprennent le fil de la métaphore des aveugles et de l’éléphant : les ressortissants de chaque domaine linguistique vont-ils rester attachés à leurs visions unilatérales ? Ou bien, un observateur extérieur capable de faire la synthèse de ces visions diverses va-t-il les éclairer sur le caractère vrai mais incomplet de chacune de ces visions, et les guider vers une vue d’ensemble plus large et plus ouverte aux autres cultures ?

    L’article attire l’attention du lecteur sur le danger de voir ces plates-formes cognitives imposer à chaque population de locuteurs d’une langue donnée le conformisme de la vision majoritaire, d’où résulterait une tyrannie d’opinion. Observons quand même que ce n’est pas nouveau : s’il est facile de comparer les articles de Wikipédia en anglais et en français, il était peut-être plus difficile de comparer ceux du Grand Larousse illustré et de l’Encyclopedia Britannica [5], mais on y aurait sans doute trouvé des biais culturels et politiques similaires.

    Mais justement, l’informatisation des plates-formes cognitives et leur disponibilité planétaire devrait faciliter la présentation au lecteur de points de vue divers et même antagoniques, afin de faire progresser la démocratie et l’ouverture aux cultures autres que la sienne propre.

    Laurent Bloch

    NOTES

    [1]  https://laurentbloch.net/MySpip3/Trump-et-Xi-Jinping-les-apprentis-sorciers#Concurrence-monopolistique

    [2] https://cacm.acm.org/practice/a-perspectival-mirror-of-the-elephant/

    [3] Les spectateurs du film de Rithy Panh Rendez-vous avec Pol Pot ont pu voir une interprétation cinématographique de cette fable.
    https://fr.wikipedia.org/wiki/Rendez-vous_avec_Pol_Pot

    [4] Le lecteur curieux d’en savoir un peu plus sur le bouddhisme pourra lire le délicieux opuscule que lui ont consacré Jorge Luis Borges et Alicia Jurado sous le titre Qu’est-ce que le bouddhisme ? Il y apprendra les différences entre les bouddhismes mahāyāna, vajrayāna, son, zen ou hīnayāna.

    [5] Déjà des amis élitistes m’avaient expliqué que le niveau de l’Encyclopedia Britannica avait chuté lorsqu’elle avait été rachetée par un éditeur américain…

  • Informatique théâtrale

    Un nouvel entretien autour de l’informatique.

    Remi Ronfard a travaillé plusieurs années au centre Watson d’IBM Research à Yorktown Heights et à la direction de la recherche de l’Institut National de l’Audiovisuel (INA), avant de rejoindre Inria. Il est spécialiste de la modélisation géométrique, d’animation 3D, de vision par ordinateur, et d’informatique théâtrale. Il s’intéresse à la création et mise en scène de mondes virtuels narratifs. Il a fondé et anime les journées d’informatique théâtrale.
    Rémi Ronfard, Crédit image :  Miguel Bucana, pour le magazine Chut !

     

    Binaire : Peux-tu nous raconter ton parcours, et comment tu t’es intéressé à ce domaine à la frontière de l’informatique et des arts vivants ?

    RR : J’ai suivi des études d’ingénieur à l’École des Mines. Il n’y avait pas d’informatique dans la formation à l’époque. J’ai découvert l’informatique après mes études en réalisant une thèse en télédétection. J’ai commencé alors à me sentir informaticien même si ma thèse tenait surtout du traitement du signal. Pendant 10 ans, j’ai travaillé ensuite pour la R&D dans l’industrie par exemple au centre Watson d’IBM, et à l’INA. Je suis devenu chercheur à Inria à 40 ans. Ce n’est pas un parcours standard !

    C’est par hasard que je me suis intéressé au théâtre. En 1996, j’ai rencontré au Medialab du MIT Claudio Pinhanez (de IBM Research, Brésil) inventeur de l’expression Computer theater que je traduis comme « informatique théâtrale ». Son questionnement d’alors : peut-on faire avec l’informatique ce que l’on a fait pour la musique avec l’informatique musicale ? Il décrivait le théâtre comme essentiellement une série d’actions ; cela résonnait bien avec mon domaine de recherche à l’INA sur l’indexation audiovisuelle. Cela me conduisait à la question : comment reconnaître et représenter symboliquement des actions théâtrales ? Cette idée a commencé alors à me trotter dans la tête mais je n’ai pas imaginé en faire mon sujet de recherche principal. Quand je suis rentré à Inria des années plus tard, j’ai pu revenir sur ce sujet.

    Binaire : Pourrais-tu nous dire comment tu définis toi-même l’informatique théâtrale ?

    RR : Oh là là. Pour moi, l’informatique théâtrale doit rester très ouverte. Je ne veux pas l’enfermer dans des définitions. Regardez l’informatique musicale. Elle s’est construite au-delà des distinctions entre musique et son. Je ne veux pas que des tentatives de définition ferment la discipline. Une difficulté avec le théâtre c’est que dès on change quelque chose, ce n’est plus du théâtre : un film, ce n’est plus du théâtre, même une pièce filmée pour beaucoup ce n’est plus du théâtre. En musique, si on change les instruments, cela reste de la musique.

    Binaire : On va insister. Peux-tu quand même essayer de définir l’informatique théâtrale ?

    On peut y voir deux aspects essentiels. Du point de vue de l’artiste, c’est d’abord, des pièces de théâtre qui utilisent l’informatique dans leur création ou leur diffusion, avec l’idée que le résultat se distingue de ce qui aurait été fait sans informatique. D’un autre côté, avec un regard d’informaticien, l’informatique théâtrale regroupe tout ce qu’on peut faire au service du théâtre avec des machines, des algorithmes ou des langages qui traitent du théâtre.

    Techniquement, mon travail personnel s’inscrit dans le cadre de l’informatique graphique. En général, dans ce domaine on modélise en trois dimensions pour produire des images en deux dimensions. Avec l’informatique théâtrale, on s’intéresse à un déploiement dans les trois dimensions et dans le temps.

    Binaire : Des algorithmes au service du théâtre. C’est passionnant ! Pourrais-tu nous donner un exemple ?

    RR : Aujourd’hui, cela tourne beaucoup autour de l’automatisation de la régie théâtrale. En régie, pour accompagner un spectacle, on dispose d’une liste de repères, avec des événements comme certains endroits du texte ou un geste d’un acteur qui servent de déclencheurs à d’autres événements, par exemple lancer une lumière ou une chanson. Il faut suivre cette « liste d’événements ». On pourrait imaginer automatiser cela. Il faut bien reconnaitre que cela reste encore balbutiant ; cela se fait seulement dans des conditions expérimentales. C’est d’abord pour des raisons de fiabilité. On ne peut pas planter un spectacle devant une salle remplie de spectateurs parce qu’un programme informatique beugue.

    Binaire : Le script d’une représentation théâtrale, c’est comme une partition musicale ? Peut-on imaginer décrire formellement une mise en scène ?

    RR : C’est très proche d’une partition. Mais pour le théâtre, il n’existe pas de notation universelle : chaque metteur en scène, chaque régisseur, utilise ses propres notations.

    Développer une telle notation est un défi considérable, un sujet un peu tabou. Il y a une résistance culturelle, les créateurs considèrent qu’ils font de l’alchimie et que leur travail ne doit pas être codé. Mais il existe aussi une tradition de « transcription de la mise en scène », pour des questions de transmission. J’aimerais bien regarder cela sérieusement. Malheureusement pour ceux qui veulent faire des recherches sur ces sujets, ces documents ne sont pas faciles à trouver.

    Binaire : Est-ce qu’on pourrait imaginer une IA qui réaliserait la transcription d’une mise en scène ?

    RR : J’aimerais beaucoup construire une telle IA. Mais ce n’est pas facile, car elle devrait être d’une certaine façon assez générale : intégrer des techniques de vision, de reconnaissance vocale, de traitement de la parole, de compréhension des mouvements, de la prosodie… Il lui faudrait s’appuyer sur une notation. Quelle notation ? À vrai dire c’est une de mes ambitions à long terme. Une difficulté pour une telle IA est de savoir où on s’arrête, de distinguer ce qui est important et ce qui ne l’est pas dans une mise en scène. Si à un moment donné, un acteur lève le petit doigt, est-ce un hasard, ou est-ce que cela fait partie de la mise en scène ?

    Binaire : Est-ce qu’on pourrait entraîner une IA sur des millions d’enregistrement de mises en scènes pour apprendre cela ?

    RR : Je n’y crois pas du tout avec les IA actuelles. Cela demande une forme de compréhension globale de trop d’aspects distincts. On pourrait déjà regarder ce qu’on peut faire avec une dizaine de mises en scènes différentes d’une même pièce ; on peut trouver cela pour des auteurs très populaires comme Marivaux.

    Mais… est-ce qu’il faut viser un tel but ? Ce n’est pas évident. J’imagine plutôt que la technologie assiste le metteur en scène, l’aide à donner des indications sur sa mise en scène, à transcrire la mise en scène. De telles transcriptions seraient utile pour garder des traces patrimoniales, une forme de dépôt légal.

    Mosaïque d’images filmées avec KinoAi et utilisées dans le 3eme court métrage cité. Crédit image : KinoAi.

     

    Binaire : Ces aspects patrimoniaux nous conduisent naturellement à ton outil KinoAi ? Mais d’abord, comment ça se prononce ?

    RR : On dit Kino-Aïe. Le nom est un clin d’œil à un mouvement important de l’histoire du cinéma [1]. Nous l’avons développé dans le cadre d’une thèse en partenariat avec le théâtre des Célestins à Lyon. La directrice du théâtre voulait enrichir leur site avec des vidéos de répétitions. Mais pour cela, il fallait les filmer, ce qui demande beaucoup d’efforts et coûte cher. Comment arriver à le faire sans les moyens considérables d’une grosse équipe de télévision ?

    Notre solution part d’une captation avec une seule caméra fixe de l’ensemble de la scène. Puis, des algorithmes détectent les acteurs, déterminent leurs positions, les identifient et les recadrent. Pour cela, on utilise des techniques existantes de détection des mouvements et des poses du corps. Notre logiciel propose des cadrages. La difficulté est qu’un bon cadrage doit capturer complètement un acteur et exclure les acteurs voisins, ou bien les inclure sans les découper. Et puis les acteurs bougent et tout cela doit être réalisé dynamiquement. Enfin, le metteur en scène peut choisir parmi plusieurs cadrages intéressants pour réaliser un film.

    Le problème de filmer automatiquement un spectacle est passionnant. On a fait déjà plusieurs courts métrages sur des répétitions de spectacles [2]. Et on continue à travailler sur le sujet, y compris pour la captation du produit final lui-même, le spectacle.

    Binaire : Mais pourquoi ne trouve-t-on pas plus les vidéos de spectacles ?

    RR : Le problème est d’abord commercial. Si la pièce est visible en ligne, cela incite moins les spectateurs à payer pour aller au théâtre ? Pour le théâtre privé, l’obstacle est là. Pour le théâtre public, ceux qui pensent filmer préfèrent carrément réaliser un vrai film. La diffusion vidéo de spectacles s’est un peu développée pendant le covid. J’espère que cette question reviendra. Pour des questions de préservation de notre patrimoine, on pourrait déjà filmer plus systématiquement les spectacles au moins en caméra fixe.

    Binaire : De nos jours, des IA sont utilisées en assistant pour l’écriture, par exemple de scénarios aux USA. Pourrait-on imaginer ça dans l’écriture de pièces de théâtre ?

    RR : Cela a déjà été imaginé ; des pièces ont été écrites par des IA et jouées. C’est un peu du buzz ; ça ne m’intéresse pas trop. C’est une drôle d’idée, on se demande pourquoi faire cela. Je trouve beaucoup plus intéressant d’avoir des IA qui aident à la mise en scène de textes écrits par des auteurs humains. C’est peut-être plus difficile, mais tellement plus intéressant !

    Par exemple, on peut utiliser de l’intelligence artificielle pour prévisualiser un spectacle qu’on a imaginé. L’auteur peut avoir, avec l’IA, une impression de ce que pourrait donner son texte. Et puis, les roboticiens s’intéressent beaucoup aussi à réaliser des robots qui jouent dans des spectacles.

    Binaire : Comment se fait la mayonnaise entre informaticiens et des artistes dans les spectacles ?

    RR : J’ai peu d’exemples parce que des formes longues de théâtre utilisant l’informatique sont encore rares. Mais la question se pose déjà quand on engage des projets de recherche sur le sujet. Le dialogue n’est pas toujours facile. Il faut vaincre des résistances. En tant qu’informaticien, on se sent bête quand on parle avec auteurs parce qu’on plonge dans un monde nouveau pour nous, dont on n’a pas tous les codes. On sort de sa zone de confort. Et certains artistes ont sûrement un sentiment symétrique. Du coup, il y a parfois une certaine timidité. C’est pour ça que j’organise des rencontres annuelles de la communauté en informatique théâtrale.

    Binaire : Comment ces travaux pluridisciplinaires se valorisent-t-ils au niveau académique, surtout pour les doctorants ?

    RR : Il faut faire très attention à rester dans une recherche validée par son domaine. L’idéal serait un système de thèses en parallèle en arts du théâtre et en informatique. Chacun reste dans sa discipline mais les deux décident de travailler ensemble. La difficulté est de synchroniser les intérêts, de trouver des sujets intéressants des deux côtés. On peut avoir un sujet super original et passionnant pour le théâtre mais qui ne met en jeu que des techniques standard en informatique. Ou on peut avoir des idées de techniques informatiques super novatrices qui laissent de marbre les gens de théâtre.

    Binaire : Comment les artistes s’approprient-ils les nouvelles technologies ?

    RR : Les artistes adorent détourner la technologie, faire l’inverse ce qui était prévu. Ils adorent également en montrer les limites. Pour les informaticiens, ce n’est pas toujours facile à accepter. On s’escrime à faire marcher un truc, et l’artiste insiste sur le seul aspect qui met en évidence l’imperfection ! On voit cela comme une déconsidération du travail de recherche. Mais en même temps, les détournements qu’ils imaginent sont passionnants.

    Binaire : Tu observes de leur part une tendance à la technophobie ?

    RR : Ce n’est pas du tout de la technophobie, puisque, par nature, les technophobes ne veulent pas travailler avec nous. Les autres nous aiment bien, mais ils gardent un regard hyper critique. Ce n’est pas facile mais cela rend la collaboration intéressante. Ces questionnements sont finalement très sains.

    Binaire : Et pour parler d’un autre domaine dans lequel tu as travaillé, quels sont les liens entre le jeu vidéo et l’informatique théâtrale ?

    RR : D’un point de vue technique, c’est curieusement assez proche. Je vois quand même une grande différence. En théâtre, on peut expérimenter, alors que dans le domaine du jeu vidéo, c’est difficile et cela représente des efforts de développement énormes. Il y a peu d’industriels du jeu vidéo avec qui on peut mener des expériences. Ils peuvent commander des trucs d’animation par exemple sur des points très techniques, mais ne sont pas du tout dans l’expérience. Le théâtre offre cette possibilité d’expérimenter, de faire de la recherche, parce qu’il est moins industrialisé, plus proche de l’artisanat.

    « Le théâtre est-il une industrie » est d’ailleurs l’objet d’une journée qu’on organise dans le cadre du programme de recherche ICCARE[3].

    Binaire : Et le métavers ?

    RR : Il existe une pratique du théâtre dans le métavers. Des acteurs ont utilisé le métavers pendant la pandémie avec un public distant, avec des casques de réalité virtuelle. C’est du théâtre distribué, qui apporte aux artistes de théâtre une forme d’ubiquité qui est complètement nouvelle pour eux. Un jour, on peut enregistrer un spectacle, et y assister voire participer le lendemain n’importe où dans le monde. Pour la musique, ce phénomène est devenu courant, au théâtre non.

    Aujourd’hui le théâtre est matériel et cela nous parait faire partie de son essence. Mais est-ce absolument nécessaire ? Qu’est-ce que ça changerait, si on avait un théâtre immatériel avec une immersion parfaite en réalité virtuelle ? Des risques existent évidemment comme de voir le modèle publicitaire en vogue coloniser ce nouveau  théâtre. Mais si on arrive à maîtriser ces risques, le métavers ouvre des perspectives folles dans le domaine des arts et de la culture, bien plus intéressantes à mon avis que ses perspectives commerciales.

    Serge Abiteboul, Inria et ENS Paris, et Charlotte Truchet, Université Paris Sorbonne et Ircam.

    [1] Kino-Eye, ou Ciné-Œil, ou Kino Glaz, est à la fois un film et un manifeste du réalisateur et théoricien du cinéma Dziga Vertov, parus ensemble à Moscou en 1924 .

    [2] Répétitions en cours, La fabrique des Monstres de Jean-François Peyret.

    [3] http://pepr-iccare.fr

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Où sont les femmes ? A l’école 42 !

    Un article de binaire parlait déjà de l’école 42 en 2014. On y trouvait certains aspects de la pédagogie intéressants. Cependant, nous avions été surpris par l’absence abyssale de considérations pour la fracture sociale et la question du genre. Carolina Somarriba Pérez-Desoy, qui a acquis ses galons d’informaticienne dans cette école, nous parle des changements pour les femmes. Serge Abiteboul et Chloé Mercier.

    Carolina Somarriba Pérez-Desoy

     

    L’école 42 était la nouvelle réponse (universelle) de ma mère à mes questionnements professionnels.

    Cet établissement créé par Xavier Niel en 2013, faisait souvent les gros titres en raison de sa pédagogie novatrice et de sa gratuité. Cette perspective ne m’enchantait guère : reprendre à zéro des études dans une école qui ne me fournirait pas forcément de diplôme, alors que mes six années d’études dont deux masters en urbanisme ne me suffisaient apparemment pas à trouver un travail ? Pourtant, si je n’arrivais pas à m’imaginer repartir pour des études dans un cadre strict comme celui, par exemple, de Sciences Po, je pouvais envisager de le faire en toute autonomie dans le cadre très différent d’une école singulière. L’alternative était de continuer à enchaîner des entretiens d’embauche déprimants.

    Photo d'une salle de travail à l'école 42.
    Une salle de travail, appelée « cluster » à 42.

    Une rapide recherche internet m’avait révélé l’existence d’une immersion d’une semaine (appelée « piscine Découverte ») qui devait nous apprendre les bases de la programmation web. Elle était destinée aussi bien aux étudiants de 42 qu’aux femmes âgées d’au moins 16 ans, désireuses de tester la pédagogie de l’école. Cette semaine allait déterminer si je me sentais capable de m’intégrer à des jeunes geeks problématiques sur les questions de sexisme. C’était l’image peu flatteuse que je me faisais des étudiants en tech. Certains scandales liés à cette école aidaient à confirmer ces craintes. Entre autres soucis, des listes de classement du physique des étudiantes, une discrimination assumée et des caméras de vidéosurveillance en libre-accès permettant un stalking illimité. Pour moi, l’école 42 paraissait le paradis des harceleurs.

    Je n’avais aucun bagage technique en informatique. Mais tel que le mentionnait l’école, la détermination et l’enthousiasme devaient suffire à combler mes lacunes.

    La découverte de l’école – une semaine « girl power »

    Une bande d’adolescents prépubères aux cheveux gras et aux habits (pyjamas ?) mal lavés, jetant des regards libidineux aux deux seules femmes de l’école. C’est ainsi que j’imaginais mon inconfortable entrée dans l’établissement. La réalité ? Des rangées entières de femmes venues découvrir l’école et des étudiants trop accaparés par leurs projets pour remarquer notre arrivée. Les étudiants, appelés « studs » (pour « students »), participant à cette immersion furent d’une grande assistance et nous encouragèrent toutes à tenter d’intégrer l’école. Malgré cela, la majorité des femmes externes abandonnèrent au cours des deux premiers jours, sentant leur retard se creuser d’heure en heure.

    Il faut dire que pour réussir à suivre (ne serait-ce que de loin) le rythme des studs, il fallait faire des horaires intensifs, et ne pas se laisser abattre par les échecs répétés. Pour autant, celles qui restèrent jusqu’au bout se présentèrent toutes à l’examen d’entrée.

    L’examen d’entrée – un mois de « piscine » décourageant

    L’examen d’entrée, la « piscine », consiste en un mois pendant lequel chaque candidat, appelé « piscineux » doit valider un maximum d’examens et exercices, appelés « days ». Le tout en autonomie, en étant corrigé par ses pairs ainsi que par un algorithme appelé Moulinette. La plupart des scandales liés à l’école ayant fait les grands titres avaient eu lieu pendant cette épreuve. Chose positive cependant, il semblait qu’un changement de direction dans les dernières années avait su rendre l’ambiance moins hostile et plus inclusive, notamment pour les femmes.

    Photo de la salle de pause de l'école.
    La salle de pause, reconvertie en dortoir les soirs de piscine.

    La réalité me parut plus contrastée quand je passai ma piscine en juillet 2022. S’il était bien vrai que beaucoup de progrès avaient été faits depuis le changement de direction, de nombreux comportements problématiques persistaient. Par exemple, il était courant d’entendre dire aux femmes qu’elles seraient favorisées au moment de la sélection et qu’elles pouvaient donc se permettre de maintenir leur niveau minable en programmation.

    Aussi, certaines piscineuses subissaient des pressions en tant que correctrices de la part de groupes d’hommes pour les forcer à valider leurs exercices. Et pendant qu’elles se faisaient corriger leurs travaux, les femmes étaient souvent méprisées par des correcteurs voulant montrer leur présumée supériorité technique. Étant donné l’accès difficile au « bocal », nom donné aux bureaux de l’administration, beaucoup de commentaires dévalorisants et de comportements désobligeants étaient tolérés par les piscineuses ceux-ci étant à la marge de ce qui pouvait être perçu comme suffisamment grave pour se sentir légitimes à les reporter. Cet ensemble pesait lourd sur le moral et poussait beaucoup de femmes à abandonner.

    Une grande partie de ces commentaires et comportements sexistes découlent d’une différence de niveau en informatique entre hommes et femmes. Pourtant, il est connu de tous les piscineux que le critère fondamental de sélection est le delta de progression de chacun plutôt que le niveau final atteint. Ainsi, les candidats sans connaissances préalables ne sont pas désavantagés. Malgré cela, beaucoup de femmes se sentent progresser plus lentement que le reste de leurs camarades masculins et se demandent si elles ont leur place dans l’école. En effet, ce sont quasi-exclusivement des hommes qui figurent dans le top 10 du classement de chaque piscine, qui ne prend en compte que le niveau atteint.  

    Au fil du temps, afin de limiter le nombre d’abandons féminins et de réduire les différences de niveau homme/femme, l’école avait mis en place plusieurs mesures.

    Pour commencer, l’école prit l’initiative d’instaurer un « Tea Time », une réunion hebdomadaire de trois heures animées par la directrice de l’école et d’autres membres féminins du staff. Celle-ci devait remotiver les femmes qui hésiteraient à abandonner la piscine. Beaucoup y ont trouvé des camarades avec qui travailler, plus proches de leur niveau et plus réceptives aux difficultés rencontrées. Personnellement, je n’ai assisté qu’à une seule d’entre elles, car je l’ai trouvée profondément déprimante. Trois heures de témoignages négatifs, de dénonciations de comportements inappropriés, ainsi que de nombreux craquages psychologiques en direct, c’était trop pour moi. Les retours de cette initiative ont néanmoins été positifs, beaucoup de femmes ayant trouvé le soutien émotionnel nécessaire pour se motiver à terminer la piscine. Ces séances avaient également aidé à se défaire d’éventuels syndromes de l’imposteur, et donc à se faire une place légitime dans l’école. Ces réunions ont aussi révélé des témoignages positifs sur des hommes prenant la défense de leurs collègues féminines face à des comportements déplacés.

    Ensuite, afin de favoriser l’entraide, et ainsi pallier les différences de niveau, l’école avait instauré le Voxotron, un système de votes hebdomadaire dans lequel tout piscineux pouvait voter pour les dix camarades l’ayant le plus aidé dans la semaine. Un candidat ne recevant aucun vote, même ayant atteint un niveau un élevé, ne serait pas sélectionné pour intégrer l’école. Cela devait forcer tous les candidats à aider leur prochain, et donc notamment à aider leurs camarades féminines, dont le vote était important.

    Malheureusement, d’autres initiatives dans cette même veine se retrouvaient contournées. C’était notamment le cas du système d’appariement des groupes de « rush », des projets communs ayant lieu pendant le weekend. Les meilleurs piscineux, généralement des hommes, préféraient parfois faire tout le travail seuls plutôt que de collaborer avec leurs camarades moins expérimentés, cela afin d’avancer plus vite. Cette attitude frustrait tant les hommes que les femmes en difficulté, qui auraient voulu profiter de cette opportunité pour progresser. Pour autant, cela semblait davantage affecter les femmes, plus enclines à travailler en groupe et qui semblaient plus souvent dérangées à l’idée de présenter un projet auquel elles n’avaient pas contribué. Cependant, lorsque les membres travaillaient en groupe, ces séances de rush étaient des moments de rencontre importants. Ils permettaient notamment de former des groupes de travail pour la suite ainsi que de se faire des connaissances à qui demander de l’aide. En bref, les rush étaient des moments généralement très appréciés et édifiants.

    Le cursus – deux années plus équilibrées

    Avec la baisse des inégalités de niveau à la fin de la piscine, s’étaient également réduits les comportements sexistes. De plus, j’avais été agréablement surprise de voir que les réclamations faites pendant la piscine avaient été prises très au sérieux par l’administration, qui avait refusé les candidats les plus problématiques. Même si certains comportements sexistes persistaient, ils étaient beaucoup moins importants. La piscine ayant permis aux femmes de rattraper une grande partie de leur retard technique et leur ayant permis de s’affirmer en ayant gagné en légitimité. Pendant le cursus, les femmes étaient loin d’être invisibles dans les « clusters » (salles de travail). Les amitiés et groupes de travail homme/femme étaient la norme.

    En 2024, alors que je viens de terminer mon cursus, les femmes ont obtenu un taux record de 46% de participation aux piscines de février et mars, et représentent environ 25% des étudiants. Ce nombre de femmes grandissant et avec une administration sensible et volontaire à atteindre la parité, être une femme à 42 est de plus en plus agréable au fil des années. Personnellement, j’ai mal été orientée dans mes choix d’études, car on partait du principe que je serais plus épanouie dans un milieu plus mixte et moins technique. Je me suis donc dirigée tard vers l’informatique, à mon grand regret.

    Cette école est très dure mais, si on est motivé et curieux, c’est aussi un lieu de rencontres incroyable. J’encourage tout le monde à venir essayer, en particulier les femmes, pour faire en sorte que l’informatique ne soit plus un secteur majoritairement masculin.

    Carolina Somarriba Pérez-Desoy, informaticienne

  • Quel(s) numérique(s) pour demain dans un monde contraint en matière et en énergie ?

    Alors que le numérique s’impose dans tous les aspects de notre quotidien, ses impacts environnementaux interrogent.
    Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia, et Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria, nous partagent ici des réflexions émergentes sur comment repenser le numérique pour le rendre compatible avec les contraintes environnementales et énergétiques, tout en lui permettant de contribuer à la construction de sociétés plus résilientes et soutenables ?
    Antoine Rousseau et Thierry Viéville .

    Cheminement du numérique dans un monde en transition
    Chemins de transition, 2022


    Les discussions sur les impacts environnementaux du numérique gagnent en importance, s’inscrivent dans les pratiques professionnelles et commencent même à s’institutionnaliser, notamment en France mais aussi dans d’autres pays, comme la Suisse, la Belgique et le Québec [1].

    Ces initiatives convergent vers une conclusion commune : la nécessité de maîtriser les impacts environnementaux du développement numérique pour ne pas compromettre les efforts de transition socio-écologique. 

    Dans ce contexte, la notion de “sobriété numérique” émerge comme une réponse : elle se concrétise par diverses stratégies visant à prolonger la durée de vie des équipements, alléger les services numériques et réduire leur consommation énergétique. Bien que ces initiatives soient encourageantes et méritent d’être soutenues, elles restent toutefois insuffisantes face aux trajectoires insoutenables de la numérisation. 

    En réalité, l’enjeu dépasse la simple optimisation technologique. Le numérique s’intègre dans toutes les sphères de la société, y compris celles qui portent directement atteinte à l’intégrité de la planète[2]. Des optimisations appliquées sans discernement risquent ainsi d’amplifier des activités insoutenables, comme le minage de cryptomonnaies  ou l’exploration pétrolière automatisée. Par ailleurs, le développement numérique repose largement sur des modèles d’affaires axés sur l’accumulation perpétuelle, qu’il s’agisse d’appareils connectés ou de données collectées, qui doivent également être remis en question pour réorienter les trajectoires actuelles.

    La course effrénée à l’intelligence artificielle (IA) générative, la multiplication d’objets connectés et de centres de données illustrent des dynamiques incompatibles avec un cadre de soutenabilité à long terme, même avec les meilleures stratégies d’optimisation. À cela s’ajoute la menace grandissante de l’épuisement progressif de ressources essentielles aux technologies numériques, notamment certains métaux critiques.

    Rendre le développement numérique compatible avec la transition socio-écologique exige une remise en question profonde des dynamiques dont il dépend et de sa compatibilité avec les contraintes énergétiques, climatiques et matérielles à venir. Il s’agit alors de le prioriser collectivement, d’en définir les paramètres de déploiement, et d’inventer de nouveaux rapports aux technologies qui sont à la fois véritablement utiles et durables. L’optimisation, prise isolément, n’est pas suffisante pour atteindre la sobriété : elle n’a de sens que lorsqu’elle s’inscrit dans un système qui intègre et respecte les contraintes socio-écologiques, et nécessite des efforts de formation adaptés

    Une priorisation dans d’autres secteurs

    La réflexion entre optimisation et sobriété dépasse le numérique et s’inscrit plus généralement dans le cadre de la transition socio-écologique. Ainsi, les optimisations techniques, telles que celles observées dans les véhicules électriques ou les systèmes de chauffage bas carbone ne sont véritablement efficaces que lorsqu’elles s’intègrent dans des systèmes repensés : une mobilité axée sur le collectif, des habitats mieux isolés, le tout soutenu par des énergies renouvelables. 

    Cette problématique se pose également dans d’autres secteurs, où les impacts environnementaux et la disponibilité des ressources rendent la question plus pressante. En France, par exemple, le Secrétariat général à la planification écologique (SGPE) propose une hiérarchisation des usages de la biomasse locale (page 15), privilégiant la souveraineté alimentaire à la production de biocarburants pour l’aviation civile, le chauffage ou la production énergétique.

    De même, l’hydroélectricité québécoise fait face à une multiplication de projets industriels sollicitant son accès. Depuis 2023, tout projet de plus de 5 mégawatts doit obtenir l’approbation du ministère de l’Énergie, suite à une demande d’Hydro-Québec.  Ce changement législatif, initié par la société d’État responsable de la production électrique, répond à son incapacité à satisfaire toutes les demandes de raccordement. La priorisation s’opère selon des critères définis : les capacités techniques de raccordement et les incidences sur le réseau électrique du Québec, les retombées sur l’économie et le développement régional, l’impact environnemental et social, ainsi que la cohérence avec les orientations gouvernementales.

    Prioriser les projets numériques utiles ?

    Les réflexions autour de la priorisation commencent à émerger également dans les travaux récents consacrés au numérique et à l’IA responsable, notamment à travers le prisme de l’utilité. Le Référentiel général d’écoconception de services numériques, porté par l’ARCEP, invite ainsi à mettre en dialogue l’utilisation d’un service avec ses impacts environnementaux. De même, le  Référentiel général pour l’IA frugale de l’Afnor souligne que toute analyse technique doit être précédée d’une réflexion sur les besoins et usages, en s’assurant qu’ils “visent à rester dans les limites planétaires et ont été préalablement questionnés”. Par ailleurs, la Net Zero Initiative for IT va encore plus loin en établissant des critères d’éligibilité pour qu’un service numérique puisse prétendre éviter des émissions de gaz à effet de serre. Ces critères incluent le secteur d’activité de l’entreprise, excluant explicitement les industries considérées comme structurellement contraires aux objectifs de développement durable de l’ONU, comme l’extraction ou l’exploration d’énergies fossiles, l’industrie du tabac ou encore la pornographie (cette dernière considérée comme contraire aux objectifs 3 et 5, voir page 21 de la méthodologie).

    L’émergence de ces cadres méthodologiques amène dans le débat une question fondamentale commune à ces différentes initiatives : qu’est-ce qu’un numérique utile ?

    La question n’est pourtant pas si nouvelle, puisque depuis l’essor du numérique au 20ᵉ siècle, deux visions antagonistes se dessinent quant à sa finalité. La première, largement dominante, aborde le numérique comme un outil de substitution, destiné à exécuter des tâches à la place des humains. Cette approche, qui est omniprésente dans l’industrie et le quotidien (des caisses automatiques aux applications de guidage GPS), vise avant tout la maximisation des profits et le gain de temps. Pourtant, ce “gain de temps” s’accompagne paradoxalement d’un sentiment d’accélération : le temps libéré est immédiatement réinvesti dans des activités productives, comme l’illustrent les enchaînements de réunions en visioconférence, sans pauses permises par les déplacements physiques. Cette approche crée également une dépendance, en dépossédant les utilisateurs de compétences auparavant essentielles. Par exemple, l’usage systématique des applications de guidage via GPS pour générer et suivre un itinéraire élimine la nécessité de maîtriser la géographie ou les repères topologiques.

    À l’inverse, une seconde vision promeut un numérique au service de la complémentarité. Ici, l’objectif principal est d’aider les individus à apprendre et à agir. Le projet “Back to the Trees”, par exemple, propose un outil éducatif minimaliste qui accompagne les utilisateurs dans l’identification des plantes à travers un questionnaire reprenant les caractéristiques d’identification des livres de botaniste. Ce numérique “low-tech” favorise l’acquisition de savoir de façon ludique tout en consommant peu de ressources. 

    Au-delà des projets futurs, on peut légitimement se demander si ce questionnement de l’utilité, largement invisibilisé dans le débat public jusqu’à présent, ne devrait pas également concerner l’existant.

    Que faire des usages existants, incompatibles avec une transition à long terme ?

    L’univers numérique est en constante évolution et il est certainement plus facile de planifier ou de réorienter des projets qui n’existent pas encore plutôt que de le faire une fois déployés. Se pose cependant la question de la possibilité de faire atterrir l’univers numérique actuel dans le cadre des limites planétaires. Avec le déclin des ressources naturelles (métaux, minéraux, eau, énergie, etc.) et l’aggravation des aléas climatiques, il devient impératif d’évaluer la compatibilité de nos infrastructures numériques, dont nos modes de vie dépendent de plus en plus, avec un avenir marqué par ces contraintes. 

    Au-delà de la raréfaction des ressources nécessaires à leur fonctionnement, ces infrastructures devront également affronter des conditions climatiques de plus en plus difficiles. Sécheresses, montées des eaux, inondations et stress hydrique sont autant de phénomènes dont la fréquence et l’intensité continueront à croître. Or, les infrastructures numériques sont particulièrement vulnérables à ces risques. 

    Par exemple, selon l’intensité des aléas climatiques, les réseaux numériques, notamment essentiels pour l’électricité, les communications, et le transport, pourraient subir des déformations structurelles, voire des ruptures, à cause des vagues de chaleur, des vents violents ou des inondations extrêmes. Cette fragilité est exacerbée par la complexité et l’interdépendance de ces infrastructures : une simple défaillance dans un élément critique, même situé à l’extérieur d’un territoire donné, peut entraîner sa déconnexion totale. Bien que renforcer leur résilience soit possible, cela nécessiterait une redondance accrue des infrastructures, impliquant à son tour une consommation accrue de ressources.

    Imaginer un numérique compatible avec un futur contraint

    Dans ce contexte, une réflexion s’impose : à quoi ressembleraient des infrastructures, appareils, modèles d’affaires et usages numériques compatibles avec des sociétés limitées en ressource tout en étant résilients face à l’augmentation des risques climatiques? Cette question, cruciale, nous invite à nous projeter dans l’avenir pour mieux éclairer les choix collectifs à faire aujourd’hui. 

    – Quelles branches existantes de l’univers numérique actuel pourraient rester pertinentes, voire devenir essentielles, pour soutenir des sociétés plus soutenables et résilientes ?
    – Quelles branches pourraient être repensées pour répondre aux nouvelles contraintes ?
    – Quelles branches sont fondamentalement incompatibles avec ces perspectives et nécessitent une redirection, un renoncement ou un abandon ?

    Ces questions peuvent être traduites en implications opérationnelles. Par exemple, les systèmes d’IA particulièrement énergivores, comme ceux basés sur des modèles de langage massifs (LLM), sont-ils compatibles avec un monde aux ressources limitées ? Est-il raisonnable de rendre nos sociétés toujours plus dépendantes de ces technologies ?

    Planification et priorisation : un impératif pour le numérique

    Pour devenir compatible avec le cadre des limites planétaires, en réduisant ses impacts directs et en renforçant sa résilience, le numérique devra s’éloigner de ses paradigmes expansifs actuels. Il devra s’inscrire dans une logique de planification et de priorisation. Allant dans ce sens, la Commission de l’Éthique en Science et Technologie (CEST) du Québec a récemment rédigé un avis complet de 112 pages sur l’impératif de la sobriété numérique, appelant explicitement dans ses recommandations à enclencher rapidement une démarche de réflexion sur la priorisation des usages du numérique.

    Quelques questions majeures subsistent pour accompagner ces transformations, notamment :
    – Comment opérationnaliser ces arbitrages ? 
    – À quelle échelle agir, et qui doit être impliqué dans ces décisions ?
    – Sur quels critères éthiques, sociaux, environnementaux, économiques, voire opérationnels, peut-on fonder ces choix ?

    Plusieurs individus et collectifs explorent ces questions essentielles, offrant des pistes de réflexion qui méritent que l’on s’y attarde. Bien sûr, aucun ne propose de solution prête à l’emploi, et c’est compréhensible : prioriser le numérique implique de le recontextualiser, de le repolitiser, et donc de nourrir des discussions et des choix collectifs. Parmi les initiatives notables, certains tentent de définir les contours d’un numérique alternatif, que ce soit à travers l’Alternumérisme radical ou le concept de Numérique d’Intérêt Général. Pour envisager une réelle redirection des systèmes techniques vers un cadre de soutenabilité non basé sur des formes de “technologies zombies”, Alexandre Monnin et ses collègues rappellent l’importance de cartographier nos attachements, qu’ils soient positifs ou contraignants. Mobilisant des approches prospectives et participatives, Chemins de transition explore les implications sociétales d’une convergence entre transition numérique et transition socio-écologique. Le groupement de recherche CNRS “Centre internet et société” propose des pistes de réflexion à travers son groupe de travail “Politiques environnementales du numérique”. Enfin, la conférence annuelle LIMITS rassemble des recherches qui esquissent un système d’information en phase avec un monde limité, qu’il s’agisse de réinterroger l’internet des objets avec le cadre des limites planétaires ou d’imaginer des approches de désescalade numérique.

    Vers le fini, et pas au-delà

    Adapter le numérique aux défis de demain exige de dépasser les défis technologiques et nous invite à nous engager dans une réflexion collective sur les modalités de son déploiement dans nos sociétés. Utiliser des critères éthiques, démocratiques, environnementaux et sociaux devient alors incontournable pour guider une redirection du numérique afin de le rendre compatible avec la transition vers des modes de vie plus soutenables. Il s’agit de décider collectivement de quel numérique nous voulons, de se donner les moyens de le faire advenir et de renoncer aux formes insoutenables.

    Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia,
    Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria

    [1] Quelques exemples d’initiatives en dehors de France :
    https://isit-ch.org
    https://isit-be.org
    https://w3c.github.io/sustyweb
    https://agitquebec.org
    https://cheminsdetransition.org/les-ressources/defi-numerique
    https://www.obvia.ca/recherche/axes/sobriete-numerique-et-transition-socio-ecologique
    https://www.linkedin.com/company/collectif-numerique-responsable-soutenable/posts
    https://ethique.gouv.qc.ca/media/wayd3cqj/cest_avis-sur-la-sobri%C3%A9t%C3%A9-num%C3%A9rique.pdf

    [2] Martin, J. et Durand Folco, J. (2023) Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle. Écosociété.

  • De l’impact de l’IA sur les industries culturelles et créatives.

    La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’Intelligence Artificielle (IA) sur les métiers, en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, Erwan Le Merrer, Président du Conseil Scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

    Bonjour Quentin, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ? 

    Je suis co-fondateur et directeur de l’innovation de  Dada ! Animation, un studio d’animation 2D et 3D orienté « nouvelles technologies » (entendre moteurs de jeux / temps réel, Réalité Virtuelle et Augmentée / XR, ou IA) appliquée à l’animation pour la TV, le cinéma, le web et les nouveaux médias immersifs et de réseaux. 

    De formation ingénieur en Design Industriel de l’Université de Technologie de Compiègne (1994), j’ai basculé vers le monde de l’animation 3D et des effets spéciaux en 1999, en retournant un temps à l’École des Gobelins. J’ai travaillé dans ces domaines en France dans de nombreux studios de différentes tailles, en Allemagne et aux USA (chez ILM, par exemple) et j’ai fondé en 2019 ce nouveau studio suite à des expérimentations réussies avec mes collègues cofondateurs dans une autre structure, où nous basculions les process classiques de la 3D dite « précalculée » vers le « temps réel » (via l’utilisation de moteurs de jeux vidéo comme Unity ou Unreal Engine) et vers la Réalité Virtuelle comme aide à la réalisation. Ces expérimentations nous ont d’ailleurs apporté à l’époque un prix Autodesk Shotgun à la conférence  SIGGRAPH 2019 à Los Angeles. 

    Capitaine Tonus : série d’animation ludo-éducative produite par Dada ! Animation pour Disney Channel, Lumni, TV5 Monde, RTBF, ERR, beIN.© 2024 Dada ! Animation – All rights reserved


    Nous avons passé le pas et focalisé Dada ! Animation sur ces approches nouvelles, auxquelles s’ajoutent maintenant les IA Génératives (IAG) que nous scrutons de près. Nous travaillons par ailleurs aussi sur des thèmes éditoriaux spécifiques et éthiques : le ludo-éducatif, le documentaire, la science, l’écologie, l’inclusivité, etc. 

    Mon travail consiste en énormément de veille technique et de détection de talents nouveaux adaptés à ces approches, en l’organisation de tests, et de préconisations en interne. Je dialogue ainsi beaucoup avec les écoles, les institutions du métier ( Centre National du Cinéma,  Commission Supérieure Technique,  CPNEF de l’Audio-Visuel…) et des laboratoires avec lesquels nous travaillons par ailleurs, pour leur faire des films (CNRS, CNSMDP, INRIA, …), pour tester des solutions techniques (IRISA, Interdigital, …) ou pour de la recherche. 

    Je coordonne d’ailleurs en ce moment un projet ANR, intitulé «  Animation Conductor »,  en collaboration avec l’IRISA, Université de Rennes 1 et LIX, Ecole Polytechnique, sur de l’édition d’animation 3D par la voix et les gestes. 

    L’Archéoconcert : Past Has Ears at Notre-Dame (PHEND). Film réalisé par Dada ! Animation pour le CNRS-Sorbonne Université et le Conservatoire National Supérieur de Musique et de Danse de Paris. © 2024 CNRS – Sorbonne Université – CNSMDP


    Enfin, je suis un membre actif du groupe de travail interstructurel 
    Collectif Creative Machines, regroupant des labos, des studios, des écoles et tout professionnel francophone intéressé par la réflexion sur les impacts des IAG dans nos métiers. 

    En quoi pensez-vous que l’IA a déjà transformé votre métier ? 

    Elle l’occupe déjà beaucoup rien qu’en veille et en colloques, en termes d’inquiétude et de discussions sans fin ! Je passe personnellement au moins 20% de mon temps à en évaluer et en parler… L’IA n’est bien-sûr pas nouvelle dans nos métiers de l’image de synthèse, bourrés d’algorithmes de toutes sortes, renouvelés régulièrement. On utilise même des algorithmes de modification d’images proches de modèles de diffusion (la même famille que Midjourney) depuis 10 ans (par exemple les « denoisers » de NVIDIA, qui accélèrent le rendu final d’images de synthèse), mais bien-sûr, j’imagine que « l’IA » dont on parle ici est celle, de nouvelle génération, souvent générative, propulsée par les récentes avancées des Transformers ou CLIP et par des succès techniques comme ceux d’OpenAI, Runway, Stability, Midjourney, etc. 

    Pour le monde de l’animation, tout ce qui touche le texte (les scénarios, mais aussi le code, très présent) est bien-sûr impacté par les grands modèles de langage (LLMs), mais, j’ai l’impression que c’est principalement en termes d’aide à l’idéation ou pour accélérer certains écrits, jamais au cœur ou en produit final (des problèmes de droits d’auteurs se poseraient alors aussi !), du moins pour du média classique. Pour ce qui est de l’image, idem : pour la partie du métier qui ne la rejette pas complétement (c’est un sujet radioactif du fait des méthodes d’entraînement disons « agressives » vis-à-vis des droits d’auteurs et du copyright), au mieux les IAG sont utilisées en idéation, pour de la texture, quelques fois des décors (ce qui pose déjà beaucoup de problèmes éthiques, voire juridiques). Il n’y a pas encore de modèles intéressants pour générer des architectures 3D propres, de la bonne animation, etc. Et pour cause, les données d’entraînement pertinentes pour ce faire n’ont jamais été facilement accessibles à la différence des images finales ! On n’a pas accès aux modèles 3D d’Ubisoft ou de Pixar… 

    Making-of des séquences animées réalisées par Dada ! Animation pour le pilote du documentaire « Ils étaient des millions ». © Seppia – Indi Film – Arte


    En revanche, les mondes des effets spéciaux visuels (VFX) et du son, en particulier de la voix, ont accès déjà à des modèles puissants de traitement d’images et de sons réels, et de nombreux studios commencent à les intégrer, surtout pour des tâches lourdes et ingrates : détourage, rotoscopie, relighting, de aging/deepfake, doublage, etc. 

    Des défis juridiques et éthiques demeurent tout de même pour certaines de ces tâches. Les comédiens par exemple, luttent pour garder bien naturellement le contrôle professionnel de leur voix (une donnée personnelle et biométrique qui plus est). De nombreux procès sont encore en cours contre les fabricants des modèles et quelques fois contre des studios ou des diffuseurs. Mais il est difficile de ne pas remarquer un lent pivot de l’industrie Hollywoodienne vers leur utilisation (par exemple par l’accord Lionsgate x Runway, James Cameron au board de Stability, des nominations chez Disney, etc.) et ce, alors que ces sujets furent pourtant au coeur des grèves historiques des réalisateurs, acteurs et auteurs de l’année dernière ! 

    On peut parler d’une ambiance de far west dans ces domaines, tant il y a d’incertitudes, qui se rajoutent en ce moment au fait que la conjoncture dans l’audiovisuel et le jeu video est catastrophique et ne promet pas de s’arranger en 2025 (cf. les chiffres du secteur par le CNC au RADI-RAF 2024

    A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ? 

    Pour les effets spéciaux, il devient absurde d’imaginer faire du détourage, du tracking et de la rotoscopie encore à la main dans les mois qui viennent (et c’était le travail d’entreprises entières, en Asie entre autres…) De même, les tâches de compositing, relighting, etc. vont être rapidement augmentées par des modèles génératifs, mais, je l’espère, toujours avec des humains aux commandes. On risque d’ailleurs de voir diverses tâches « coaguler » autour d’une même personne qui pourra techniquement les mener toutes à bien seule, mais pour laquelle la charge mentale sera d’autant plus forte et les responsabilités plus grandes ! On a déjà vécu cela lors de l’avènement des outils de storyboard numérique qui permettaient d’animer, de faire du montage, d’intégrer du son, etc. Moins d’artistes ont alors pu, et dû, faire plus, dans le même laps de temps, et sans être payés plus chers puisque tout le monde fut traité à la même enseigne et que la compétition fait rage…

    Les Designers aussi commencent à voir de leur travail s’évaporer, surtout dans les conditions actuelles où la pression est forte « d’économiser » des postes, sur des productions qui pensent pouvoir se passer d’un regard humain professionnel remplacé par quelques prompts. Cela peut en effet suffire à certaines productions, pour d’autres, c’est plus compliqué. 

    Sinon, dans les process d’animation 3D, ce ne sont pas des métiers, mais des tâches précises qui pourraient être augmentées, accélérées (texture, dépliage UV, modélisation, rig, certains effets). Mais honnêtement, vu la conjoncture, l’avènement des IA de génération vidéo qui court-circuitent potentiellement tout le processus classique, de l’idée de base à l’image finale, vu l’apparition des IA dites « agentiques » qui permettent à des non-codeurs de construire temporairement des pipelines entiers dédiés à un effet, et vu l’inventivité habituelle des techniciens et artistes, il est en fait très dur d’imaginer à quoi ressembleront les pipelines des films et des expériences interactives dans 5 ans, peut-être même dès l’année prochaine ! Et c’est bien un problème quand on monte des projets, des budgets, et encore pire, quand on monte des cycles de formations sur plusieurs années… (la plupart des très nombreuses et excellentes écoles d’animation, VFX et Jeu Vidéo françaises ont des cursus sur 3 à 5 ans). Certains prédisent l’arrivée avant l’été 2025 des premiers studios « full AI ». Cela ne se fera en tous cas pas sans douleur, surtout dans le climat actuel. 

    Développement Dada ! en collaboration avec l’IRISA pour une description « universelle » de contrôleurs d’animation 3D entre logiciels. © 2024 Dada ! Animation – All rights reserved


    Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ? Pouvez-vous préciser quelles formations, à quel niveau ? / Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique. 

    De plus grosses entreprises, selon leurs projets, peuvent embaucher des data scientists et ingénieurs en apprentissage machine, mais la réalité pour la majorité des petits studios est qu’on travaille avec les outils disponibles sur le marché. Au pire, une petite équipe de développeurs et « TD » (Technical Directors, postes paradoxalement entre la R&D et les graphistes) vont faire de la veille des modèles (si possibles disponibles en open-source) à implémenter rapidement (en quelques heures ou jours) dans des solutions de type ComfyUI, Nuke, Blender où ils ont de toute façon la charge de coder des outils. On ne change donc pas vraiment de profils recherchés car ceux-ci étaient déjà nécessaires pour maintenir les productions. En revanche, il est important de trouver des profils qui ont une appétence pour ces nouvelles approches non déterministes et qui aiment « bricoler » des dispositifs qui pourront changer d’une semaine à l’autre au fil des publications scientifiques… C’est tout de même assez typique de profils VFX je pense, même si les rythmes d’adaptation sont plus soutenus qu’avant.

    Pour ce qui est de la formation, il est indispensable pour ces postes qu’ils connaissent ces métiers. Ils doivent donc être issus de nos écoles d’animation / VFX, mais elles ne peuvent former qu’en surface à ces outils car ils changent trop souvent, ils remettent en cause pour l’instant trop de pipelines, et ne permettent pas de créer de cursus stables ! 

    Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables? 

    Tous ceux dont je viens de parler : les techniciens des pipelines, les ITs et a minima les managers pour qu’ils en comprennent au moins les enjeux. 

    Les artistes sont habitués à apprendre de nouveaux algorithmes, qui viennent chacun avec leur particularités. Mais si les nouvelles méthodes impactent trop la distribution des métiers, ce sont les équipes entières qui devront les reconstruire. 

    Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables?

    Cela dépend de leur métier, mais je pense qu’on arrive vers un nouveau paradigme de l’informatique, avec de nouveaux enjeux, de nouvelles limites et possibilités. Tout le monde devrait a minima être au courant de ce que sont ces IAG, et pas que pour leur métier, mais aussi pour leur vie personnelle, pour les risques de deepfake temps réel et autres dangers ! Ca donnera d’ailleurs vite la mesure de ce qu’on peut en faire en terme d’audio-visuel.

    Animation Keyframe en VR chez Dada ! Animation. © 2024 Dada ! Animation – All rights reserved


    Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA? 

    Quand des technologies des médias évoluent autant, on s’attend à un enrichissement des œuvres (elles pourraient devenir toutes immersives, 8k, 120 images/secondes, avec de nouvelles écritures, plus riches, etc.) et/ou à leur multiplication et potentiellement à un boom de l’emploi. C’est arrivé avec le numérique, la 3D, l’interactif, les plateformes… D’ailleurs avec un impact environnemental conséquent. Cependant, on arrive dans un moment économique compliqué et le « marché de l’attention » semble saturé : l’américain moyen consomme déjà 13h de media par jour, à plus de 99% produits pour les nouveaux réseaux (tiktok, instagram, etc.) et le reste classiquement (cinéma, TV, jeux). 

    Ces médias classiques restent tout de même encore majoritairement consommés, mais nous souffrons déjà de ce que j’appellerais une « malbouffe numérique », addictive, trop présente, trop synthétique, et pas que côté média, en journalisme aussi, pour la science en ligne, etc. 

    On imagine alors mal ce que la baisse de la barrière à l’accès de la création d’effets numériques, que propose l’IAG, va apporter de positif. Sans doute pas moins de « contenus », mais aussi, et même s’ils étaient de qualité, sans doute pas non plus pour un meilleur soin de notre attention, ni de notre environnement vu l’impact du numérique – et encore plus s’il est lesté d’IAG – sur l’énergie et l’eau. 

    C’est aussi ce mélange de crises existentielles, sanitaires et environnementales que traverse le monde des médias en ce moment. 

    Nous n’avons pas encore géré la toxicité des réseaux sociaux qu’une vague générative artificielle arrive pour a priori l’accentuer à tous égards. 

    Il serait bon, peut-être vital même, que les chercheurs et entrepreneurs du domaine s’emparent de ces questions, avec les créateurs. Une des voies assez naturelle pour cela est de rencontrer ces derniers sur leur terrain : plutôt que d’apporter des solutions hyper-technologiques qui cherchent des problèmes à résoudre, qu’ils entendent ce que les créateurs professionnels demandent (pas le consommateur lambda subjugué par des générateurs probabilistes de simulacres d’œuvres, même s’il doit être tentant, j’entends bien, de créer la prochaine killer app en B2C), qu’ils comprennent comment ils travaillent, avec quelle sémantique, quelles données, quels critères, et quels besoins (vitaux, pour « travailler » leur art) de contrôle. 

    J’en croise de plus en plus, de ces chercheurs et entrepreneurs interrogatifs sur les métiers qu’ils bousculent, qu’ils « disruptent », et qui sont avides de discussions, mais les occasions officielles sont rares, et la pression et les habitudes des milieux de la recherche, de l’entreprenariat et de la création sont quelques fois divergents. On devrait travailler d’avantage à les croiser, dans le respect de ce qui reste naturellement créatif de part et d’autre. 

    Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, interviewé, par Erwan Le Merrer, avec le concours de la SIF.

     

  • Cartographie des formations incluant la thématique de la sobriété numérique dans l’Enseignement Supérieur en France

    Pour comprendre comment améliorer notre sobriété numérique face au défi de préservation de la planète nous avons besoin de faits et d’information. Chiara Giraudo, Ingénieure Pédagogique au CNRS et Jean-Marc Pierson, Professeur en informatique et Directeur de l’IRIT, dans le cadre du programme Alt Impact, partagent ici, dans le cadre du programme Alt Impact [0] partage ici un état des lieux des diplômes et des formations délivrés dans l’ESR sur la sobriété numérique, afin de formaliser une cartographie mettant en lumière les éventuelles pénuries de diplômes selon les territoires, disciplines, et années d’étude. L’analyse de cette cartographie permet de définir une stratégie d’action de formation sur la thématique de la sobriété numérique dans l’ESR. 
    Bienvenue aux futurs étudiant·e·s, et aux futurs employeur·e·s. Et c’est aussi un bel exemple d’étude scientifique partagée de manière citoyenne avec le large public.  Benjamin Ninassi et Thierry Viéville.

    État des lieux et perspectives – mai 2024 

    Face aux enjeux environnementaux et sociaux, l’impact du numérique suscite une préoccupation croissante. Annuellement, l’impact environnemental du numérique est estimé à 2,5% de l’empreinte carbone de la France et correspond à près de 10% de sa consommation électrique[1]. Cet article vise à fournir des éléments de réflexion et des données concrètes pour mieux appréhender l’enjeu de la sobriété numérique dans l’enseignement supérieur et la recherche (ESR), un secteur clé dans la transition écologique. Ainsi, pour l’année universitaire 2023-2024, 2,92 millions d’étudiant.e.s se sont inscrit.e.s à un cursus de l’enseignement supérieur, soit près de 10% de la population active en France.

    Méthode

    Nous avons recensé les diplômes de l’enseignement supérieur via la base de données de France Compétences. Dans cette base de données, les diplômes et certifications sont classés en deux catégories : les fiches RNCP (Répertoire National des Certifications Professionnelles), qui valident la maîtrise de compétences spécifiques à un emploi-type, et les fiches RS (Répertoire Spécifique), qui concernent les habilitations et certifications attestant de compétences transversales. Nous avons focalisé notre recherche sur les fiches RNCP, afin de repérer la présence d’enseignements sur la sobriété numérique dans les certifications menant à un métier.

    Il est important de préciser que les fiches RNCP sont associées à des diplômes et certifications. Autrement dit, ce sont des documents répertoriant les compétences et activités acquises par les titulaires de cette certification. Les formations, quant à elles, sont des programmes organisés dans le temps et pour un certain nombre d’étudiant.es.  Les fiches RNCP sont composées d’un résumé de la certification, dans lequel les activités visées ainsi que les compétences attestées et compétences transversales sont explicitement citées. C’est spécifiquement dans ce résumé que nous avons recherché la présence de mots-clés en rapport avec la sobriété numérique. Pour concevoir cette liste de mots-clés, nous nous sommes appuyés sur le Formacode[2], ainsi que sur les sites de l’Onisep, de France Compétences, de France Travail, et sur la page Wikipédia dédiée à l’informatique durable.

    Résultats

    La base de données de l’ensemble des résultats est en consultation et téléchargement libre. Au 25 mai 2024, 108 fiches RNCP actives contiennent un mot-clé lié à la sobriété numérique. En recherchant chaque fiche sur le site de l’ONISEP, nous avons identifié un total de 531 formations associées, réparties en France Métropolitaine et dans les Départements et Régions d’Outre-Mer. 

    Répartition des diplômes et formations sur la sobriété numérique dans l’ESR par
     spécialité de formation
     (basé sur la NSF de l’INSEE)

    Nombre de diplômes Nombre de formations

    Nous observons que les disciplines offrant le plus grand nombre de diplômes et de formations en sobriété numérique sont l’informatique et l’industrie. En revanche, les cursus en droit, formation, et sciences humaines sont peu nombreux à intégrer des compétences liées à la sobriété numérique. Par exemple, le Master « Droit de l’Environnement » de l’Université de Montpellier mentionne dans sa fiche RNCP la compétence « Respecter les principes d’éthique, de déontologie et de responsabilité environnementale ». Cependant, la notion de sobriété numérique n’est pas explicitement mentionnée.

    Titre du diplôme

    Niveau de diplôme

    Nombre de diplômes

    Nombre de formations

    Baccalauréat, Titre professionnel

    4

    1

    20

    DEUG, BTS, DUT, DEUST

    5

    9

    44

    Licence, licence professionnelle, BUT

    6

    24

    181

    Master, diplôme d’ingénieur

    7

    74

    286

     

     Total

    108

    531

    Nombre de diplômes et de formations sur la sobriété numérique, par niveau et titre du diplôme

    Il apparaît ici que les enseignements sur la sobriété numérique se concentrent principalement sur les niveaux de diplôme 6 (Licences et BUT) et 7 (Masters et diplômes d’Ingénieurs). Sur un total de 108 diplômes liés à la sobriété numérique et délivrés en France, plus de 68% correspondent au niveau Master

     

    Répartition des effectifs étudiant.e.s et nombre de formations en sobriété numérique par Région, (2022-2023) (Carte interactive)

    Départements et Régions d’outre-mer

    Département

    Nombre de formations

    Guadeloupe

    1

    La Réunion

    5

    Mayotte

    1

    Nouvelle-Calédonie

    3

    Indication de lecture : La Région Île-de-France accueille 27% de l’effectif total de la population étudiante. On y recense 105 formations sur la sobriété numérique.

    Les Régions recensant le plus de formations en lien avec la sobriété numérique sont l’Île de France (105), l’Auvergne-Rhône-Alpes (84), suivis par l’Occitanie (53) et les Hauts-de-France (51). En comparant la répartition des étudiant.e.s et la répartition des formations par Région, il semble que la distribution des formations sur le territoire soit plutôt équilibrée.

    Nombre de formations sur la sobriété numérique dans l’ESR, par ville (Carte interactive)

     Départements et Régions d’outre-mer

    Nom de Département et n°

    Ville

    Nb. de formations

    Guadeloupe

    971

    Pointe-à-Pître

    1

    La Réunion

    974

    Le Port

    1

    974

    Le Tampon

    1

    974

    Saint-Joseph

    1

    974

    Saint-Pierre

    2

    Mayotte

    976

    Mamoudzou

    1

    Nouvelle-Calédonie

    988

    Nouméa

    3

     

    Les villes avec le plus grand nombre de formations sur la sobriété numérique sont Paris (35), Lyon (27 formations), Bordeaux (17), Lille (17), et Montpellier (15).

    Nuage de mots : Nombre de diplômes par mots-clés

    Le mot-clé dont l’occurrence est la plus élevée est « Ecoconception » (41 occurrences). Ensuite, l’expression « Responsabilité Sociétale des Entreprises » est apparue 23 fois, suivie de « Numérique Responsable » (18 occurrences) et de « Sobriété Numérique » (15 occurrences).

    DiscussionMéthode de recensement

    La méthode de recensement utilisée présente plusieurs limites. Tout d’abord, la liste des diplômes et formations n’est pas exhaustive : plusieurs mots-clés sont utilisés de façon disparate pour parler de sujets similaires. D’autre part, de nombreuses données sont manquantes : la date de création du diplôme et des formations, les volumes horaires rattachés aux enseignements, les intitulés d’Unité d’Enseignement et thématiques précises enseignées, le coût et accès à la formation, la qualité du contenu de formation et les méthodes pédagogiques mobilisées, le nom et statut des intervenant.es, les effectifs étudiant.e.s, le taux de réussite au diplôme, le taux d’insertion professionnelle des diplômé.es, ainsi que la satisfaction des étudiant.es. Malheureusement, il n’existe pas, à notre connaissance, de base de données libre d’accès qui rassemble toutes ces informations.

    Dans le cadre du Programme Alt-Impact, nous collaborons avec la Grande École du Numérique. Cet organisme a développé un outil de référencement automatique des formations, GEN_SCAN, qui opère en croisant différentes bases de données ; certaines en libre accès, et d’autres payantes. En configurant cet outil selon nos besoins, nous pourrions éclaircir de nombreux aspects de notre recherche.

    Discussion : Proposition d’une stratégie de déploiement de la formation

    Sensibiliser et former les enseignant.es-chercheurs

    Afin d’atteindre un large éventail de disciplines universitaires à tous les niveaux de diplômes, nous proposons de sensibiliser et former les enseignant·e·s-chercheur·e·s de toutes les disciplines à la sobriété numérique. L’objectif est qu’ils puissent promouvoir de manière pérenne cette approche au sein de leurs établissements. Nous recommandons d’identifier et de former, parmi le corps enseignant, un.e référent.e en Sobriété Numérique au sein chaque université française. Cette personne référente aura pour mission de diffuser cette démarche auprès de ses collègues. Enfin, pour équiper un maximum d’enseignant·e·s-chercheur·e·s, nous suggérons de créer et mettre à disposition des outils pédagogiques, tels que des capsules vidéo. Ces outils se concentreront sur deux aspects : les connaissances en sobriété numérique et les méthodes d’enseignement et d’accompagnement au changement appliquées à cette thématique.

    Diplôme et référentiel

    Nous avons concentré notre recherche sur les certifications inscrites au RNCP. Explorer la possibilité créer un titre RS sur la sobriété numérique permettrait de définir et d’instaurer un socle commun de compétences à maîtriser, pour chaque étudiant.e de l’Enseignement Supérieur. Dans le cadre du programme Alt-Impact, nous élaborons avec notre partenaire Pix un référentiel d’évaluation en sobriété numérique. Ce livrable servira de base afin de construire un référentiel complet d’activité, de compétences et d’évaluation, avec pour objectif final de déposer un futur titre au Répertoire Spécifique de France Compétences relatif à la sobriété numérique. De plus, ce dispositif certifiant nous permettra d’obtenir des statistiques pertinentes quant à la notation, au suivi et à la validation de ce référentiel.

    Offre de formation uniformisée pour les étudiant.es

    L’élaboration d’une offre de formation basée sur le référentiel évoqué précédemment permettrait de remédier à l’absence d’uniformité de diplômes et formation sur la Sobriété Numérique au sein l’enseignement supérieur, en termes d’utilisation de mots-clés, ainsi que de répartition dans les disciplines, territoires, et niveau de diplôme, comme nous l’avons constaté lors de notre étude. Ainsi, en termes de stratégie de déploiement de formation, nous préconisons que la validation du futur référentiel d’évaluation conçu par Pix soit largement intégrée aux cursus des Sciences Humaines et Sociales, du Droit, de l’Économie et de la Santé. En effet, l’effectif dans ces cursus représente près de 56% de l’ensemble des disciplines Universitaires, et elles disposent de peu d’offres de formations en sobriété numérique (12% des formations)

    Communication et valorisation

    En parallèle, afin de favoriser la visibilité de l’offre de formation et les opportunités professionnelles en lien avec la sobriété numérique, nous proposons de créer un podcast. Ce podcast mettra en lumière les diverses formations en donnant la parole aux étudiant.es, pour qu’ils puissent partager leur expérience d’apprenant.e. Les diplômé.e.s pourront également évoquer leur retour d’expérience et la façon dont ils appliquent la sobriété numérique en milieu professionnel. Enfin, les enseignant.es-chercheur.es et les membres des SUIO (Services Universitaires d’Information et d’Orientation) auront l’occasion de présenter brièvement les formations et expliquer leurs liens et objectifs.

    Conclusion

    Le présent état des lieux de l’offre de formations et de diplômes en sobriété numérique dans l’enseignement supérieur retranscrit une répartition inégale des formations à travers les disciplines et cursus, ainsi qu’une visibilité limitée des dispositifs de formation, de leur contenu et du volume horaire dédié à cette thématique. En ce qui concerne la méthode de recensement des formations, les perspectives mentionnées précédemment, telle que l’utilisation de l’outil GEN_SCAN, permettraient de clarifier, préciser et affiner l’offre de formation.

    Concernant la stratégie identifiée de déploiement de la Sobriété Numérique, le déploiement de la formation de « référent.es sobriété numérique » dans chaque établissement, accompagnée de la mise à disposition d’outils pédagogiques pour les enseignant.es-chercheur.es, permettraient de renforcer la portée de cette thématique au sein de l’Enseignement Supérieur. De plus, la conception d’un référentiel d’évaluation en partenariat avec Pix, suivie de l’élaboration d’une formation et d’une certification inscrite au Répertoire Spécifique permettrait d’atteindre un large nombre d’étudiant.es.

    Ces initiatives sont à mettre en perspective avec une offre de formation accessible et en libre accès pour tous les étudiant.es et futur.e.s professionnel.les. Enfin, il est essentiel d’intégrer la sobriété numérique dans les débats citoyens, afin d’ouvrir un espace de réflexion collective sur les enjeux environnementaux, sociaux, et sanitaires du numérique, et de favoriser une prise de conscience à l’échelle sociétale.

     Chiara Giraudo, Ingénieure Pédagogique au CNRS, dans le cadre du programme Alt Impact

    [0] Cet article a été rédigé dans le cadre du Programme Alt Impact, co-porté par l’ADEME, le CNRS et l’INRIA. Ce programme national a pour objectif de sensibiliser et former à la sobriété numérique, de déployer une base de données publique, et de développer la sobriété numérique dans les territoires.

    [1] NB : sont exclus de ce calcul la part de fabrication, de transport, d’usage et de traitement de fin de vie des réseaux et serveurs utilisés par les comme outil et domaine de recherche, contributions à la sobriété numériqueFrançais mais situés géographiquement en dehors du pays

    [2] Outil d’indexation de l’offre de formation et de certification 

  • Un érudit pèse-t-il plus lourd qu’un ignare ?

    Combien pèse un gigaoctet, un tera, un exa ? La question ne vous parait pas avoir de sens. Pourtant elle passionne plus d’un et en particulier l’ami Max Dauchet qui nous initie au sujet. Max Dauchet est un brillant informaticien de l’Université de Lille, spécialiste d’algorithmique et de méthodes formelles pour la programmation.. Serge Abiteboul et Thierry Viéville.

    De Boltzmann à Landauer

    Gauche : Ludwig Boltzmann, (1844 – 1906), © Gerhard Fasol Droite : Rolf Landauer, (1927 – 1999), © IBM Archive

     

     On trouvera à l’adresse  http://maxdauchet.fr/ une version plus détaillée de cet article

    Si la question du poids de la connaissance dans un cerveau fait sourire et n’a guère de sens, celle du poids de l’information chargée dans une clé USB est bien réelle et inspire les Youtubers.

    On parle d’information dématérialisée quand elle est accessible sous forme numérique plutôt que stockée dans des bibliothèques soumises à des contraintes architecturales draconiennes tant le papier est lourd. Jusqu’où peut-on aller dans l’allégement du support ? Rien ou Presque rien ? « Rien » signifierait que l’information est immatérielle. « Presque rien » signifierait qu’elle a un lien irréductible avec la matière. Idéalisme d’un côté, matérialisme de l’autre ? éclairer le distinguo vaut le détour. Le chemin nous fait passer par la thermodynamique et l’entropie, celle-là même qui nous fascine quand il s’agit du cosmos, dont la formule S = k logW orne la sépulture de Boltzmann à Vienne. Il  aboutit à un « Presque rien » que quantifie le principe de Landauer.

    Ce qu’en disent les Youtubers

    Le Youtuber scientifique Théo Drieu a mis en ligne ce printemps la vidéo Combien pèse la totalité d’internet sur sa chaîne Balade Mentale (un million d’abonnés). Il ne s’agit bien entendu pas de la masse des infrastructures du net – des millions de tonnes – ni de l’équivalent en masse de l’énergie consommée – dans les 10 à 15 % de l’électricité de la planète. Il s’agit d’une estimation de la masse des électrons nécessairement mis en jeu pour faire circuler l’information sur le net. Dans la vidéo, l’animateur sacrifie à la loi du genre en tripotant une orange afin de marquer les esprits : la masse des informations sur le net serait celle d’une orange. Drieu ne fait là, comme il l’annonce, qu’actualiser les chiffres avancés par son collègue d’Outre-Atlantique Michael Stevens qui dans une vidéo de 2012 intitulée How Much Does The Internet Weigh? croquait modestement une fraise, les millions de térabits sur le net étant alors moins nombreux que maintenant. Dans cette même vidéo sur sa chaîne Vauce (vingt-deux millions d’abonnés) Stevens évoquait deux aspects : le nombre d’électrons nécessairement mobilisés selon les technologies du moment pour faire circuler l’information, et le nombre nécessaire pour la stocker. Dans ce cas, il estimait la masse inférieure à celle non plus d’une fraise mais d’une graine de fraise[i].

     Ce qu’en disent les chercheurs

    Ce qu’en dit précisément la science est plus saisissant encore, car la limite théorique est des milliards de fois moindre que la masse d’une graine de fraise évoquée par Stevens. Pour le raconter mieux vaut le faire en énergie plutôt qu’en matière, puisque matière et énergie se valent selon la célébrissime formule d’Einstein E = m c².  Cela évite le biais lié à l’usage de la matière pour coder, que l’on peut ajouter, comme la plume encre le papier,  ou retrancher comme le burin incise la pierre.  D’autre part nous nous limitons ici au stockage, sans considérer la circulation de l’information.

    La clé de voûte du raisonnement est le principe formulé en 1961 par Rolf Landauer, physicien américain chez IBM[ii] : l’effacement d’un bit dissipe au moins une énergie de k T log2 Joule, où k est la constante de Boltzmann, T la température absolue (en Kelvin) et log 2 ≈ 0,693. L’irruption de Boltzmann au milieu de l’informatique théorique peut surprendre, c’est pourtant lui qui fait le lien entre la physique-chimie – donc les sciences de la matière – et l’informatique – donc les sciences de l’information.

    Landauer est pour sa part le premier à avoir tiré clairement toutes les conséquences de la théorie de Boltzmann. Les systèmes que considère Boltzmann sont des gaz, avec des milliards de milliards de milliards d’états possibles au niveau de l’ensemble des particules. Landauer applique l’idée de Bolzmann sur un système à … deux états, le 0 et le 1, juste de quoi stocker un bit. Pour étudier les propriétés d’un bit d’information, il applique ainsi un concept – l’entropie – basé sur quatre siècles d’intenses recherches en physique-chimie.  On comprend que les laboratoires de physique demeurent mobilisés pour monter des expériences de confirmation ou d’invalidation de la proposition de Landauer, car de leurs résultats dépend notre conception des rapports entre matière, énergie et information.  Ces expériences se situent au niveau quantique et font face à des phénomènes complexes comme les fluctuations statistiques d’énergie qui sont ici passés sous silence. Le présent regard est celui d’un informaticien, illustré par un petit démon imaginé par Maxwell, démon qui lui aussi a suscité de nombreuses vidéos.

    L’entropie, une histoire de gaz et de piston

     Wikipédia définit l’entropie comme une grandeur physique qui caractérise le degré de désorganisation d’un système. Cette notion  naît de l’étude du rendement de la machine à vapeur et des travaux de Carnot sur les échanges de chaleur, autrement dit de la thermodynamique au sens littéral du terme. Le principe de Carnot dit que sans apport extérieur d’énergie, une source chaude et une source froide s’équilibrent irréversiblement en un système de température homogène. Ce principe a été généralisé en ce qui est maintenant le deuxième principe de thermodynamique, en introduisant la notion d’entropie pour quantifier « le désordre » vers lequel tout système sans apport extérieur d’énergie évolue inexorablement selon ce principe.

    Clausius relie en 1865 la baisse d’entropie d’un gaz parfait à la la chaleur que dégage le travail d’un piston qui comprime le gaz à température constante[iii].

     Quelques années plus tard, Bolzmann propose une définition radicalement différente de l’entropie S. Cette définition s’appuie sur la description statistique de l’état du gaz et aboutit à la formule  S = k log W déjà évoquée (la version étendue de cet article montre l’équivalence des deux approches).

    W est la clé du lien avec le numérique, ce symbole  désigne le nombre de configurations possibles du gaz en considérant la position et de la vitesse de chaque particule. Quand le piston divise par deux le volume du gaz, le nombre possible de positions d’une particule est également divisé par deux :  Pour chaque particule, il n’y a plus à préciser si elle est à gauche ou à droite dans la boite. Landauer en déduira plus tard que c’est l’effacement de cette information pour chaque particule qui produit la chaleur.

    Cette présentation de l’entropie de Boltzmann et de son interprétation par Landauer enjambe l’histoire. Entre temps, les réflexions des physiciens ont évolué pas à pas, et elles ne sont pas closes. Le démon de Maxwell illustre ces réflexions.

    Le démon de Maxwell : quand le calcul et la mémoire s’en mêlent

    Se plaçant comme Boltzmann au niveau des particules, Maxwell proposa une expérience de pensée comme les physiciens aiment à les imaginer.

    Maxwell considéra une boîte partagée en deux par une cloison munie d’une trappe qu’un démon actionne sans frottement de façon à faire passer une à une des particules[iv]. En les faisant passer de gauche à droite, le démon « range les particules », il diminue l’entropie du gaz sans fournir de travail, contrairement au piston : le deuxième principe de thermodynamique est contredit !

    Pour lever la contradiction, les physiciens cherchèrent du côté des calculs effectués par le démon de Maxwell, considérant que si celui-ci n’exerce pas sur le gaz un travail mécanique, il exerce en quelque sorte un travail intellectuel, il observe, il acquière de l’information et il calcule. Tel fut le point de vue de Szilárd, un des principaux scientifiques du projet Manhattan connu pour son opposition farouche à l’usage de la bombe atomique[v]. Puis Brillouin[vi] ébaucha l’idée ensuite érigée en principe par Landauer que c’est l’effacement d’information qui augmente l’entropie, comme nous allons le préciser.

    Le principe de Landauer : du gaz à l’ordinateur

    Le principe de Landauer est une extrapolation de la formule de Boltzmann aux systèmes informatiques. La relation entre énergie et nombre de micro-états est étendue par analogie.

    Landauer pose directement la formule de Boltzmann  en considérant un seul bit de mémoire comme un système à deux états possibles, 0 et 1 [vii]. Si le bit est effacé, il n’y a plus qu’un seul état, l’entropie a donc diminué et ce travail d’effacement s’est dissipé en chaleur. 

    Retour sur le démon de Maxwell 

    Pour la simplicité de l’interprétation numérique, nous avons seulement considéré plus haut le cas où le volume du gaz est réduit de moitié. Mais le parallèle entre le piston et le démon doit tenir pour tous les taux de compression. Pour pouvoir revenir aux conditions initiales, le démon doit compter les particules de gauche à droite, afin d’en renvoyer autant si l’on poursuit le parallèle avec le piston. D’après Landauer, pour ne pas chauffer, le démon ne doit effacer aucun bit intermédiaire, ce qui n’est pas le cas avec l’addition habituelle mais est réalisé par exemple en « comptant des bâtons ». Or le démon fait partie du système physique considéré dans l’expérience de pensée, il doit donc être remis dans son état d’origine si l’on veut faire un bilan énergétique à l’issue de la compression comme c’est le cas ici. Autrement dit, il doit alors effacer sa mémoire, ce qui dégage la chaleur prévue par la physique. 

    Réversibilité et entropie

    Pour imaginer un système informatique ne consommant aucune énergie, ce système ne doit donc effacer aucune information durant ses calculs, ce qui revient à considérer des machines logiquement réversibles, où l’on peut remonter pas-à-pas les calculs comme si on remontait le temps . C’est ainsi que nous avons réinterprété le démon. Les opérateurs logiques et arithmétiques usuels ne sont évidemment pas réversibles (l’addition et le ET perdent les valeurs de leurs données) . Cependant Bennett[viii], [ix], [x] a montré que l’on peut rendre tout calcul logiquement réversible en donnant un modèle de machine de Turing conservant l’historique de tous ses calculs. Ces considérations sont particulièrement prometteuses pour les ordinateurs quantiques, où la superposition d’états dans les q-bits conduit (sous les nombreuses contraintes liées à ce type de machine) à considérer directement des opérateurs réversibles.

    Les physiciens continuent de se passionner pour le principe de Landauer[xi], imaginant des nano machines parfois extravagantes, à cliquets, escaliers, poulies ou trappes et construisant des expériences de plus en plus fines[xii] pour mesurer l’énergie dégagée par l’effacement d’un bit[xiii]. Jusqu’à présent, le principe est confirmé, dans le cadre de la physique classique comme de la physique quantique. Il n’est cependant pas exclu que sa limite soit un jour abaissée, notamment en exploitant des propriétés de la physique quantique encore mal connues. Cela remettrait en cause les interprétations qui viennent d’être décrites, et ce serait alors une nouvelle source de progrès dans les modèles scientifiques de l’organisation de la matière et de l’information.

    En guise de conclusion

    La limite de Landauer commence à influencer l’architecture des systèmes et plaide pour l’informatique quantique. Elle fournit un horizon qui nous incite à méditer sur ce qu’est le traitement de l’information, que ce soit par le vivant ou la machine.

    La théorie associe à l’information une masse minimale de matière  bien moindre encore que celle mise en scène par les Youtubers, déjà spectaculaire par sa modicité.  De même il faut peu de matière pour libérer beaucoup d’énergie (bombe, centrale nucléaire) et beaucoup d’énergie pour générer quelques particules (au LHC du CERN). Le second principe de thermodynamique et l’entropie nous font penser qu’il est plus facile de désordonner que de structurer. Pourtant l’univers fabrique sans cesse de nouveaux objets cosmiques et la vie s’est développée sur terre[xiv]. Nous devons nous méfier de nos appréciations sur le petit ou le grand, le beaucoup ou le peu, qui sont des jugements attachés à notre échelle et à notre condition.

    Max Dauchet, Professeur Émérite de l’Université de Lille.

    [i] Estimation tirée d’articles universitaires. Cinquante ans avant, Richard Feynman, prix Nobel de physique , dans sa célèbre conférence de 1959 intitulée There’s Plenty of Room at the Bottom, annonciatrice de l’essor des nanotechnologies, estimait que l’on pourrait coder avec les technologies de l’époque toutes les connaissances du monde dans un grain de poussière, et indiquait les pistes pour le faire.

    [ii] Rolf Landauer, Irreversibility and Heat Generation in the Computing Process, IBM Journal of Research and Development, 5(3), 183–191 (1961).

    [iii] Die mechanische Wärmetheorie, Friedrich Vieweg und Sohn ed (1865 -1867).

    [iv] Historiquement, le démon trie les particules les plus rapides et les plus lentes, distribuées statistiquement autour de la valeur moyenne, pour créer une source chaude et une source froide  à partir d’un milieu en équilibre thermique.

    [v] La première planche de La bombe, BD consacrée au projet Manhattan, illustre un cours de Szilárd sur le sujet en 1933. Alcante, Bollée, Rodier, Ed. Glénat, 2020.

    [vi] Brillouin est sans doute un des noms les moins connus de ceux cités ici. Alfred Kastler, prix Nobel de physique, lui rendait hommage dans les colonnes du Monde lors de sa disparition 1969 : Léon Brillouin : un des plus brillants physiciens français.

    [vii] En réalité un réseau de bits statistiquement liés, pour des raisons de phénomènes physiques.

    [viii] C. H. Bennett, Logical reversibility of computation, IBM journal of Research and Development, 1973.

    [ix] J.-P. Delahaye, Vers du calcul sans coût énergétique, Pour la science, pp 78-83, janvier 2017

    [x] C. H. Bennett, Notes on Landauer’s Principle, Reversible Computation, and Maxwell’s Demon, 2002       https://arxiv.org/abs/physics/0210005

    [xi] La plupart des références données ici sont les références historiques – il est souvent instructif de découvrir les idées « dans leur jus ». Cependant il suffit de parcourir le net pour en trouver des récentes en pagaille.

    [xii] Les fluctuations statistiques ici négligées y jouent un rôle important.

    [xiii] Séminaire information en physique quantique  de l’Institut Henri Poincaré, 17/11/2018 . vidéos sur carmin.tv, les mathématiques vivantes. Landauer et le démon de Maxwell, Sergio Ciliberto. Thermodynamique et information, Kirone Mallik.

    [xiv] Dans son article déjà cité, Bennett évoque l’économie de moyens de la duplication des gènes, déjà remarquée  par Landauer en 1961.

  • L’IA peut-elle faire de la science (au point on en est …) ?

    A force d’imaginer l’IA* capable de tout faire, il fallait bien qu’on se pose un jour la question de savoir si cette technologie pouvait aussi faire de la science. C’est même la très sérieuse Académie nationale des sciences des Etats-Unis (NAS) qui s’interroge, à l’issue d’un séminaire dont elle a publié un compte-rendu. Charles Cuveliez et Jean-Charles Quisquater nous expliquent exactement tout ce qu’il ne faut pas faire ! Ikram Chraibi-Kaadoud et Thierry Viéville.

    (*) L’expression IA recouvre un ensemble de concepts, d’algorithmes, de systèmes parfois très différents les uns des autres. Dans cet article, nous utilisons cette abréviation simplificatrice pour alléger la lecture.

    © domaine public

    Une IA qui voudrait faire de la science, devrait posséder certaines qualités d’un scientifique comme la créativité, la curiosité, et la compréhension au sens humain du terme. La science, c’est identifier des causes (qui expliquent les prédictions), c’est se débrouiller avec des données incomplètes, de taille trop petite, c’est faire des choix, tout ce que l’IA ne peut être programmé à faire. C’est se rendre compte des biais dans les données, alors que certains biais sont amplifiés par l’IA. Par contre, l’IA peut détecter des anomalies ou trouver des structures ou des motifs dans de très grands volumes de données, ce qui peut mener le scientifique sur des indices qu’il ne trouverait pas autrement.

    Si l’IA peut contribuer à la science, c’est sans doute en automatisant et menant des expériences à la place du scientifique, plus rapidement et donc en plus grand nombre, qu’un humain ne pourrait le faire. Mais tout scientifique expérimentateur sait combien il peut être confronté à des erreurs de mesures ou de calibration. Il faut aussi pouvoir répondre en temps réel aux variations des conditions expérimentales. Un scientifique est formé pour cela. Un système d’IA répondra à des anomalies des appareils de mesure mais dans la mesure de l’apprentissage qu’il a reçu. Dans un récent article ambitieusement nommé: “The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery” (Sept 2024), leurs auteurs ont proposé un modèle qui automatise le travail d’un chercheur depuis la confrontation d’une idée à la littérature existante (est-elle nouvmaitriseelle) jusqu’à l’écriture du papier, sans doute impressionnant mais où le coup de génie a-t-il sa place dans cette production scientifique aseptisée ?

    IA générative

    Un exemple d’image générée par IA ©VulcanSphere – Generated in HuggingFace Space with Stable Diffusion 3.5, via wikipedia

    Que peut apporter spécifiquement l’IA générative, et en son sein, les modèles LLM ? Ils sont entraînés et emmagasinent des quantités gigantesques de données de manière agnostique mais ne savent pas faire d’inférence, une autre caractéristique de la science en marche. On a l’impression que l’IA, générative ou non, a une capacité d’inférence : si on lui montre une photo d’un bus qu’elle n’a jamais vu auparavant, pour autant qu’elle ait été entraîné, elle reconnaîtra en effet qu’il s’agit d’un bus. A-t-elle pour autant une compréhension de ce qu’est un bus ? Non car un peu de bruit sur l’image lui fera rater la reconnaissance, contrairement à un humain ! En fait, il ne s’agit pas d’inférence, mais de reconnaissance.

    Sans avoir de capacité de raisonnement, l’IA générative est un générateur d’idées plausibles, quitte pour le scientifique à faire le tri entre toutes les idées plausibles et celles peut-être vraies (à lui de le prouver !). L’IA générative peut étudier de large corpus de papiers scientifiques, trouver le papier qui contredit tous les autres et qui a été oublié et est peut-être l’avancée décisive que le scientifique devra déceler. Elle peut aussi résumer ce qui permettra au chercheur de gagner du temps. L’IA générative peut également générer du code informatique qui aide le scientifique. On a même évoqué l’idée de l’IA qui puisse générer des données expérimentales synthétiques, ce qui semble un peu fou mais très tentant lorsque les sujets sont des être humains. Que ne préférerait-on pas une IA générative répondre comme un humain pour des expériences en sciences sociales, sauf que c’est un perroquet stochastique qui vous répondra (Can AI Replace Human Research Participants? These Scientists See Risks, Scientific American, March 2024)

    Alors, oui, vu ainsi, l’IA est un assistant pour le scientifique. Les IA n’ont pas la capacité de savoir si leurs réponses sont correctes ou non. Le scientifique oui.

    IA et religion : générée avec canvas et ré-éditée manuellement © CC-BY

    Malheureusement, la foi dans l’IA peut amener les chercheurs à penser de manière moins critique et à peut-être rater des options qu’ils auraient pourtant trouvées sans IA. Il y a un problème de maîtrise de l’IA. Pour faire progresser l’utilisation de l’IA vers la science, il faudrait d’abord qu’elle ne soit plus l’apanage des seuls experts en IA mais qu’elle soit basée sur une étroite collaboration avec les scientifiques du domaine

    Introduire l’utilisation de l’IA dans la science présente aussi un risque sociétal : une perte de confiance dans la science induite par le côté boite noire de l’IA.

    Il faut donc bel et bien distinguer l’IA qui ferait de la science de manière autonome (elle n’existe pas) ou celle qui aide le scientifique à en faire de manière plus efficace.

    Et d’ailleurs, l’IA a déjà contribué, de cette manière-là, à des avancées dans la science dans de nombreuses disciplines comme la recherche sur des matériaux, la chimie, le climat, la biologie ou la cosmologie.

    Au final restera la quadrature du cercle : comment une IA peut expliquer son raisonnement pour permettre au scientifique de conseiller son IA à l’assister au mieux.

    Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT) & Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles)

    Pour en savoir plus: AI for Scientific Discovery, Proceedings of a Workshop (2024), US National Academies, Medecine, Sciences, Engineering

     

  • Qui a hacké Garoutzia ?

    Encore quelques places

    Garoutzia à la scène parisienne

    Teaser : 

    Dossier de presse accessible ici.

  • Le prochain Nobel récompensera-t-il une IA ?

     Pour nous aider a réfléchir à l’impact grandissant de ce que nous appelons l’intelligence artificielle sur nos activités humaine, Anne-Marie Kermarrec, nous invite à regarder l’évolution des ces algorithmes au fil des dernières années, pour nous aider à réfléchir au fait que l’intelligence artificielle conduit à repenser ce que nous considérons comme l’intelligence humaine.  Serge Abiteboul et Thierry Viéville.
    Page personnelle à l’EPFL


    En mars 2016, AlphaGo écrasait le légendaire champion de du monde de Go Lee Sedol. Le monde commençait à entrevoir le potentiel extraordinaire de l’intelligence artificielle. Quand en novembre 2022, ChatGPT a été lancé, chacun d’entre nous a commencé à entamer la conversation avec ce nouveau joujou, qui de lui demander d’écrire un discours, qui de lui faire corriger ou de faire un résumé d’un article, qui de le sommer d’écrire un poème ou de lui donner des idées pour résoudre un problème. Quelques mois plus tard, ChatGPT passait avec succès des examens réputés difficiles tel que celui du barreau, écrivait du code à l’envi dans n’importe quel langage informatique ou pondait un nouveau roman dans le style de Zola. Et le monde, oscillant entre ébahissement et inquiétude, de réaliser à quel point, bien que sujets à des hallucinations manifestes, ces algorithmes d’IA générative allaient petit à petit grignoter nos emplois dans bien des domaines du service du droit ou de la médecine.

    Et la science dans tout ça ? Est-ce qu’un algorithme d’IA peut aussi remplacer les cerveaux d’un éminent chercheur en physique, d’un prix Nobel de chimie ou d’un historien célèbre ?

    Stockholm, le 8 octobre 2024, la vénérable académie des Nobels couronne dans le domaine de la physique, entre autres, … un informaticien, en l’occurrence Jeff Hinton, qui a partagé le prix Turing en 2019 avec Yann Lecun et Yoshua Bengio. Ce même Jeff Hinton qui a dénoncé avec véhémence les dangers de l’intelligence artificielle pour l’humanité du reste il y a quelques temps. Le lendemain, le 9 octobre 2024, cette même académie décerne un prix Nobel de chimie à deux autres informaticiens de DeepMind Demis Hassabis et John Jumper pour leurs travaux sur la structure des protéines.

    Outre ces deux exemples iconiques, l’intelligence artificielle participe désormais fréquemment à des découvertes scientifiques dans de nombreux domaines comme ce nouvel algorithme de tri, domaine pourtant ô combien étudié dans la communauté algorithmique, qui émane d’un réseau de neurones en mars 2023 [1], ou encore  un circuit exotique, qui de l’avis des physiciens était singulièrement inattendu,  issu d’un logiciel d’IA de conceptions de dispositifs photoniques arbitraire[2], et les exemples foisonnent dans les domaines de la médecine ou de la biologie par exemple.

    Au-delà de ce qu’on appelle les sciences dures, l’IA a commencé tranquillement à révolutionner aussi les sciences humaines et sociales comme l’illustre l’excellent projet ERC en philologie de J.-B. Camps[3] qui consiste à comprendre comment les cultures humaines évoluent au cours du temps en appliquant des méthodes d’intelligence artificielles utilisées dans la théorie de l’évolution en biologie aux manuscrits anciens afin de comprendre les mécanismes de transmission des textes, de leur survie et la dynamique des canons culturels qu’ ils suscitent.

    Il devient donc raisonnable d’envisager une réponse par l’affirmative à la question ci-dessus : oui un prix Nobel pourrait récompenser une IA.  Les algorithmes d’intelligence artificielle couplés à des infrastructures puissantes et des systèmes efficaces peuvent eux-aussi apporter leur pierre au bel édifice scientifique que nous construisons depuis la nuit des temps, et ce dans tous les domaines scientifiques.

    De la créativité d’AlphaGo

    En l’occurrence, AlphaGo, pour y revenir, a  d’ores et déjà surpris le monde par sa créativité. AlphaGo s’est attaqué à ce jeu de stratégie d’origine chinoise inventé il y a plusieurs millions d’années qui consiste à placer des pions, appelés des pierres, sur un plateau quadrillé qu’on appelle le goban. Deux joueurs s’affrontent qui cherchent à marquer leur territoire en posant des pierres sur les intersections de la grille, pierres qui peuvent être capturées par encerclement. Je ne vais pas entrer plus en détail dans ce jeu car d’une part ce n’est pas le sujet, d’autre part je ne m’y suis jamais essayée. AlphaGo, lui est devenu champion. Au cœur d’AlphaGo, un arbre de recherche, un arbre de MonteCarlo pour être plus précis, dans lequel AlphaGo cherche son chemin en évaluant chaque coup potentiel et  en simulant le jeu entier pour décider s’il doit jouer ce coup ou non. Compte tenu de la dimension de la grille, et la multitude de coups possible, bien plus élevé que le nombre d’atomes dans l’univers, autant dire qu’une exploration exhaustive est impossible. AlphaGo a alors recours à des algorithmes d’apprentissage supervisés entrainés sur des parties jouées par des humains dont la sortie est un ensemble de probabilités, le coup qui a la possibilité de gagner la partie est alors choisi. Cet algorithme est alors utilisé pour guider la recherche dans l’arbre immense des possibilités. Mais AlphaGo est allé plus loin que d’essayer d’imiter la créativité humaine en s’entrainant contre lui-même des dizaines de millions de fois puis d’utiliser ces parties pour s’entrainer ! Smart move…

    C’est ainsi qu’AlphaGo a surpris tout le monde avec le fameux « Move 37 » lors de sa partie contre Lee. Ce coup que la pratique assidue depuis des milliers d’années de millions de personnes n’avait jamais considéré, cette idée saugrenue de placer un de ses pierres entre deux pierres de Lee, c’est ce coup défiant toute intuition humaine qui lui a valu la victoire. CQFD, l’IA peut être créative, voire avoir une certaine forme d’intuition au gré du hasard de ses calculs. 

    Est ce que l’IA  peut mener à de grandes découvertes scientifiques ? Le prix Nobel de chimie 2024 en est un très bon exemple, AlphaFold a permis de découvrir les structures de protéines qui auraient demandé des siècles à de brillants chercheurs à grand renforts de manipulations expérimentales complexes et chronophages. On peut d’ailleurs voir la recherche scientifique comme l’activité qui consiste à explorer certaines branches dans une infinité de possibilités, on peut même considérer que l’intuition dont font preuve les brillants chercheurs et qui les mènent à ces moments Euréka, comme dirait Archimède, et comme les appellent Hugo Duminil-Copin, lauréat de la Médaille Fields 2022, permet de choisir les branches les plus prometteuses. Et bien c’est précisément ce que font les IAs, prédire quelles branches ont la plus forte probabilité de mener à un résultat intéressant et de les explorer à vitesse grand V.

    Le paradoxe de l’IA

    Oui mais voilà, une IA, cette savante combinaison d’algorithmes, de données, de systèmes et d’ordinateurs, est infiniment plus rapide qu’un humain pour effectuer ces explorations, elle est également généralement beaucoup plus fiable, ne dit-on pas que l’erreur est humaine ? En revanche, lorsqu’elle commet des erreurs, elles sont beaucoup plus importantes et se propagent beaucoup plus rapidement. Là la vigilance s’impose, qui pour le moment en tous cas reste humaine.

    Certaines méthodes existent par lesquelles les algorithmes d’IA peuvent essayer de se surveiller mais cela ne peut pas aller tellement plus loin que cela. Au siècle dernier, Gödel et Turing, respectivement en 1931 et en 1936, ont montré certaines limites fondamentales en mathématique et informatique. Le théorème d’incomplétude de Gödel a révélé des limites fondamentales en mathématique. Ce théorème en particulier a montré qu’il existe des énoncés vrais dans un système, impossible à démontrer dans un système et qu’un système formel cohérent est incapable de démontrer sa propre cohérence. Dans la même veine, Turing lui s’est intéressé au problème de l’arrêt : est-ce qu’il est possible de déterminer qu’un programme informatique et des entrées, donnés, terminera son exécution ou non.  En d’autres termes, peut-on construire un programme capable de de prédire si un autre programme s’arrêtera ou bouclera à l’infini ? Turing a prouvé que le problème de l’arrêt est indécidable c’est-à-dire qu’il est impossible de construire un programme universel capable de résoudre ce problème pour tous les programmes possibles. En particulier car un tel programme pourrait se contredire.  

    Adopter l’IA sans hésiter mais prudemment

    Nos deux compères ont ainsi posé des limites intrinsèques à la puissance des algorithmes indépendamment du volume de données et du nombre de GPUs dont on peut disposer. Ainsi qu’une IA s’assure elle-même de bien fonctionner parait impossible et de manière générale une IA ne peut raisonner à son propre sujet. Est-ce pour cela qu’Alpha, selon D. Hassibis, ne pourrait jamais inventer le jeu de Go et c’est peut-être là sa limite. C’est là que l’humain peut entrer en piste.  En d’autres termes, utiliser l’IA pour la découverte scientifique est d’ores et déjà possible et on aurait tort de s’en priver mais il est important de l’utiliser en respectant la démarche scientifique rigoureuse à laquelle nous, chercheurs, sommes rodés.  

    Les mathématiques ont été créées pour mettre le monde en équations et représenter le monde physique, l’informatique (ou l’IA) met le monde en algorithmes et en fournit des représentations vivantes qui collent si bien à la nature continue de la biologie et la physique mais aussi de bien des domaines des sciences humaine et sociales.

    Ainsi, quel que soit son domaine et son pré carré, scientifique, il devient nécessaire de maitriser les fondements de l’IA pour bénéficier de ses prouesses et de son potentiel tout en vérifiant la pertinence des résultats obtenus, en questionnant les découvertes surprises qu’elle pourrait amener mais aussi en s’assurant que les données d’entrainement ne soient ni biaisées ni erronées. Si nous avons d’ores et déjà compris qu’il était temps d’introduire l’informatique dans le secondaire mais également dans beaucoup de cursus du supérieur, surtout scientifiques, il convient de poursuivre cet effort, de l’intensifier même et de l’élargir. Il est temps que l’informatique soit élevée au rang de citoyen de première-classe comme les mathématiques et la physique dans tous les cursus scientifiques. Plus encore, il est tout autant essentiel que les linguistes, les historiens, les sociologues et autres chercheurs des sciences humaines et sociales aient la possibilité d’apprendre les rudiments de l’informatique, et plus si affinité, dans leurs cursus.

    Ainsi les académiques doivent s’y préparer, leurs métiers aussi vont être transformés par l’intelligence artificielle, informaticiens compris ! Ces derniers partent avec un petit avantage compétitif, celui de connaître les fondements de l’IA. À tous les autres, à vos marques, si ce n’est pas déjà fait !

    Anne-Marie Kermarrec, Professeure à l’EPFL, Lausanne

     

     

     

     

     

     

    [1] Mankowitz, D.J., Michi, A., Zhernov, A. et al. Faster sorting algorithms discovered using deep reinforcement learning. Nature 618, 257–263 (2023)

    [2] https://nqp.stanford.edu/research/inverse-design-photonics

    [3] https://www.chartes.psl.eu/gazette-chartiste/actualites/le-projet-lostma-laureat-de-lappel-du-conseil-europeen-de-la-recherche-erc