Mois : février 2025

  • Une vie numérique sans GAFAM est-elle possible ?

    Corinne Vercher-Chaptal a mené une étude approfondie sur sept plateformes considérées comme alternatives aux plateformes dominantes. Entre transition écologique et renouveau démocratique, elle nous décrit les promesses de ces plateformes innovantes. Cet article a été publié le 21 octobre 2022 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant. Serge Abiteboul et Thierry Viéville.

    Vous avez piloté une équipe de recherche qui a étudié 7 plateformes dites alternatives : en quoi ces plateformes se différencient des GAFAM ?

    Ces modèles étaient alternatifs, non pas parce qu’ils proposaient de faire différemment ce que font les modèles dominants, mais plutôt parce qu’ils créent une offre de valeurs qui n’existe pas dans le secteur dans lequel trône la plateforme dominante.

    Les cas que nous avons étudiés sont dits alternatifs par le modèle économique, de gouvernance et le service qu’ils proposent dans un secteur où domine une grande plateforme. Assez rapidement, il nous est apparu que ces modèles étaient alternatifs, non pas parce qu’ils proposaient de faire différemment ce que font les modèles dominants, mais plutôt parce qu’ils créent une offre de valeurs qui n’existe pas dans le secteur dans lequel trône la plateforme dominante.

    Le secteur du tourisme est en cela assez emblématique. Il est fortement dominé par Airbnb. Nous avons étudié la plateforme coopérative « Les Oiseaux de passage » qui propose une autre manière de voyager en mettant en relation des habitants, professionnels et voyageurs, pour aller vers une forme sociale du tourisme s’approchant de l’hospitalité. La particularité de ce modèle est que, contrairement à Airbnb, il s’extrait des standards marchands et poursuit une finalité sociale et patrimoniale. La plateforme propose une tarification qui ne repose pas sur un algorithme de prix (tarification dynamique) mais qui est modérée en fonction de l’hôte et du voyageur, permettant une diversité d’échanges, gratuits ou tarifés.

    Mobicoop, plateforme coopérative de covoiturage libre, est un autre cas intéressant. Son origine est une réaction à la marchandisation du covoiturage. En 2007, une association appelée « Covoiturage.fr » crée une plateforme pour mettre gratuitement en contact des personnes pour covoiturer. En 2011, au moment où le covoiturage connaît une expansion, la plateforme instaure une commission sur les trajets effectués par les co-voitureurs, et devient Blablacar. Les militants de la communauté initiale ont alors réagi en recréant une nouvelle plateforme pour maintenir une mise en relation gratuite des annonces de covoiturage. C’est ainsi qu’est apparue Mobicoop. L’objectif premier n’est pas seulement le covoiturage en tant que tel et le remboursement de ses frais du voyage, mais de proposer un moyen de participer à la réduction de la prolifération des véhicules individuels (autosolisme), et donc à la transition écologique. Ainsi, Mobicoop est développée en logiciel libre et ne prélève aucune commission puisque cela serait antinomique avec sa finalité : plus la plateforme est ouverte, plus l’objectif écologique sera atteint. Pour faire vivre la plateforme et ses besoins en développement, la coopérative a recours aux appels au don et au sociétariat mais surtout à la vente en marque blanche de plateformes et de prestations de mobilité partagée aux collectivités territoriales. Ce versant marchand permet donc à la plateforme de proposer au grand public un service d’intermédiation gratuit en accord avec son éthique et son objectif environnemental.

    Au-delà de ces exemples, il existe une diversité de modèles économiques alternatifs. Tous ont le même défi : pérenniser leur modèle. Même si pour la plupart, ces modèles n’ont pas vocation à se substituer entièrement aux dominants, il faut qu’ils aient les moyens de constituer et de fidéliser des communautés d’usagers et de contributeurs prêts à valider, sous une forme ou une autre, (don, sociétariat, cotisation…) la valeur sociale et environnementale créée, et qui n’a pas été formatée pour le marché et ses exigences.

    Voyez-vous un rapprochement entre ces modèles et les mondes du logiciel libre et des communs, qui sont classiquement cités comme des alternatives aux modèles dominants sur Internet ?

    Le monde coopératif se mêle de plus en plus au monde des communs et du logiciel libre, ce qui n’était pas évident au départ.

    Originellement, l’objet des communs numériques est l’ouverture des services numériques, et celui du coopérativisme est la propriété partagée visant à protéger les intérêts des membres. Ces deux objectifs sont distincts mais ne sont pas incompatibles. En France, nous avons la chance d’avoir le dispositif SCIC (société coopérative d’intérêt collectif) qui permet de rassembler les deux approches en ouvrant la gouvernance des coopératives à une diversité de parties prenantes. Le dispositif SCIC renforce la prise en compte de l’intérêt général, et la dimension délibérative qui est le propre des communs. La propriété est ainsi repensée pour qu’elle ne soit plus exclusive à quelques sociétaires prédéfinis mais accessible à toutes les parties prenantes, devenant ainsi plus inclusive. Ce dispositif participe donc grandement au rapprochement des coopératives avec les communs.

    Le rapprochement avec le logiciel libre est moins évident puisque la notion de propriété est en tant que telle antinomique de l’esprit du libre, qui en rejette toute forme. Aujourd’hui, on assiste à une politisation d’une partie du mouvement qui a pensé dès ses débuts un Internet émancipateur via la non-propriété et l’universalité de l’accès. Certains militants du logiciel libre estiment avoir fait une erreur en n’articulant pas les logiciels libres à des finalités sociale et/ou environnementale. Cela a provoqué une forme de scission au sein du mouvement entre ceux qui ont une vision fonctionnelle et individuelle des libertés numériques, prônant une liberté sans limite, et ceux qui ont une approche collective et délibérative s’attachant à préserver l’éthique du projet.

    Ainsi, des outils tels que les licences à réciprocité ont été développés par cette deuxième branche du mouvement pour essayer de répondre à ce qu’ils estiment être les limites des logiciels libres initiaux. L’objectif de ces licences est de restreindre l’ouverture et l’usage de la licence soit en décidant de la nature de l’organisation usagère (organisation de l’économie sociale et solidaire par exemple), soit en restreignant l’usage commercial à certaines finalités. Par exemple, CoopCycle, une coopérative de livraison à vélo, a autorisé uniquement l’usage de la licence aux collectifs de livreurs constitués en coopératives. Cela va encore plus loin avec les Hippocratic licenses (licences hippocratiques) qui imposent un critère éthique aux projets open source et restreignent l’utilisation au respect des droits humains. L’Hippocratic License fait cependant l’objet de controverses au sein du mouvement du logiciel libre.

    Ces licences, qui peuvent permettre de restaurer une relation de réciprocité entre le secteur marchand et les communs, rapprochent le coopérativisme du mouvement du logiciel libre tout en préservant l’esprit des communs.

    Quel rôle l’État doit-il adopter vis-à-vis de ces modèles alternatifs ?

    Les communs offrent une formidable opportunité de renouveau démocratique en permettant une co-construction avec l’État d’actions publiques nouvelles et adaptées aux crises écologique, sociale et sanitaire.

    Ce qui est certain c’est qu’en l’absence de dispositifs financiers et institutionnels adaptés à leurs spécificités, les modèles alternatifs ne peuvent se développer et se pérenniser. J’en veux pour preuve l’initiative Les Oiseaux de passage qui doit en grande partie son développement à l’attribution du statut de jeune entreprise innovante (JEI). Cependant, ce ne fût pas sans difficulté car cette plateforme a longtemps eu du mal à se voir reconnaître comme étant innovante. Il y a sans doute des dispositifs à créer ou à modifier dans l’écosystème de l’innovation pour clarifier cette caractérisation et aider à la pérennisation de ce type d’initiatives, dont l’objectif est de mobiliser le numérique au service de projet solidaire, de transition socio-environnementale.

    Il y a aussi un véritable enjeu à lutter contre la précarité des contributeurs, phénomène bien connu dans le monde du logiciel libre. De nombreux acteurs de la communauté du logiciel libre vivent dans une précarité certaine. Il est donc primordial de s’attacher à réfléchir à des innovations institutionnelles pour sécuriser le travail des contributeurs aux communs.

    Enfin, au sein de l’équipe du rapport TAPAS, nous avons pointé l’opportunité d’un rapprochement entre les communs (numériques et non-numériques) avec l’acteur public. Il est essentiel qu’un espace autre que purement marchand, obéissant à une rationalité autre qu’instrumentale, se développe pour déployer les communs. Il faut enseigner que les communs peuvent être le lieu de solidarités citoyennes, comme le souligne Alain Supiot, inscrites dans les territoires. A cette échelle, les communs peuvent participer à la construction de politique de transition avec les collectivités locales dans les domaines qui leur incombent comme le transport, l’habitation, la qualité de l’eau, l’alimentation…Pour ce faire, l’État doit avoir un rôle facilitateur qui va au-delà du seul soutien financier. A côté d’une régulation contraignante à destination des GAFAM, l’état peut mettre en place une régulation habilitante visant à soutenir les alternatives, dans le respect de leur identité et de leurs spécificités. Cela peut être par la mise à disposition de ressources matérielles ou immatérielles, comme l’initiative “Brest en communs” où la ville a fourni des réseaux d’accès Wifi ouverts et gratuits sur le territoire, par exemple. Finalement, là où il existe des zones où le service public est défaillant ou absent, les communs offrent une formidable opportunité de renouveau démocratique en permettant une co-construction avec l’État d’actions publiques nouvelles et adaptées aux crises écologique, sociale et sanitaire.

    Corinne Vercher-Chaptal , Professeure Université Sorbonne Paris Nord.

    Pour aller plus loin :
  • Comment mettre en avant les communs au travail ?

    Odile Chagny nous éclaire sur la manière dont les communs transforment le travail. Elle est économiste à l’Institut de Recherches Économiques et Sociales (IRES) et co-fondatrice du réseau Sharers et Workers. Cet article a été publié le 25 janvier 2023 sur le site de cnnumerique.fr et est remis en partage ici, les en remerciant.

    Qu’est-ce que Sharers & Workers ?

    Sharers & Workers est un réseau d’animation de l’écosystème autour des transformations du travail en lien avec la transformation numérique. Initialement centrés sur l’économie des plateformes, les travaux du réseau se sont recentrés sur les problématiques de l’IA et des données depuis 2019. Notre objectif est de faire se rencontrer des acteurs de la recherche, des acteurs de la transformation numérique en entreprise et des acteurs syndicaux pour appréhender collectivement ces transformations. Nous avons deux convictions :

    • l’économie numérique et le numérique sont vecteurs de bouleversements profonds pour les marchés et les acteurs économiques et sociaux préexistants. Ces nouveaux modèles d’affaires nous amènent nécessairement à renouveler nos façons de penser et d’agir sur le travail, les compétences, les relations de travail, les formes de représentation, les façons de partager la valeur etc. 
    • Il nous semble nécessaire de croiser les points de vue et de mettre en relation l’ensemble des parties prenantes, qui n’ont pas toujours les mêmes approches, afin de mieux appréhender ces transformations. 

    Comment le réseau Sharers & Workers s’est-il emparé de la question des communs ?

    Le numérique permet une production collaborative étendue et une gouvernance ouverte. Autant de formes d’organisation et de modèles que l’on retrouve très souvent dans les communs et les communs numériques, très étudiés sous l’angle de la ressource et de la gouvernance, mais assez peu sous celui des modèles de travail sous-jacents. Nous nous intéressons à cette dimension, souvent moins explorée dans la littérature scientifique : le travail en commun ou produisant des communs génère-t-il des conditions et des organisations de travail spécifiques ?
    Nous avons porté ce questionnement dans le cadre du Transformateur Numérique, un dispositif d’innovation collaborative porté par l’Anact (Agence nationale pour l’amélioration des conditions de travail) et la Fing (Fédération Internet Nouvelle Génération) et qui vise à accélérer les initiatives mettant le numérique au service de la qualité de vie au travail. La huitième édition du Transformateur a ainsi été organisée en 2018 en partenariat avec le Groupe Chronos et Sharers & Workers avec pour thème : “Travails et communs, travail en commun, vers de nouvelles organisations du travail ?”. 

    Par la suite, ces rencontres se sont formalisées par la mise en place d’une expérimentation soutenue par le Fact (Fonds pour l’amélioration des conditions de travail de l’Anact). Dans ce cadre, nous avons accompagné six structures de l’écosystème des communs pour expérimenter de nouvelles formes d’organisations, de collaboration, d’encadrement de l’activité et d’innovation sociale, tout en mettant ces initiatives en réseau pour qu’elles se nourrissent mutuellement. Ces structures avaient toutes la particularité de mobiliser les potentialités offertes par le numérique, que ce soit pour la production de communs numériques, pour l’organisation du travail ou de la coopération… Il ne s’agissait absolument pas de s’interroger sur la gouvernance ou le statut de ces structures mais plutôt d’étudier comment mettre en avant les valeurs liées au communs dans les modalités de travail et d’organisation.

    À ce sujet, qu’avez-vous observé ? En quoi les communs sont-ils des modèles d’organisation du travail spécifique ?

    Notre travail a ainsi permis de formaliser des règles et processus qui étaient auparavant implicites, en s’adaptant à la volonté d’auto-organisation et de co-construction qui leur est chère.

    L’organisation et les objectifs de ces structures étant différents de ceux des entreprises “traditionnelles”, les façons de travailler et de reconnaître le travail le sont aussi et posent la question des outils mis à disposition des communs à ce titre.

    La difficulté commune à ces six structures était finalement de réussir à faire fonctionner des collectifs aux engagements variables et inégaux, avec certains contributeurs particulièrement sur-sollicités. Le suivi que nous avons mené a ainsi montré que ceci est notamment dû à l’absence de définition des concepts organisationnels mis en œuvre : comment mesurer et reconnaître la contribution et le contributeur, comment le rétribuer, comment gérer une collectif de contributeurs, comment évaluer les compétences, comment gérer les conflits…

    Il ressort également de nos observations que cette carence définitionnelle va de pair avec une grande difficulté à trouver un équilibre entre horizontalité et verticalité. Ces structures cherchent à remettre en question la subordination hiérarchique, à tendre vers des formes plus distribuées du pouvoir, à s’éloigner de la logique du “command and control” pour aller vers des formes de coopération plus horizontales. Elles cherchent aussi à expérimenter des “modèles organisationnels distribués » de production des communs, ce qui floute encore davantage la frontière entre l’intérieur et l’extérieur de l’entreprise et, de fait, de ses travailleurs. Toutefois, ces initiatives peuvent générer une certaine incompréhension voire frustration de la part des parties prenantes qui peuvent même mettre en péril les collectifs. Il s’agit enfin de rétribuer correctement le travail pour éviter un épuisement des contributeurs, ce qui sous-entend de savoir mesurer et évaluer le travail en amont. Notre travail a ainsi permis de formaliser des règles et processus qui étaient auparavant implicites, en s’adaptant à la volonté d’auto-organisation et de co-construction qui leur est chère.

    Nous avons aussi pu être amenés à expérimenter des dispositifs organisationnels nouveaux. Nous sommes face à des structures qui ne veulent pas poser la question du statut juridique : CAE, SCOP, SCIC… ce n’est pas leur préoccupation. Elles se demandent plutôt comment favoriser une approche du travail par les communs et comment s’outiller à cet égard. Il faut donc chercher d’autres modes de construction et d’outils pour gérer une entreprise, que ce soit en matière de gestion des conflits, des compétences, de la rétribution, de la coopération, de l’identification du travail, voire de la carrière. Tous ces mots-là, dont le Code du travail traite, il faut les réinterroger dans le cadre du commun. Par exemple, l’une des structures que nous avons accompagnées réfléchit depuis plusieurs années à la création d’un CDI communautaire : pourquoi aurait-on un contrat pour une seule personne et pas pour deux ? Ils ont ainsi répondu à des offres d’emploi pendant l’expérimentation avec deux personnes pour un même poste. Nous les avons fait accompagner par des juristes travaillistes de l’université de Lyon II. Ce sont des expérimentations très préliminaires et difficiles à mener parce qu’on est aux frontières de ce que permet le Code du travail. 

    Vous avez co-écrit avec Amandine Brugière un article intitulé “De la production de communs aux communs du travail”[1], comment définissez-vous ces communs du travail ?

    Il est très difficile de faire fonctionner sur la durée un collectif de travail ouvert, en l’absence de définition claire de cette ouverture. On observe en fait une tyrannie de l’absence de structure.

    La littérature fait apparaître deux principales approches des communs. La première, emmenée par Elinor Ostrom, part des ressources partagées pour ensuite étudier les règles qui en régissent les usages collectifs. La seconde approche, celle du “commoning” et notamment reprise par Pierre Dardot et Christian Laval, s’intéresse davantage au processus même de production d’un commun. C’est la continuité de celle-ci que nous nous sommes inscrites, car même si on a une ressource et une gouvernance, sans contributeur cela reste une coquille vide. Toutefois, dans les deux approches, l’accent est mis sur les règles juridiques voire politiques qui découlent de ces modèles, mais très peu sur les transformations organisationnelles qu’ils engendrent, c’est-à-dire la façon dont les ressources, les processus et les rapports sociaux sont mis en place par le collectif pour atteindre leurs buts.

    Nous avons identifié un écueil supplémentaire à ceux régulièrement pointés dans la littérature sur les communs : outre la surexploitation de la ressource et la difficulté à pérenniser le collectif de contributeurs – qui est réel, il y a un vrai enjeu d’épuisement du commoner. Il est très difficile de faire fonctionner sur la durée un collectif de travail ouvert, en l’absence de définition claire de cette ouverture. On observe en fait une tyrannie de l’absence de structure (pour reprendre les termes de la militante Jo Freeman) : toutes les organisations ont besoin de poser des règles structurelles, tout en s’émancipant des cadres traditionnels existants. Un équilibre doit donc être trouvé – et c’est là toute la difficulté – entre la liberté des personnes à s’engager volontairement dans ces projets et la nécessité de répartir, discuter, vérifier, évaluer même des tâches et responsabilités à chacun pour s’assurer de la bonne marche du projet. 

    Selon vous, comment devrait intervenir l’État vis-à-vis de ces structures et à leurs contributeurs ?

    Pour moi il s’agit d’abord d’une question de droit à l’expérimentation. Les expérimentations menées sont systématiquement hors-champ du Code du travail, et créent donc des risques juridiques. L’État pourrait porter davantage d’attention à ces innovations.

    Pour moi il s’agit d’abord d’une question de droit à l’expérimentation. Les expérimentations menées sont systématiquement hors-champ du Code du travail, et créent donc des risques juridiques. L’État pourrait porter davantage d’attention à ces innovations, qui ne sont pas des innovations de structure juridique mais d’organisation du collectif et du travail qui cherchent à mettre en avant des formes inédites et inconnues de coopération : comment les outiller et les accompagner ? Par nos expérimentations, nous avons parfois recréé du droit, mais il faudrait formaliser tout cela.

    Il faudrait aussi proposer des dispositifs adaptables : on ne peut pas mettre en place la même solution partout, cela ne fonctionne pas. Nous sommes face à des structures dont les valeurs portées relèvent d’un engagement politique, qu’elles déclinent dans tous leurs rouages. Elles ont donc besoin de s’approprier les outils. C’est une erreur de considérer que l’on peut avoir un dispositif générique. Par exemple, le droit créé autour de l’économie sociale et solidaire (ESS) n’apporte pas toutes les réponses ; notamment, il ne propose pas de solution pour rétribuer la contribution ouverte et ce droit concerne  des structures qui demeurent dans une logique marchande. Donner la possibilité à ces organisations de construire elles-mêmes leurs propres outils participe autant de l’accompagnement que l’accompagnement en lui-même. J’ai constaté une réticence forte à accepter des solutions émanant du du pouvoir exécutif ou du législateur. Il faut absolument éviter toute logique descendante.

    Enfin, on pourrait davantage s’inspirer des initiatives et des idées qui germent dans ces collectifs, notamment au sein de l’État dans une logique ascendante. Je pense que l’État peut aider à l’expérimentation, mais aussi regarder ce que les autres ont produit pour éventuellement le reprendre à son compte, l’étendre, le faciliter… L’État pourrait par exemple accepter d’avoir ces structures comme prestataires. La commande publique est un réel levier à cet égard.

    Odile Chagny, économiste, chercheuse à l’Institut de Recherches Économiques et Sociales (IRES) et co-fondatrice du réseau Sharers et Workers.

    [1] BRUGIÈRE, Amandine & CHAGNY, Odile. “De la production de communs aux communs du travail”. La Revue des conditions de travail, n°12, juillet 2021.”

  • Ces binaires non binaires

    Connaissez vous Sophie Wilson, Lynn Conway et Claire Wolf ? Bruno Levy nous offre la découverte de trois grandes personnalités du numérique, qui ont permis des avancées majeures en matière de capacité de calcul. Tandis que Marie Curie disait ne pas avoir fait sa carrière scientifique au mépris de sa vie de famille, mais « au mépris des imbéciles » ces trois personnes ont fait leur carrière scientifique au mépris des idées reçues. Serge Abiteboul, Benjamin Ninassi, et Thierry Viéville.

    Le numérique et ce que certains aiment appeler « intelligence artificielle » sont au cœur de nos vies. La plupart de nos actions, même les plus anodines, impliquent à un moment ou à un autre l’utilisation d’un ordinateur. Certains sont gigantesques, comme les centres de calculs des géants de la tech, et d’autres sont minuscules, cachés dans les objets du quotidien pour les rendre plus efficaces, plus « intelligents », mais cela, en tant que lecteur ou lectrice assidu·e du blog Binaire, vous le savez déjà !

    Mais connaissez vous des personnalités atypiques, hautes en couleur qui ont rendu ces innovations possibles ?

    Parmi elles, vous connaissez sans doute déjà Alan Turing qui a joué un rôle clef dans la définition des bases fondamentales de la science informatique et dans le décryptage des codes secrets Nazis. Vous vous souvenez de la triste fin de son histoire, jugé et condamné pour son homosexualité en 1952, contraint à la castration chimique, il met fin à ses jours le 7 Juin 1954. Plus de 60 ans après, Elizabeth II revient sur sa condamnation à titre posthume.

    L’actualité récente outre-Atlantique me fait prendre la plume pour vous inviter à un petit voyage au pays des trans-istors, quitte à assaisonner Binaire avec une pincée de non-binaire !

    Sophie Wilson : elle se cache dans votre poche, le saviez vous ?

    © Wikicommon

    Nos plus petits appareils numériques, tout comme les gros serveurs qui donnent vie à Internet ou encore les super-calculateurs qui tentent de percer les secrets des lois de la Physique ont tous en commun un composant essentiel : le micro-processeur. En quelque sorte, pour nos appareils numériques, le microprocesseur joue le rôle du « chef d’orchestre », jouant la « partition » – un programme – qui décrit le fonctionnement de l’appareil. Ce programme est écrit dans un langage, qui a son propre « alphabet », constitué d’instructions élémentaires, très simples, encodées sous forme de nombres dans la mémoire de l’ordinateur. De la même manière qu’il existe plusieurs alphabets (mandarin, cantonais, japonais, latin, grec, cyrillique …), on peut imaginer plusieurs jeux d’instructions différents. Définir cet « alphabet » n’est pas un choix anodin, comme nous l’a montré Sophie Wilson, informaticienne Anglaise, femme trans née en 1957.

    A la fin des années 1980, la BBC avait un ambitieux programme d’éducation au numérique. Alors employée d’Acorn Computers, Sophie Wilson a joué un rôle clef en définissant un jeu d’instruction original, caractérisé par son extrême simplicité (de type RISC, pour Reduced Instruction Set Computer (voir aussi : sur le blog binaire : « Un nouveau  RiscV» )), ce qui a permis à son entreprise de remporter le marché de la BBC. Ça n’est pas une idée qui vient naturellement à l’esprit ! On aurait pu penser qu’un jeu d’instruction plus complexe (CISC, pour Complex Instruction Set Computer) rendrait l’ordinateur plus puissant, mais ceci a permis de grandement simplifier la conception du microprocesseur, et a facilité une autre innovation, l’exécution en pipeline qui permet d’améliorer à la fois l’efficacité et la fréquence d’horloge du processeur. Une autre conséquence intéressante de cette simplicité est la réduction de la consommation énergétique, particulièrement intéressante pour l’embarqué ou les téléphones portables, et pour cause, le « cœur numérique » de votre fidèle compagnon portable n’est autre qu’un héritier de la lignée de processeurs ARM initiée par Sophie Wilson.

    Lynn Conway a compté les transistors jusqu’à l’infini … deux fois !

    © Wikicommon

    Les micro-processeurs sont le résultat d’un assemblage d’un très très … très grand nombre de petits éléments – des transistors. Les premiers micro-processeurs, tels que le 4004 sorti par Intel en 1971, comptaient quelques milliers de transistors. Depuis cette époque, la technique permettant de graver des transistors dans du silicium (la stéréo-lithographie) a fait des progrès considérables, permettant de graver dans une seule puce des millions de transistors dans les années 90 (on parlait alors de VLSI pour « Very Large Scale Integration », et des milliards à l’heure actuelle ! Au début des années 1970, les premiers micro-processeurs étaient conçus « à la main », les ingénieurs dessinant les quelques milliers de transistors, mais peu à peu la croissance du nombre d’éléments ont rendu nécessaire l’invention de nouveaux outils et nouvelles méthodologies, permettant aux architectes de l’infiniment petit de poser les « routes », les « usines » et les « entrepôts » microscopiques ( ou plutôt nano-scopiques) qui constituent les micro-processeurs modernes. Lynn Conway a joué un rôle clef dans cette révolution… deux fois !

    Recrutée en 1964 par IBM, elle rejoint l’équipe d’architecture des ordinateurs, pour concevoir un super-ordinateur : l’ACS (Advanced Computer System). A cette époque on ne parle pas encore de micro-processeur, mais elle introduit dès lors une innovation spectaculaire, le DIS (Dynamic Instruction Scheduling) : si on revient à notre processeur de tout à l’heure, il exécute une suite d’instruction, mais est-il obligé de les exécuter dans l’ordre où elles se présentent ? Lynn Conway montre qu’il est parfois intéressant de changer l’ordre d’exécution des instructions, ce qui permet d’exécuter plusieurs instructions à la fois ! (ce qu’on appelle un processeur superscalaire). Mais voilà, elle révèle en 1968 son intention de changer de sexe, ce qui lui vaut d’être licenciée par IBM. Bien des années plus tard, en 2020, l’entreprise lui a adressé des excuses publiques.

    Elle reprend alors sa carrière, cette fois en tant que femme, en repartant de zéro, sans révéler son identité précédente. Elle gravit les échelons un par un, tout d’abord comme analyste programmeuse, puis elle travaille au fameux Xerox Parc où elle va diriger le « Large Scale Integration group ». C’est là qu’elle met au point l’ensemble de techniques et de logiciels permettant de réaliser les plans de micro-processeurs extrêmement complexes (la chaîne EDA pour Electronic Design and Automation). Après un passage au DARPA de 1983 à 1985, elle devient professeur à l’Université du Michigan, et rédige avec Carver Mead un ouvrage qui fera référence sur le sujet, et qui a permis de diffuser très largement ces technologies révolutionnaires de conception de puces  (c.f. cette liste de référence sur le contexte et l’impact de cette publication ).

    Alors qu’elle approche de l’age de la retraite, elle révèle son histoire et son passé chez IBM, et travaille pour défendre les droits des personnes trans-genre. Elle décède l’année dernière, le 9 Juin 2024, à l’age de 86 ans.

    Claire Wolf : impression 3D et conception électronique pour toutes et tous !

    ©yosyshq (https://www.yosyshq.com/team)

    Les nombreux outils disponibles dans notre monde numérique rendent notre vie plus facile, permettent de créer et d’échanger de l’information, mais, particulièrement dans le contexte actuel, il serait dangereux de laisser le contrôle de ces outils a un petit nombre d’acteurs. Née en 1980, femme trans, Claire Wolf a apporté des innovations importantes dans deux domaines différents.

    Les technologies dites d’impression 3D (ou plutôt de fabrication additive) permettent à tout un chacun de fabriquer des objets avec des formes précises. Ceci ouvre la porte à de nombreuses applications, ou plus modestement, permet de réparer les objets du quotidien en créant soi-même des pièces de rechange. Développée dans les années 1980, cette technologie a connu un regain d’intérêt quand les différents brevets la protégeant ont expiré, permettant à tout un nouvel ensemble d’acteur de proposer des solutions et des produits. Mais créer des objets en 3D reste un travail d’expert, dépendant de logiciels coûteux et complexes. Claire Wolf a développé le logiciel OpenSCAD ,  une sorte de langage de programmation « avec des formes », permettant facilement de créer des pièces complexes en combinant des éléments plus simples. Ce logiciel a permis à toute une communauté de « makers » de créer et de partager des formes (voir par exemple https://www.thingiverse.com/).

    Mais Claire Wolf ne s’est pas arrêtée là ! Si grâce à OpenSCAD tout un chacun peut réparer le buffet de la cuisine en imprimant une cale de la bonne forme en 3D, est-ce qu’on ne pourrait pas imaginer un outil permettant à tout un chacun de concevoir ses propres puces ?

    Ceci peut sembler totalement hors de portée, mais il existe une étape intermédiaire : les FPGAs. Ce sont des circuits électroniques re-configurables, véritable « terre glaise », que chacun peut modeler à sa guise pour réaliser n’importe quel circuit logique (voir par exemple sur le blog binaire «Une glaise électronique re-modelable à volonté») Mais il y a une difficulté : ces FPGAs sont livrés avec des logiciels du constructeur, lourds et monolithiques, difficiles à apprendre, et peu adaptables à des cas d’utilisation variés. Pour cette raison, Claire Wolf a créé Yosys, un logiciel Open-Source rendant la conception de circuits logiques bien plus facile et abordable. Et pour ceux qui souhaitent franchir le pas jusqu’à la création d’un vrai circuit intégré, des initiatives tels que TinyTapeOut de Matt Venn permettent de le faire pour quelques centaines d’Euros ! Pour enrichir l’écosystème des outils de conception de circuits électroniques (EDA), Claire Wolf a créé l’entreprise YosysHQ, qui offre des solutions de vérification formelle.

    Comme le chante Jean-Jacques Goldman, elles ne sont pas des « standards », « des gens bien comme ils faut », mais elles donnent leur différence. Espérons que notre société sache rester consciente de sa diversité, fière de sa richesse, ouverte et fraternelle.

    Bruno Levy.

  • Prêtez Attention : quand « prêter » est « données » (épisode 2)

    A l’heure où Elon Musk fait un peu n’importe quoi au nom de la liberté d’expression, quand des grands patrons du numérique lui emboitent le pas sans doute pour pousser leurs intérêts économiques, il devient encore plus indispensable de comprendre les mécanismes qui causent des dysfonctionnements majeurs des plateformes numériques.  Ce deuxième épisode d’un article de Fabien Gandon et Franck Michel nous aide à mieux comprendre.  Serge Abiteboul & Thierry Viéville.

    Image générée par les auteurs avec Bing/DALL·E 3 à partir du prompt “photo of a street with many people with their smartphones displaying different hypnotic images” ©CC-BY

    Dans le précédent billet nous vous avons donné l’excuse parfaite pour ne pas avoir fait de sport ce week-end : ce n’est pas de votre faute, votre cerveau a été hacké ! Nous avons vu que, à coup de likes, de notifications, de flux infinis et d’interfaces compulsogènes, les grands acteurs du Web ont mis au point des techniques capables de piller très efficacement notre temps de cerveau. Nous avons aussi vu que, en s’appuyant sur des données comportementales massives, les algorithmes apprennent à exploiter notre biais de négativité et favorisent les contenus qui suscitent colère, peur, indignation, ressentiment, frustration, dégoût, etc. Nous avons constaté que, en nous enfermant dans un espace informationnel où rien ne contredit nos croyances, les algorithmes de recommandation ont tendance à créer des visions du monde différentes pour chaque utilisateur. Nous avons enfin conclu que cette combinaison d’émotions, de biais cognitifs et de recommandations automatisées peut conduire à une escalade émotionnelle, à la polarisation et la radicalisation des opinions.

    En manque… d’attention et en over-dose d’inattention

    Finalement, ce premier billet nous amène à nous interroger sur le caractère addictogène de certains médias sociaux. Une addiction peut survenir dans toute activité pour laquelle une personne développe un appétit excessif. Il peut s’agir d’une dépendance à une substance (ex. une drogue) ou d’une dépendance comportementale, cette dernière se caractérisant par l’impossibilité de contrôler la pratique d’une activité comme les jeux d’argent, ou dans notre cas, l’utilisation d’un média social. On sait qu’une dépendance se développe lorsqu’un comportement particulier est incité et encouragé, qu’il est récompensé d’une manière ou d’une autre, et que rien n’incite à l’arrêter. Or les algorithmes de captation de l’attention sont des héritiers directs de la captologie et suivent à la lettre la formule de développement d’un comportement addictif : les utilisateurs font l’objets de notifications régulières pour initialiser et enclencher l’habitude ; la récompense de l’utilisation repose sur de multiples mécanismes (ex. nombre de likes, émotions, etc.) ; et l’absence de moyens de « décrocher » est au cœur des interfaces (ex. fil infini, auto-play, opt-out par défaut, etc.). On dit souvent qu’un algorithme est une recette, ici on pourrait même parler de la recette d’une drogue de synthèse numérique.

    Voilà… Maintenant que le doute est là, vous voyez votre téléphone non seulement comme un espion qui vend vos données, mais aussi comme un traître, un manipulateur et même un dealer numérique ! Et vous vous interrogez sur les dégâts que font ces hackers du cerveau. Mais le problème va plus loin car le Web et Internet forment de vastes toiles qui couplent toutes leurs ressources, et les impacts de ces manipulateurs automatiques se propagent et se combinent par l’effet de mise en réseau.

    Fausses informations pour vraie attention

    Partant des constats déjà sombres du précédent billet, il faut noter que les choses s’aggravent encore lorsque les contenus dont nous parlons sont des fake news, des fausses informations. En effet, celles-ci s’appuient souvent sur la colère, la frustration ou le dégoût pour hameçonner notre attention. Elles trouvent ainsi sur les réseaux sociaux un terrain particulièrement fertile. Par leurs affirmations choquantes, elles sont vécues par beaucoup comme une injonction à prendre parti en les re-partageant plutôt que de faire appel à l’esprit critique et vérifier leur véracité. Ainsi des études ont montré que les algorithmes de recommandation tendent à favoriser les fausses informations véhiculant des idées clivantes ou des événements choquants. Et comme ces informations sont souvent relayées par des connaissances, le biais de la preuve sociale nous incite à les juger crédibles et dignes de confiance. Répétées encore et encore, associées à des représentations du monde convoquant les théories du complot, renforcées sous la pression des bulles de filtres, et propulsées par l’effet de réseau, les fausses informations instaurent une économie du doute où la vérité est remplacée par la vraisemblance. Avec une éditorialisation qui ne fait pas la différence entre un article écrit par des journalistes professionnels d’un côté, et des fausses informations relayées par un bot malveillant de l’autre, « la presse n’est plus perçue comme celle qui publie, mais comme celle qui cache« . Progressivement et insidieusement, le doute sape notre confiance dans les experts (savants, journalistes…), entraînant des risques pour la santé publique et favorisant l’émergence d’idées extrêmes et de populismes qui mettent en danger les démocraties. Ce que Giuliano Da Empoli résume par la phrase : « le populisme naît de l’union de la colère et la frustration avec les algorithmes« .

    Attentions troubles et troubles d’attention

    Qui plus est, des études ont montré que la personnalité, les valeurs, les émotions et la vulnérabilité des utilisateurs influencent leur propension à propager de la désinformation. Chacun de nous aura donc des réactions différentes face aux mécanismes que nous avons vus. Mais au-delà de ce fait, nous avons jusqu’ici considéré des utilisateurs lambda sans problème de santé particulier. Il convient cependant d’envisager ce qui se passe pour les utilisateurs souffrant de handicaps ou de troubles mentaux comme la dépression, l’anxiété, le trouble d’achat compulsif, la paranoïa, le FOMO, le FOBO, etc.

    On peut penser en particulier au trouble de déficit de l’attention (TDA). Des études attestent que les symptômes du TDA peuvent être aggravés par l’utilisation des médias numériques et de leurs applications conçues pour capter l’attention. Plus inquiétant encore, ces applications pourraient provoquer des TDA chez des personnes n’ayant aucun antécédent de ce trouble. Si ces études sont préliminaires elles nous encouragent à davantage de recherches sur le sujet ainsi qu’à nous poser la question du principe de précaution.

    A l’attention des créatifs

    Nous, les auteurs de ce billet, sommes des scientifiques. Comme d’autres collègues nous nous sommes reconnus dans l’article de David R. Smith : « Attention, attention : vos atouts scientifiques les plus précieux sont attaqués ». Dans cet article, Smith appelle à se pencher sur ce que les plateformes du Web font à la recherche et au domaine académique. En effet, même les scientifiques et ingénieurs les mieux informés sur ces sujets ne sont pas immunisés contre ces problèmes. Tout comme lire le “Petit traité de manipulation à l’usage des honnêtes gens” et “La soumission librement consentie” n’immunise pas contre la manipulation, connaître les méthodes de captation de l’attention n’est pas suffisant pour leur échapper. 

    Les « gadgets numériques », comme les appelle Smith, contribuent à ce qu’il appelle « un trouble de déficit de l’attention académique ». On sait que la concentration, mais aussi les moments d’ennui, de flânerie intellectuelle et de rêverie, sont essentiels à la pensée créative. Beaucoup d’entre nous ont déjà expérimenté l’éclair d’une idée soudaine au milieu d’un moment de détente. En volant ces moments, les systèmes de captation de l’attention entravent le processus créatif.

    Bien sûr, ces remarques peuvent être généralisées à de nombreuses autres activités et professions nécessitant concentration, créativité et imagination. On peut en effet se demander ce que les systèmes de captation de l’attention font à des domaines comme la politique, la santé, l’éducation ou la création artistique, par exemple. En d’autres termes : attention penseurs et créateurs ! Nous devons repenser ces systèmes pour qu’ils répondent à nos besoins, et non l’inverse car la véritable monnaie d’échange de nos métiers est celle des idées.

    Attention Fragile ! Vers des principes de préservation de l’attention

    Après ces constats anxiogènes, essayons maintenant d’être constructifs. Puisque, dans un monde de plus en plus numérique, notre attention sur-sollicitée s’avère fragile, nous proposons d’aller vers une gouvernance responsable de l’attention sur le Web en posant plusieurs principes.

    Un premier groupe de principes concerne les utilisateurs. Pour renforcer leur autonomie, le principe de la réflexivité continue propose que les plateformes leur fournissent régulièrement des retours d’information leur permettant d’être conscients de leurs usages (temps passé, exposition à des contenus négatifs, diversité, etc.), et permettant ainsi de garantir leur consentement éclairé à chaque instant. En outre, le principe de transparence préconise de leur expliquer clairement les motivations et les raisons derrière chaque recommandation, et le principe de soutien à la diligence raisonnable insiste sur l’importance de leur fournir les moyens et les informations nécessaires pour échapper aux boucles et processus imposés par les systèmes. Enfin, le principe d’opt-in par défaut suggère que les notifications et la personnalisation des recommandations soient désactivées par défaut, et activées uniquement après un consentement éclairé et un paramétrage volontaire.

    Attention by design

    Un deuxième groupe de principes vise à s’assurer que les plateformes intègrent dès leur conception (by design) le respect des utilisateurs. Le principe d’incitation orientée recommande d’utiliser des moyens légaux (interdire certaines pratiques) et économiques (taxes) pour encourager les plateformes à adopter des comportements ayant un impact sociétal positif (éducation, soutien à la collaboration et au débat constructif, élaboration collective de solutions sur les grands problèmes de société…). Et inversement, sanctionner les comportements nuisibles, une sorte de politique de la carotte et du bâton. 

    De plus, le principe de conception d’interactions bienveillantes appelle à placer le bien-être des utilisateurs au cœur de la conception des interfaces et de leurs objectifs algorithmiques, en s’alignant sur les bonnes pratiques des bright patterns plutôt que celles des dark patterns. D’autres médias sociaux sont en effet possibles, comme Wikipédia qui fait émerger du contenu de qualité sans jamais rechercher la viralité des contenus ni la popularité des contributeurs qui restent pour l’essentiel des citoyens anonymes.

    Le principe des recommandations équilibrées vise à éviter la spécialisation excessive des contenus recommandés et à prévenir la formation de bulles de filtres. Notons aussi que lorsqu’une fausse information est corrigée ou démentie, il est fréquent que le message portant la correction ou le démenti soit quasiment invisible en comparaison de la viralité avec laquelle la fausse information a circulé. Aussi, pour aller vers plus de transparence, le principe de la visibilité équilibrée propose que les mesures préventives et correctives d’un problème soient rendues aussi visibles que le problème qu’elles traitent.

    Enfin, pour que ces principes soient appliqués, le principe d’observabilité stipule que les plateformes doivent fournir aux institutions, à la société civile et aux chercheurs les instruments juridiques et techniques leur permettant d’effectuer un contrôle et une vérification actifs de l’application et de l’efficacité des réglementations.

    L’attention comme bien commun

    Dans une perspective plus large, si nous considérons l’attention comme un bien commun au sens économique, le principe de la préservation des communs numériques stipule aussi que les services ayant un impact mondial sur nos sociétés doivent être considérés comme des communs numériques, et à ce titre, protégés et soumis à des règles spécifiques de « préservation ». Cela pourrait par exemple passer par le fait de doter ces services (ou au moins les nouveaux entrants) d’une mission de soutien à un débat public constructif. 

    Enfin, le principe de transfert des meilleures pratiques invite à s’inspirer des approches éprouvées dans d’autres domaines, comme le droit encadrant la publicité, les casinos ou le traitement de certaines addictions, pour réguler efficacement les pratiques sur le Web. Prenons l’exemple de l’industrie du jeu vidéo : il a été montré qu’un lien existe entre les « loot boxes » (sortes de pochettes surprises des jeux vidéos) et l’addiction aux jeux d’argent. Celles-ci seraient comparables aux jeux de hasard, pouvant entraîner des comportements addictifs et mettre les joueurs en danger. Ce constat a donné lieu à plusieurs régulations. La manière d’étudier et de traiter cette exploitation indésirable de nos comportements et la transposition de connaissances issues d’autres domaines sont des sources d’inspiration pour d’autres pratiques problématiques sur le Web, telles que celles dont nous venons de parler.

    Faisons attention… à nous

    Résumons-nous. Avec l’objectif initial, somme toute banal, de rendre la publicité plus efficace, la généralisation des techniques de captation de l’attention et l’utilisation qu’elles font des biais cognitifs et des émotions ont des effets délétères très préoccupants sur nos sociétés : polarisation des opinions, diffusion de fausses informations, menace pour la santé publique, les économies et les démocraties. Et oui ! Ce sont donc des (ro)bots qui hackent notre attention car ils sont conçus pour cela ou, plus précisément, pour la capter de façon optimale en vue de la monétiser. De fait, ils utilisent le Web dans un but économique qui va à l’encontre du bien commun. Mais en adoptant les principes proposés ci-dessus, nous pensons qu’il est possible de construire un Web qui continue de soutenir l’activité économique sans pour autant entraîner la captation systématique de l’attention.

    Dans ses essais, Montaigne nous disait “quand on me contrarie, on éveille mon attention, non pas ma colère : je m’avance vers celui qui me contredit, qui m’instruit.”. Or les plateformes nous poussent à faire le contraire : éveiller l’émotion négative et s’éloigner d’autrui. Mais il n’est pas raisonnable de laisser de multiples moyens technologiques hacker nos cerveaux et créer un déficit mondial d’attention, nous empêchant ainsi de la porter sur des sujets qui devraient actuellement nous « contrarier ». A une époque où nous devons modifier nos comportements (par exemple, la surconsommation de biens et d’énergie) et porter notre attention sur des questions cruciales comme le changement climatique, nous devrions nous demander si les algorithmes de recommandation font les bonnes recommandations, et pour qui. Compte tenu des quatre milliards d’utilisateurs pris chaque jour dans leurs boucles de recommandation, il est important de surveiller en permanence comment et dans quel but ces systèmes captent notre attention. Car lorsque notre attention est consacrée à un contenu choisi par ces plateformes, elle est perdue pour tout le reste.

    Merci… pour votre attention 🙂

    Fabien Gandon, Directeur de Recherche Inria et Franck Michel, ingénieur de recherche, Université Côte d’Azur, CNRS, Inria.