Catégorie : Numérique

  • Les États-Unis frappent le Danemark au cœur de son système numérique !

    Sur le blog binaire, nous aimons aussi la fiction, et Henri d’Agrain, nous partage ici une petite nouvelle bien … édifiante. Plaise à la vie que cela reste bien de la fiction. Yves Bertrand Serge Abiteboul
    Dessiné aux bons soins de l’auteur par ChatGPT, qui ne s’est pas fait prier…

    Bruxelles, le 4 juillet 2025, par notre envoyé spécial, Jean Pacet-Démayeur

    Une décision historique et lourde de conséquences vient bouleverser les relations entre les États-Unis et l’Union européenne. Dans un contexte de tension croissante depuis six mois, le Président Trump a annoncé hier soir, à la veille des célébrations de l’Independence Day, qu’il avait signé un Executive Order avec effet immédiat, interdisant aux entreprises technologiques américaines de délivrer des produits et des services numériques au Danemark, membre de l’Union européenne. Cette mesure de rétorsion, sans précédent entre alliés historiques, est la conséquence du conflit diplomatique majeur que Donald Trump a provoqué en annonçant au début de l’année, et avant d’entrer à la Maison blanche le 20 janvier 2025, son projet d’annexion par les États-Unis du Groenland, y compris par la force armée.

    Une annexion qui embrase les relations internationales

    Tout a commencé il y a six mois en effet, lorsque Donald Trump a annoncé sa volonté d’annexer le Groenland, éventuellement par la force armée. L’île principale de l’Atlantique Nord représente en effet un atout géostratégique majeur en raison de sa proximité avec les routes maritimes critiques reliant l’Europe, l’Asie et l’Amérique du Nord, ainsi que pour ses riches réserves en matières premières stratégiques. Déjà en 2019, une rumeur prêtait à Donald Trump, au cours de son premier mandat, l’intention d’acheter le Groenland au Danemark.

    Malgré des protestations fermes de l’Union européenne et des appels au dialogue international, le Président Donald Trump a justifié sa décision par des impératifs stratégiques et de sécurité nationale. En réponse, le Danemark a saisi le Conseil de sécurité des Nations Unis, appelant à une mobilisation diplomatique mondiale.

    Un embargo numérique aux conséquences vertigineuses

    Hier soir, dans une escalade sans précédent, la Maison-Blanche a annoncé qu’elle interdisait à toutes les entreprises américaines de la tech de continuer à fournir leurs services au Danemark et à son économie. Cette décision inclut des géants tels que Microsoft, Google, Amazon, Meta et Apple, dont les infrastructures, les logiciels et les plateformes sont omniprésents dans l’économie danoise. Il a par ailleurs annoncé que les États-Unis lèveront cet embargo numérique lorsque le Danemark aura accepté de leur vendre le Groenland à un prix raisonnable et conforme à l’offre d’achat formulée en avril 2025.

    Le ministre danois de l’Économie a qualifié cette décision de « déclaration de guerre économique », prévenant que son pays faisait face à une « paralysie imminente ». En effet, le fonctionnement de l’économie danoise repose largement sur les services cloud de fournisseurs américains, tandis que son administration publique et son système éducatif dépendent étroitement d’outils tels que Microsoft 365. Plusieurs organisations professionnelles danoises ont par ailleurs appelé le Gouvernement a engager des négociations avec les États-Unis pour éviter l’effondrement de l’économie du pays.

    Les conséquences sociales se font déjà sentir : la plupart des administrations publiques sont à l’arrêt, des milliers d’entreprises se retrouvent coupées de leurs outils de gestion, les services bancaires numériques sont indisponibles, et les citoyens constatent qu’ils ne peuvent plus accéder à leurs services du quotidien comme les applications de messagerie, les réseaux sociaux ou les plateformes de streaming. Les hôpitaux, quant à eux, s’inquiètent de l’accès à leurs systèmes de données patient, majoritairement hébergés sur des serveurs américains.

    Une vulnérabilité européenne mise à nu

    Cette crise expose cruellement le caractère systémique des dépendances numériques des États européens et de leur économie à l’égard des technologies américaines. Si le Danemark est le seul à être touché, d’autres États européens redoutent des mesures de rétorsions similaires. La Commission européenne, par la voix de sa Présidente, a déclaré que « l’Union européenne déplore de telles attaques contre l’intégrité économique et numérique de l’un de ses membres. » Elle a appelé au dialogue entre les États-Unis et le Danemark et à l’apaisement des tensions. Elle a par ailleurs proposé aux États membres d’apporter un soutien technique au Danemark. Elle suggère enfin de lancer les travaux nécessaires pour accélérer les stratégies d’investissements de l’Union dans des alternatives européennes, notamment en mettant en œuvre les préconisations inscrites dans le rapport que Mario Draghi, l’ancien président de la Banque centrale européenne, lui avait remis en septembre 2024.

    Les réponses possibles du Danemark

    Face à cette situation inédite, le gouvernement danois tente de réagir. Des négociations d’urgence ont été ouvertes avec des acteurs non américains pour assurer une transition vers des systèmes alternatifs, mais de telles démarches de migration prendront des mois, voire des années. Parallèlement, le pays envisage des mesures de rétorsion, comme le blocage des actifs américains sur son territoire, mais son poids économique relativement faible limite ses marges de manœuvre.

    En attendant, les citoyens danois se préparent à vivre une crise sans précédent. Certains experts avertissent que cette situation pourrait entraîner une radicalisation de l’opinion publique contre les États-Unis, renforçant les partis politiques favorables à un rapprochement avec d’autres puissances mondiales.

    Une fracture durable ?

    Alors que la situation semble s’envenimer, de nombreux observateurs redoutent que cette crise ne marque un tournant dans les relations transatlantiques. L’embargo numérique américain pourrait non seulement remodeler les alliances stratégiques comme l’OTAN, mais aussi accélérer le développement de systèmes technologiques régionaux indépendants, que ce soit en Europe ou ailleurs. Une chose est certaine : le Danemark est devenu, bien malgré lui, le théâtre d’une confrontation qui pourrait redéfinir l’ordre international.

    Henri d’Agrain, Délégué général du Cigref, Membre du Conseil scientifique de la SIF.

    Cet article est repris du blog Linkedin de Henri.

  • Les robots resteront c…s, mais nous, le serons un peu moins.

    Lorsque Stanislas Dehaene et Yann Le Cun se sont rencontrés ils nous ont expliqué dans un super livre, co-écrit avec Jacques Girardon, que  « l’intelligence a émergé avec la vie, elle s’est magnifiée avec l’espèce humaine » tandis que ce que d’aucun appelle « intelligence artificielle » va surtout changer le regard que nous portons sur l’intelligence naturelle, dont humaine.  Ici, c’est notre collègue Max Dauchet qui prend la plume pour nous faire partager les idées clés et son analyse sur ces dernières avancées de l’informatique et des neurosciences. Serge Abiteboul et Thierry Viéville.

    Voici ce que je retiens d’un petit livre de deux grands chercheurs sur l’intelligence humaine et l’intelligence machine.

    Le recueil, déjà ancien mais toujours actuel, est basé sur une interviewi de deux chercheurs français mondialement connus : Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale au Collège de France, pour notre cerveau et notre intelligence, et Yann Le Cun, prix Turing, pour les machines bio-inspirées comme le deep learning et leur intelligence artificielle. Ce livre est passé sous les radars des media car il privilégie la science au détriment du buzz.

    Il se lit d’un trait.

    Voici ce que j’en retiens.

    L’intelligence est présentée comme la capacité générale à s’adapter à une situation. Selon cette définition, l’intelligence émotionnelle est un aspect de l’intelligence, à laquelle contribuent aussi bien nos sens, nos mains que notre cortex, le tout constituant un système de saisie et de traitement d’informations qui accroît les chances de survie de l’espèce en fonction de son environnement, ainsi que celles de l’individu au sein de son espèce. Il s’agit d’une organisation qui n’est pas nécessairement basée sur des neurones, ainsi l’intelligence d’une moule consiste en son aptitude à filtrer l’eau pour en tirer des nutriments. Néanmoins, au fil du temps, les systèmes interconnectant les « petites cellules grises » ramifiées se sont avérés particulièrement performants. Quant à l’humain, il a bénéficié de circonstances ayant permis l’extension de la boite crânienne et son cortex.

    Tout le développement de la vie peut ainsi être vu comme un apprentissage compétitif de perpétuation. Le cerveau et son cortex ne sont pas de simples réseaux de neurones interconnectés au hasard, ils sont dotés de zones organisées et spécialisées et de processus de contrôle des connexions synaptiques sophistiqués. Les structures cérébrales les plus favorables ont été sélectionnées et figées avec plus ou moins de souplesse selon les avantages procurés. Ces zones ont constitué au fil du temps la partie innée de notre cerveau, dont les «noyaux gris» tels le striatum évoqué par Bohlerii. Le fonctionnement hérité de ces structures est inconscient, qu’il s’agisse de la régulation vitale de notre organisme, du traitement de la vision ou de tout autre signal capté par nos sens. L’évolution a conjointement à la structuration cérébrale de l’espèce préservé une plasticité cérébrale qui assure un avantage adaptatif à court terme, voire une capacité à se reconfigurer en cas d’accident ou d’invalidité. Cette plasticité permet chez l’humain une large part d’acquis à deux échelles. A l’échelle individuelle, il s’agit de l’apprentissage par l’expérience, le groupe, l’école, la culture. Cet apprentissage se traduit en structurant les circuits neuronaux par des « réglages » des synapses, qui sont des millions de milliards de points de transmission d’informations électrochimiques entre les neurones. Les connaissances ainsi apprises par un individu durant sa vie disparaissent avec lui. Mais elles sont transmises à l’échelle collective par un processus qui sort du cadre de l’hérédité génétique et est spécifique aux hominidés: la civilisation, ses constructions, ses outils, ses objets, ses cultures, ses croyances, ses sciences et ses arts – et en dernier lieu l’écriture et la capacité à se construire une histoire. Au lieu de coévoluer avec sa savane, sa mer ou sa forêt, l’humain coévolue avec l’accumulation de ses créations. Pour illustrer la dualité inné-acquis, Dehaene prend l’exemple des langues et de la causalité. Si un bébé peut apprendre n’importe quelle langue, c’est parce que toutes les langues ont des principes communs, et qu’une zone du cerveau s’est spécialisée dans leur traitement. Pour la causalité, imaginons deux populations sur une île. L’une fait le lien entre une chute de pierre et un danger, entre un crocodile et un danger, entre un signe de congénère et son attitude envers lui, autant d’exemples de lien entre cause et effet. L’autre population ne fait pas le lien, celle-ci disparaîtra et à la longue l’espèce survivante héritera de structures ou zones du cerveau «câblées» pour la recherche de causalités. De même pour les corrélations.

    Ces considérations donnent la tonalité du récit de l’évolution de l’intelligence proposé dans le livre et font consensus dans les milieux scientifiques actuels. Il faut néanmoins souligner qu’il ne s’agit que de récits, pas de modèles aussi éprouvés que l’électromagnétisme ou la relativité. Il s’agit d’une tentative de dresser le tableau d’ensemble d’un puzzle dont de nombreuses pièces sont manquantes. Il en est de même du récit darwinien en général. Néanmoins en neurosciences on peut monter des expériences pour conforter ou infirmer des hypothèses, et Dehaene en relate quelques-unes, alors qu’en paléontologie ou en anthropologie on est souvent réduit à fouiller à la recherche d’indices peut-être disparus.

    Pour ce qui est des machines, Le Cun fait à juste titre remarquer que le terme «intelligence machine» serait plus adéquat que celui consacré d’«intelligence artificielle» car l’intelligence est un système évolutif et interactif, dont l’organisation importe plus que le support, biomoléculaire ou silicium. On pourrait même voir l’écologie et l’évolution de la planète comme une intelligence, sans pour autant verser le moins du monde dans le culte de Gaïa (un chapitre du livre s’intitule d’ailleurs «L’intelligence de la vie»). Remarquons au passage que cette idée évoque la mouvance nord américaine de l’Intelligence design, à ceci près – nuance qui n’est pas des moindres – que dans cette vision épurée du judéo-christianisme, l’intelligence évoquée est finaliste, elle est la main de Dieu. Alors que dans le darwinisme nul objectif, nulle réalisation de dessein ne sont assignés au cheminement de l’évolution. Ce qui fait envisager en fin d’interview le dépassement de l’intelligence humaine sur le temps long, le passage par un couplage humain-machine semblant aux auteurs une étape probable. A noter qu’il n’est heureusement pas pour autant question dans l’ouvrage de transhumanisme, ensemble de micro-mouvements pseudo scientifiques surfant entre crainte d’un grand remplacement (par des cyborgs) et sur la quête d’immortalité.

    Illustration du livre proposée par ChatGPT, générée par l’auteur. Elle ne reflète pas la tonalité humanisme du texte, qui nous aide au contraire à dépasser les mythes trans et post humanistes.


    L’intelligence machine est survolée dans cet opuscule à travers sa comparaison à l’humain, et sous l’angle des machines bio-inspirées, comme l’est le deep learning dont Le Cun est un des pères. Le neuro et le data scientiste ne voient pas de limites a priori à l’intelligence machine, des progrès majeurs restant pour cela à accomplir dans la capacité de planification d’ensemble d’une stratégie, qui constitue encore un avantage majeur du cerveau humain. A noter que le mot «conscience» apparaît 22 fois sans être explicitement défini, car pour les interlocuteurs il est évacué de toute considération philosophique. Les activités innées sont inconscientes, celles apprises comme la conduite automobile le deviennent au fil de l’habitude. Les activités conscientes sont celles qui nécessitent de la réflexion.

    Sur un plan technique, la rivalité historique entre l’approche symbolique (par le raisonnement) et l’approche connexionniste (par les réseaux neuronaux) de l’IA est brièvement rappelée. Le Cun y évoque ce que l’on a baptisé «l’hiver de l’IA», fait de discrédit et d’assèchement des financements, dans lequel les déconvenues du Perceptron avait plongé le connexionnisme. Il souligne un fait souvent passé inaperçu qui éclaire pourtant la triomphale résurgence des réseaux de neurones. Il s’agit des travaux activement menés durant cet «hiver» de deux décennies sous la modeste appellation de «traitement du signal et des images» pour ne pas agiter le chiffon rouge d’une intelligence artificielle bio-inspirées. Ces travaux ont notamment mené aux réseaux de convolution (CNN Convolution Neural Network) chers à Le Cun et qui sont à la base du succès du deep learning.

    Enfin les auteurs pointent un principe essentiel, qui lui est largement connu mais qu’il est bon de marteler : «Apprendre, c’est éliminer» dit Dehaene en écho à une expression fétiche de son maître Jean-Pierre Changeux. Et l’on peut ajouter qu’apprentissage et créativité sont les deux faces d’une même pièce. Pas seulement au sens de la connaissance comme terreau du progrès, mais en un sens beaucoup plus fondamental relevant des lois du traitement de l’information au même titre que la chute de la pomme relève des lois physiques. En deux mots, apprendre par coeur ne sert à rien, si l’on apprend à reconnaître un visage en retenant par coeur chaque pixel d’un photo, on ne saura pas reconnaître la personne sur une autre photo, il faut approximer un visage par quelques caractéristiques, c’est à dire «éliminer» intelligemment les informations inutiles. Et il se crée ainsi des représentations internes du monde qui en sont des approximations utiles pour nous. Cependant, aucune pression évolutive n’a «verrouillé» l’usage de ces représentations en les limitant aux instances qui les avaient suscitées. Ainsi notre propension «câblée» à la causalité, déjà évoquée, sorte d’approximation de la logique usuelle du monde qui nous entoure, nous a fait imaginer des dieux comme causes des évènements naturels, et nourrit aussi peut-être le complotismeiii et sa recherche de causes cachées.

    Max Dauchet, Professeur Émérite de l’Université de Lille.

    En savoir plus : on ne peut que chaudement recommander au lecteur motivé les vidéos des cours donnés au Collège de France par Stanislas Dehaene en Psychologie cognitive expérimentaleYann Le Cun en Informatique et Sciences du Numérique et aussi Benoit Sagot dans la même discipline, ainsi que ceux de Stéphane Mallat en Sciences des données, ces derniers portant sur les réseaux de neurones comme approximateurs au sens des lignes qui précédent.

    Références :

    i Stanislas Dehaene, Yann Le Cun, Jacques Girardon. La Plus Belle Histoire de l’intelligence. Des origines aux neurones artificiels : vers une nouvelle étape de l’évolution. Ed. Robert Laffont, collection La Plus Belle Histoire, 2018.

    ii Sébastin Bohler, Le striatum, ed. bouquins, 2023.

    iii Dans le livre seuls les dieux sont évoqués comme « inventions », le complotisme n’est pas cité. 

     

  • Combattre l’agilité numérique du crime

    Il n’y a plus d’enquêtes policières sans preuve numérique, sans recours massifs aux données électroniques que des criminels peuvent aussi chiffrer de manière inviolable, transférer dans des serveurs de pays peu coopératifs, rendre leur origine anonyme ou les disséminer sur le dark web. Qui des criminels ou des forces de police auront le dernier mot1 ? Charles Cuvelliez et Jean-Jacques Quisquater partagent avec le nous le bilan de ces obstacles qu’Europol vient de dresser. Pierre Paradinas et Benjamin Ninassi
    © canva.com avec le prompt « plus d’enquêtes policières sans preuve numérique, sans recours massifs aux données électroniques »

     

    Volume et volatilité des données

    Il y a le volume des données à examiner : il se chiffre en teraoctets si pas petaoctets qu’il faut stocker, exploiter, analyser pour les autorités policières. Ce sont les fournisseurs de services numériques qui sont obligés de les conserver quelques mois2 au cas où. Ces données peuvent être de tout type, structurées comme des bases de données ou libres, comme des boites emails, des fichiers. Entre autorités policières, il n’y pas d’entente comment les données doivent être stockées, exploitées, structurées, ce qui pose ensuite un problème de coopération entre elles.

    La perte de données est un autre obstacle : il y a eu une tentative d’harmoniser entre Etats membres la durée de rétention des données exploitables à titre judiciaire mais elle a été invalidée par la Cour Européenne de Justice. Depuis, chaque Etat membre a ses règles sur quelles données doivent être gardées et pendant combien de temps pour d’éventuelles enquêtes. Dans certains Etats membres, il n’y a aucune rétention prévue ou à peine quelques jours. Quand une demande arrive, les données ont évidemment disparu.

    Adresse Internet multi-usage

    L’épuisement des adresses Internet est un autre obstacle : les adresses dites IPv4 qui sont nées avec Internet sont toutes utilisées. Il faut les partager avec une adresse parfois pour 65 000 utilisateurs. Ces adresses sont en fait étendues avec le port IP, une extension qui dit quel service est utilisé par l’internaute (et qui donc ne l’identifie pas) et n’est pas conservée. C’est que les adresses de nouvelle génération peinent à devenir la norme puisqu’on étend justement artificiellement le pôle d’adresse IPv4. On pourrait à tout le moins imposer un nombre maximum d’internautes qui se partagent une seule adresse, dit Europol, ou imposer la rétention du port.

    Jusqu’au RGPD, on pouvait accéder au titulaire d’un nom de domaine, ses coordonnées, son email, quand il l’avait ouvert. C’était précieux pour les enquêteurs mais le RPGD a amené l’ICANN, qui gère les noms de domaines non nationaux (gTLD) à ne plus rendre cette information publique. Tous les gTLD gérés par l’ICANN sont concernés. Il y a encore moyen de consulter ces données qui ne sont plus publiques mais les intermédiaires (registrars) qui assignent les noms de domaines à une organisation ou à une personne physique communiquent ces données sur base volontaire. Et surtout, rien n’est prévu pour garantir qu’une demande de renseignement policière sur le propriétaire d’un nom de domaine par une autorité policière reste anonyme. Interpol a bien proposé sa propre base de données de tous les noms de domaines impliqués dans des activités illicites mais encore faut-il les identifier. De toute façon, le système DNS qui traduit un nom de domaine en adresse IP sur Internet est exploité et détourné par les criminels pour réorienter les internautes vers des domaines qui contiennent des malwares ou de l’hameçonnage.

    Chiffrement de tout

    Autre défi : l’accès aux données. Les criminels prennent l’habitude de chiffrer toutes leurs données et sans clé de déchiffrement, on ne peut rien faire. Dans un Etat membre, il est possible de forcer par la contrainte un criminel à donner son mot de passe, à déverrouiller son appareil, même sans l’intervention d’un juge tandis que dans un autre Etat membre (non cité dans le rapport) un mot de passe même découvert légalement lors d’une perquisition n’est pas utilisable. Non seulement les criminels appliquent le chiffrement à leurs données mais les fournisseurs de communications électroniques vont aussi chiffrer par défaut leurs communications3. La 5G prévoit par défaut le chiffrement des données de bout en bout pour les appels vocaux si l’appel reste en 5G. L’opérateur peut même appliquer le chiffrement des données en roaming : l’appareil de l’utilisateur échange des clés de chiffrement avec son opérateur à domicile avant de laisser du trafic s’échapper sur le réseau du pays visité. Les criminels le savent et utilisent des cartes étrangères avec une clé…à l’étranger. Autre progrès fort gênant de la 5G, la technique dite de slicing, en cours de déploiement (5G SA) : elle permet de répartir le trafic d’un même utilisateur entre différents réseaux 5G virtuels à l’intérieur du réseau 5G réel pour n’optimiser les performances qu’en fonction de l‘usage (latence à optimiser ou débit à maximiser). Cela permet aux entreprises d’avoir leur réseau 5G privé dans le réseau 5G public mais cela complique la tâche des autorités policières qui doivent poursuivre plusieurs flux de trafics d’une même cible. Même les textos sont chiffrés de bout en bout avec le déploiement de RCS, un protocole dont s’est inspiré WhatsApp.

    Pour des raisons de sécurité, il faut aussi chiffrer le trafic DNS, celui qui traduit le nom de domaine en adresse IP. On peut le faire au niveau bas, TLS, ce qui permet  encore de suivre le trafic émis par le suspect, même s’il reste chiffré, mais parfois le trafic DNS est chiffré au niveau du protocole http, directement au niveau du navigateur ce qui le mélange avec tout le trafic internet. Ceci dit, accéder au traffic DNS de la cible requiert une forte coopération de l’opérateur télécom en plus.

    Fournisseurs de communications électroniques dits OTT

    Avec le Code de Communications Électronique, non seulement les opérateurs télécom traditionnels doivent permettre les écoutes téléphoniques mais aussi la myriade de fournisseurs de communications électroniques sur Internet (les Over The Top providers, ou OTT) mais ce n’est pas souvent le cas et il n’y rien qui est en place au niveau légal coercitif pour les forcer. Les techniques de chiffrement de bout en bout vont en tout cas exiger que ces opérateurs prévoient des possibilités pour les autorités policières de venir placer des équipements d’écoute comme au bon vieux temps. Mais comment vérifier qu’il n’y a pas d’abus non seulement des autorités judiciaires mais aussi des hackers.

    Les cryptomonnaies

    Les cryptomonnaies sont évidemment prisées par les criminels. Il est si facile d’échapper aux autorités judicaires avec les cryptomonnaies. C’est vrai qu’elles sont traçables mais les techniques pour les brouiller sont bien connues aussi : il y a le mixage qui consiste à mélanger les transactions pour dissimuler l’origine des sources. Il y a le swapping, c’est-à-dire échanger une cryptomonnaie contre un autre (et il y en a des cryptomonnaies) de proche en proche pour obscurcir le chemin suivi. Il s’agit aussi d’échanger les cryptomonnaies en dehors des plateformes ou alors via des plateformes décentralisées, sans autorité centrale à qui adresser une réquisition.

    Même dans le cas d’une plate-forme centralisée soi-disant dans un pays donné, une réquisition qui y est envoyée après avoir pris du temps, ne mènera nulle part car la plate-forme ne sera pas physiquement dans le pays où elle est enregistrée. Il y a depuis, en Europe, la Travel Rule : elle oblige les plateformes qui envoient et reçoivent des cryptomonnaies à conserver le nom de l’émetteur et du bénéficiaire des fonds (cryptos).

    Les techniques d’anonymisation sur Internet sont devenues redoutablement efficaces grâce à des VPNs. Ces réseaux privés sont à l’intérieur même d’internet et complément chiffrés. Ils masquent au niveau d’internet les vraies adresses IP du trafic. A côté des VPN, il y a les serveurs virtuels qu’on peut éparpiller sur les clouds en multiple exemplaires. C’est sur ces serveurs qu’est hébergé le dark web.

    La coopération internationale est le dernier défi. Chaque pays ne permet pas de faire n’importe quoi au point qu’un pays doit parfois pouvoir prendre le relais d’un autre pays pour faire un devoir d’enquête non autorisé dans le pays d’origine. Il faut aussi se coordonner, éviter la déconfliction, un terme barbare qui désigne des interférences involontaires d’un Etat qui enquête sur la même chose qu’un autre État.

    Tout ces constats, Europol les confirme dans son rapport sur le crime organisé publié le 18 mars. Ce dernier a bien compris le don d’ubquité que lui donne le recours à Internet et la transition vers un monde en ligne : recrutement à distance de petites mains, très jeunes, pour des tâches si fragmentées qu’elles ne se rendent pas compte pour qui et pour quoi elles travaillent, ni ne connaissent leur victime; possibilité de coordonner sans unité de temps ni de lieu les actions criminelles aux quatre coins du monde; utilisation de la finance décentralisée et des cryptomonnaies pour blanchir l’argent. Le tout avec la complicité des États qui pratiquent la guerre hybride et encouragent à l’ultra-violence, à l’infiltration des structures légales qui ont pignon sur rue, cette mise en scène visant à provoquer sidération et doute sur le bien-fondé de nos démocraties.

    Depuis 2019, plusieurs nouveaux instruments législatifs de l’Union E uropéenne ont été introduits pour répondre à ces problèmes, explique Europol. Leur efficacité dépendra de la manière dont elles sont mises en œuvre dans la pratique.

    Les seules histoires de démantèlement de réseau criminels qui réussissent, lorsqu’on lit les communiqués de presse entre les lignes, ont toutes une caractéristique en commune : elles sont internationales, alignées au cordeau, avec des capacités techniques reconnues des agences qui y ont travaillé. Europol a raison : ce cadre législatif a surtout pour vocation d’abattre les frontières entre pays qu’internet ne connait pas. Mais c’est une condition nécessaire, pas suffisante.

    Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles) & Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT). 

    Pour en savoir plus :
    – The changing DNA of serious and organised crime EU Serious and Organised Crime Threat Assessment 2025 (EU-SOCTA), Europol.
    – Eurojust and Europol (2025), Common Challenges in Cybercrime – 2024 review by Eurojust and Europol, Publication Office of the European Union, Luxembourg

    Notes:

    1/ Cette question a pris toute son actualité avec les discussions à l’Assemblée sur la loi sur le narcotrafic qui a essayé d’imposer aux messageries chiffrées (comme WhatsApp, Signal, Telegram…) un accès à la justice quant aux échanges cryptés des narcotrafiquants et criminels. De tout façon, un amendement sur la loi NIS2 votée au Sénat devrait interdire aux messageries d’affaiblir volontairement leur sécurité

    2/ La durée de rétention des données par les opérateurs télécom en France est de 12 mois suite à un décret de la Première Ministre de l’époque E. Borne qui évoquait une menace grandissante. Il n’y a pas d’harmonisation européenne en la manière suite au recalage de e-Privacy, le RGPD qui devait s’appliquer aux opérateurs télécoms. Il y avait une directive annexe de rétention des données pour des fins judiciaires mais elle a été recalée il y a des années par la Cour Européenne de Justice. Donc, c’est resté une matière nationale, comme souvent les matières de sécurité.

    3/ Un chiffrement de bout en bout des communications ou des données a toujours été présenté comme la solution inviolable et Apple a constamment mis en avant cette sécurité,expliquant ne pouvoir répondre à aucune demande d’entrer dans un iPhone saisi à un criminel ou un terroriste, mais contrainte et forcée et par le gouvernement de Grande-Bretagne, elle vient de faire volte-face, avec peut-être des conséquences pour tous les appareils Apple de la planète. En savoir plus…

  • Quel(s) numérique(s) pour demain dans un monde contraint en matière et en énergie ?

    Alors que le numérique s’impose dans tous les aspects de notre quotidien, ses impacts environnementaux interrogent.
    Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia, et Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria, nous partagent ici des réflexions émergentes sur comment repenser le numérique pour le rendre compatible avec les contraintes environnementales et énergétiques, tout en lui permettant de contribuer à la construction de sociétés plus résilientes et soutenables ?
    Antoine Rousseau et Thierry Viéville .

    Cheminement du numérique dans un monde en transition
    Chemins de transition, 2022


    Les discussions sur les impacts environnementaux du numérique gagnent en importance, s’inscrivent dans les pratiques professionnelles et commencent même à s’institutionnaliser, notamment en France mais aussi dans d’autres pays, comme la Suisse, la Belgique et le Québec [1].

    Ces initiatives convergent vers une conclusion commune : la nécessité de maîtriser les impacts environnementaux du développement numérique pour ne pas compromettre les efforts de transition socio-écologique. 

    Dans ce contexte, la notion de “sobriété numérique” émerge comme une réponse : elle se concrétise par diverses stratégies visant à prolonger la durée de vie des équipements, alléger les services numériques et réduire leur consommation énergétique. Bien que ces initiatives soient encourageantes et méritent d’être soutenues, elles restent toutefois insuffisantes face aux trajectoires insoutenables de la numérisation. 

    En réalité, l’enjeu dépasse la simple optimisation technologique. Le numérique s’intègre dans toutes les sphères de la société, y compris celles qui portent directement atteinte à l’intégrité de la planète[2]. Des optimisations appliquées sans discernement risquent ainsi d’amplifier des activités insoutenables, comme le minage de cryptomonnaies  ou l’exploration pétrolière automatisée. Par ailleurs, le développement numérique repose largement sur des modèles d’affaires axés sur l’accumulation perpétuelle, qu’il s’agisse d’appareils connectés ou de données collectées, qui doivent également être remis en question pour réorienter les trajectoires actuelles.

    La course effrénée à l’intelligence artificielle (IA) générative, la multiplication d’objets connectés et de centres de données illustrent des dynamiques incompatibles avec un cadre de soutenabilité à long terme, même avec les meilleures stratégies d’optimisation. À cela s’ajoute la menace grandissante de l’épuisement progressif de ressources essentielles aux technologies numériques, notamment certains métaux critiques.

    Rendre le développement numérique compatible avec la transition socio-écologique exige une remise en question profonde des dynamiques dont il dépend et de sa compatibilité avec les contraintes énergétiques, climatiques et matérielles à venir. Il s’agit alors de le prioriser collectivement, d’en définir les paramètres de déploiement, et d’inventer de nouveaux rapports aux technologies qui sont à la fois véritablement utiles et durables. L’optimisation, prise isolément, n’est pas suffisante pour atteindre la sobriété : elle n’a de sens que lorsqu’elle s’inscrit dans un système qui intègre et respecte les contraintes socio-écologiques, et nécessite des efforts de formation adaptés

    Une priorisation dans d’autres secteurs

    La réflexion entre optimisation et sobriété dépasse le numérique et s’inscrit plus généralement dans le cadre de la transition socio-écologique. Ainsi, les optimisations techniques, telles que celles observées dans les véhicules électriques ou les systèmes de chauffage bas carbone ne sont véritablement efficaces que lorsqu’elles s’intègrent dans des systèmes repensés : une mobilité axée sur le collectif, des habitats mieux isolés, le tout soutenu par des énergies renouvelables. 

    Cette problématique se pose également dans d’autres secteurs, où les impacts environnementaux et la disponibilité des ressources rendent la question plus pressante. En France, par exemple, le Secrétariat général à la planification écologique (SGPE) propose une hiérarchisation des usages de la biomasse locale (page 15), privilégiant la souveraineté alimentaire à la production de biocarburants pour l’aviation civile, le chauffage ou la production énergétique.

    De même, l’hydroélectricité québécoise fait face à une multiplication de projets industriels sollicitant son accès. Depuis 2023, tout projet de plus de 5 mégawatts doit obtenir l’approbation du ministère de l’Énergie, suite à une demande d’Hydro-Québec.  Ce changement législatif, initié par la société d’État responsable de la production électrique, répond à son incapacité à satisfaire toutes les demandes de raccordement. La priorisation s’opère selon des critères définis : les capacités techniques de raccordement et les incidences sur le réseau électrique du Québec, les retombées sur l’économie et le développement régional, l’impact environnemental et social, ainsi que la cohérence avec les orientations gouvernementales.

    Prioriser les projets numériques utiles ?

    Les réflexions autour de la priorisation commencent à émerger également dans les travaux récents consacrés au numérique et à l’IA responsable, notamment à travers le prisme de l’utilité. Le Référentiel général d’écoconception de services numériques, porté par l’ARCEP, invite ainsi à mettre en dialogue l’utilisation d’un service avec ses impacts environnementaux. De même, le  Référentiel général pour l’IA frugale de l’Afnor souligne que toute analyse technique doit être précédée d’une réflexion sur les besoins et usages, en s’assurant qu’ils “visent à rester dans les limites planétaires et ont été préalablement questionnés”. Par ailleurs, la Net Zero Initiative for IT va encore plus loin en établissant des critères d’éligibilité pour qu’un service numérique puisse prétendre éviter des émissions de gaz à effet de serre. Ces critères incluent le secteur d’activité de l’entreprise, excluant explicitement les industries considérées comme structurellement contraires aux objectifs de développement durable de l’ONU, comme l’extraction ou l’exploration d’énergies fossiles, l’industrie du tabac ou encore la pornographie (cette dernière considérée comme contraire aux objectifs 3 et 5, voir page 21 de la méthodologie).

    L’émergence de ces cadres méthodologiques amène dans le débat une question fondamentale commune à ces différentes initiatives : qu’est-ce qu’un numérique utile ?

    La question n’est pourtant pas si nouvelle, puisque depuis l’essor du numérique au 20ᵉ siècle, deux visions antagonistes se dessinent quant à sa finalité. La première, largement dominante, aborde le numérique comme un outil de substitution, destiné à exécuter des tâches à la place des humains. Cette approche, qui est omniprésente dans l’industrie et le quotidien (des caisses automatiques aux applications de guidage GPS), vise avant tout la maximisation des profits et le gain de temps. Pourtant, ce “gain de temps” s’accompagne paradoxalement d’un sentiment d’accélération : le temps libéré est immédiatement réinvesti dans des activités productives, comme l’illustrent les enchaînements de réunions en visioconférence, sans pauses permises par les déplacements physiques. Cette approche crée également une dépendance, en dépossédant les utilisateurs de compétences auparavant essentielles. Par exemple, l’usage systématique des applications de guidage via GPS pour générer et suivre un itinéraire élimine la nécessité de maîtriser la géographie ou les repères topologiques.

    À l’inverse, une seconde vision promeut un numérique au service de la complémentarité. Ici, l’objectif principal est d’aider les individus à apprendre et à agir. Le projet “Back to the Trees”, par exemple, propose un outil éducatif minimaliste qui accompagne les utilisateurs dans l’identification des plantes à travers un questionnaire reprenant les caractéristiques d’identification des livres de botaniste. Ce numérique “low-tech” favorise l’acquisition de savoir de façon ludique tout en consommant peu de ressources. 

    Au-delà des projets futurs, on peut légitimement se demander si ce questionnement de l’utilité, largement invisibilisé dans le débat public jusqu’à présent, ne devrait pas également concerner l’existant.

    Que faire des usages existants, incompatibles avec une transition à long terme ?

    L’univers numérique est en constante évolution et il est certainement plus facile de planifier ou de réorienter des projets qui n’existent pas encore plutôt que de le faire une fois déployés. Se pose cependant la question de la possibilité de faire atterrir l’univers numérique actuel dans le cadre des limites planétaires. Avec le déclin des ressources naturelles (métaux, minéraux, eau, énergie, etc.) et l’aggravation des aléas climatiques, il devient impératif d’évaluer la compatibilité de nos infrastructures numériques, dont nos modes de vie dépendent de plus en plus, avec un avenir marqué par ces contraintes. 

    Au-delà de la raréfaction des ressources nécessaires à leur fonctionnement, ces infrastructures devront également affronter des conditions climatiques de plus en plus difficiles. Sécheresses, montées des eaux, inondations et stress hydrique sont autant de phénomènes dont la fréquence et l’intensité continueront à croître. Or, les infrastructures numériques sont particulièrement vulnérables à ces risques. 

    Par exemple, selon l’intensité des aléas climatiques, les réseaux numériques, notamment essentiels pour l’électricité, les communications, et le transport, pourraient subir des déformations structurelles, voire des ruptures, à cause des vagues de chaleur, des vents violents ou des inondations extrêmes. Cette fragilité est exacerbée par la complexité et l’interdépendance de ces infrastructures : une simple défaillance dans un élément critique, même situé à l’extérieur d’un territoire donné, peut entraîner sa déconnexion totale. Bien que renforcer leur résilience soit possible, cela nécessiterait une redondance accrue des infrastructures, impliquant à son tour une consommation accrue de ressources.

    Imaginer un numérique compatible avec un futur contraint

    Dans ce contexte, une réflexion s’impose : à quoi ressembleraient des infrastructures, appareils, modèles d’affaires et usages numériques compatibles avec des sociétés limitées en ressource tout en étant résilients face à l’augmentation des risques climatiques? Cette question, cruciale, nous invite à nous projeter dans l’avenir pour mieux éclairer les choix collectifs à faire aujourd’hui. 

    – Quelles branches existantes de l’univers numérique actuel pourraient rester pertinentes, voire devenir essentielles, pour soutenir des sociétés plus soutenables et résilientes ?
    – Quelles branches pourraient être repensées pour répondre aux nouvelles contraintes ?
    – Quelles branches sont fondamentalement incompatibles avec ces perspectives et nécessitent une redirection, un renoncement ou un abandon ?

    Ces questions peuvent être traduites en implications opérationnelles. Par exemple, les systèmes d’IA particulièrement énergivores, comme ceux basés sur des modèles de langage massifs (LLM), sont-ils compatibles avec un monde aux ressources limitées ? Est-il raisonnable de rendre nos sociétés toujours plus dépendantes de ces technologies ?

    Planification et priorisation : un impératif pour le numérique

    Pour devenir compatible avec le cadre des limites planétaires, en réduisant ses impacts directs et en renforçant sa résilience, le numérique devra s’éloigner de ses paradigmes expansifs actuels. Il devra s’inscrire dans une logique de planification et de priorisation. Allant dans ce sens, la Commission de l’Éthique en Science et Technologie (CEST) du Québec a récemment rédigé un avis complet de 112 pages sur l’impératif de la sobriété numérique, appelant explicitement dans ses recommandations à enclencher rapidement une démarche de réflexion sur la priorisation des usages du numérique.

    Quelques questions majeures subsistent pour accompagner ces transformations, notamment :
    – Comment opérationnaliser ces arbitrages ? 
    – À quelle échelle agir, et qui doit être impliqué dans ces décisions ?
    – Sur quels critères éthiques, sociaux, environnementaux, économiques, voire opérationnels, peut-on fonder ces choix ?

    Plusieurs individus et collectifs explorent ces questions essentielles, offrant des pistes de réflexion qui méritent que l’on s’y attarde. Bien sûr, aucun ne propose de solution prête à l’emploi, et c’est compréhensible : prioriser le numérique implique de le recontextualiser, de le repolitiser, et donc de nourrir des discussions et des choix collectifs. Parmi les initiatives notables, certains tentent de définir les contours d’un numérique alternatif, que ce soit à travers l’Alternumérisme radical ou le concept de Numérique d’Intérêt Général. Pour envisager une réelle redirection des systèmes techniques vers un cadre de soutenabilité non basé sur des formes de “technologies zombies”, Alexandre Monnin et ses collègues rappellent l’importance de cartographier nos attachements, qu’ils soient positifs ou contraignants. Mobilisant des approches prospectives et participatives, Chemins de transition explore les implications sociétales d’une convergence entre transition numérique et transition socio-écologique. Le groupement de recherche CNRS “Centre internet et société” propose des pistes de réflexion à travers son groupe de travail “Politiques environnementales du numérique”. Enfin, la conférence annuelle LIMITS rassemble des recherches qui esquissent un système d’information en phase avec un monde limité, qu’il s’agisse de réinterroger l’internet des objets avec le cadre des limites planétaires ou d’imaginer des approches de désescalade numérique.

    Vers le fini, et pas au-delà

    Adapter le numérique aux défis de demain exige de dépasser les défis technologiques et nous invite à nous engager dans une réflexion collective sur les modalités de son déploiement dans nos sociétés. Utiliser des critères éthiques, démocratiques, environnementaux et sociaux devient alors incontournable pour guider une redirection du numérique afin de le rendre compatible avec la transition vers des modes de vie plus soutenables. Il s’agit de décider collectivement de quel numérique nous voulons, de se donner les moyens de le faire advenir et de renoncer aux formes insoutenables.

    Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia,
    Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria

    [1] Quelques exemples d’initiatives en dehors de France :
    https://isit-ch.org
    https://isit-be.org
    https://w3c.github.io/sustyweb
    https://agitquebec.org
    https://cheminsdetransition.org/les-ressources/defi-numerique
    https://www.obvia.ca/recherche/axes/sobriete-numerique-et-transition-socio-ecologique
    https://www.linkedin.com/company/collectif-numerique-responsable-soutenable/posts
    https://ethique.gouv.qc.ca/media/wayd3cqj/cest_avis-sur-la-sobri%C3%A9t%C3%A9-num%C3%A9rique.pdf

    [2] Martin, J. et Durand Folco, J. (2023) Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle. Écosociété.

  • Grandes Constellations de Satellites, deuxième partie

    Nous assistons au déploiement de constellations de satellites avec des
    dizaines de milliers de satellites en orbite basse. Les fonctionnalités
    de ces constellations sont essentiellement les télécommunications haut-débit,
    la géolocalisation et l’observation de la Terre. Quelles sont les avancées
    scientifiques et technologiques qui permettent ces développements ?
    Quels sont les enjeux économiques et géostratégiques associés ?
    Ces constellations conduisent à une densification de l’espace et à
    une multiplication des lancements et des débris. Elles ont un impact
    négatif sur sur l’observation astronomique dans le domaine optique et dans
    celui de la radioastronomie. Quels sont les dangers encourus avec la
    multiplication des débris en orbite basse ? Quel est l’impact des lancements
    sur la stratosphère et celui des rentrées de satellites dans l’atmosphère ?
    Un groupe de travail de l’Académie des sciences s’est penché sur le sujet,
    a auditionné de nombreux spécialistes, et publié un rapport en mars 2024,
    rédigé par François Baccelli, Sébastien Candel, Guy Perrin et Jean-Loup
    Puget.
    Les deux premiers auteurs nous éclairent sur le sujet. Serge Abiteboul (qui a
    participé au groupe de travail), voici la deuxième partie de ce partage, après la première.

    Impact sur l’astronomie

    Le lancement de milliers de satellites en orbite basse change fondamentalement l’accès de l’être humain au ciel nocturne. Ses effets se font déjà ressentir pour l’astronomie au sol dans un ensemble de domaines.

    Pour l’astronomie optique (incluant l’infrarouge proche et moyen), le problème principal est celui de la réflexion du flux solaire par les satellites défilant dans le champ de vision des télescopes avec des effets marqués au lever et au coucher du Soleil avec des effets marqués sur la prise d’images par les instruments à grand champ de vue. S’il y a une bonne coopération avec Starlink pour la réduction de la lumière solaire réfléchie par les satellites, le futur est loin d’être sous contrôle avec la multiplication des interlocuteurs et des constellations stratégiques et commerciales.

    Pour la radioastronomie, la perspective d’une perturbation permanente venant par le haut est préoccupante. La politique de sanctuaire radio local (qui consiste à ne pas émettre dans les régions qui hébergent les grands observatoires radio) acceptée par Starlink atténue les problèmes pour les fréquences adjacentes à celles des émissions des satellites. Mais les électroniques des satellites rayonnent aussi à basse fréquence et constituent une source de bruit pour les observations radio dans une autre gamme de fréquences même si les émissions de signaux de télécommunication des satellites sont momentanément interrompues. À cela s’ajoute des besoins de protection des observations en mode interférométrique qui impliquent des installations réparties sur plusieurs continents et nécessitent des actions coordonnées spécifiques.

    Les conséquences négatives pour l’astronomie d’une multiplication incontrôlée de ces constellations doivent impérativement être prises en compte et des mesures pour pallier ces problèmes doivent être mises en œuvre par leurs promoteurs.

    Exemple de traces produites en astronomie optique par 25 satellites Starlink en mai 2019 sur le groupe de galaxies NGC 5353/4. Crédits : V. Girgis/Lowell Observatory

    Impact sur l’environnement

    Dans un contexte de multiplication des lancements, il est important d’examiner la question de l’impact des émissions sur la haute atmosphère. Ces émissions dépendent du type de motorisation, de la masse au décollage et du nombre de lancements. C’est le lanceur Falcon de SpaceX qui réalise actuellement le plus grand nombre de lancements, plus d’une centaine en 2023.

    Les émissions correspondantes de 140 kilotonnes de carbone, de vapeur d’eau, d’hydrocarbures imbrûlés et de particules de suies sont en valeur absolue relativement faibles si on les compare à celles issues des transports mais elles sont cependant non-négligeables car ces émissions vont s’accumuler dans la haute atmosphère. C’est le cas notamment des particules de carbone, désignées sous le nom de “black carbon » (BC), qui sont nettement plus nombreuses par unité de masse de kérosène, dans les gaz éjectés par les moteurs du lanceur, et nettement plus importante que celles qui existent dans les jets des moteurs d’avion (le rapport serait de l’ordre de 104). Comme une partie de ces émissions est faite au-dessus de la tropopause, les aérosols formés par les particules BC peuvent s’accumuler pendant plusieurs années, interagir avec la couche d’ozone, modifier le bilan radiatif et changer la distribution de température. Il y a des incertitudes sur ces effets, car les niveaux d’émissions sont faibles, mais la question de l’impact sur la haute atmosphère mérite d’être approfondie. L’impact sur l’environnement des fins de vie opérationnelle des satellites est lui aussi à prendre en compte même si la masse associée au retour sur Terre de 2400 objets, d’une masse totale de 340 tonnes, reste finalement modérée par rapport aux 15 à 20000 tonnes de météorites qui pénètrent chaque année dans l’atmosphère terrestre.

    Un problème majeur est celui des débris spatiaux. Il y aurait déjà en orbite un demi-million à un million de débris de 1 à 10 cm et cent à cent trente millions de taille entre 1 mm et 1 cm selon l’ESA et la NASA. Sur les 14 000 satellites en orbite, environ 35% ont été lancés au cours de ces trois dernières années et 100 000 autres sont prévus dans la décennie à venir, toujours selon l’ONU. Ces données communiquées – récemment par l’AFP montrent la nécessité de la mise en place d’une régulation contraignante sur le contrôle des fins de vie opérationnelle des satellites.

    Objets catalogués de plus de 10 cm – NASA, 2022

    Nécessité d’un renforcement de la régulation internationale

    L’analyse des impacts négatifs fait apparaître un besoin de régulation internationale d’un domaine qui pour le moment se développe en l’absence de toute contrainte (si ce n’est celle du coût des lancements) et elle souligne la nécessité d’initiatives et d’actions engagées par les parties prenantes pour identifier des principes et des codes de bonnes pratiques qui puissent être adoptés par un nombre croissant de pays. Une autre question importante est celle des solutions techniques permettant de prendre en compte ces impacts négatifs et de se prémunir des scénarios les plus inquiétants. Les règles internationales se construisent par l’identification de principes et de codes de bonne pratique adoptés par un nombre croissant de pays. Plusieurs exemples d’efforts de ce type sont décrits dans le rapport. Il est essentiel que les États et les communautés scientifiques concernées contribuent à la formalisation de ces principes et codes dans le but d’obtenir rapidement une régulation internationale du secteur.

    Constat d’ensemble et perspectives

    Les constellations de satellites ouvrent des perspectives intéressantes, elles offrent des possibilités nouvelles pour les communications, l’observation de la Terre, la géolocalisation et la connectivité et cela, avec des capacités de résilience supérieures à celles des infrastructures terrestres. Sans pouvoir remplacer les réseaux actuels pour l’accès à internet, elles peuvent compléter ces réseaux et assurer une couverture des zones blanches dans lesquelles cet accès n’est pas disponible ou encore permettre des connexions lorsque ces infrastructures sont détruites à la suite de catastrophes naturelles ou de conflits armés. Les constellations de satellites font aussi apparaître des enjeux de souveraineté résultant de la dépendance et de la perte de contrôle induite par la prééminence de certains acteurs privés. L’expansion du nombre et de la taille des constellations pose aussi des questions majeures en matière d’impact sur l’environnement spatial par la densification en satellites et en débris, sur l’environnement atmosphérique par l’augmentation du nombre de lancements et par les retours sur Terre des satellites en fin de vie opérationnelle. Dans un contexte de croissance incontrôlée qui prévaut actuellement, l’augmentation du nombre d’objets en orbite fait que les manœuvres d’évitement deviennent de plus en plus fréquentes et elle conduit à une multiplication du nombre de collisions. L’impact des constellations sur l’astronomie est également préoccupant car il touche à la fois les observations optiques et infrarouges et celles qui sont réalisées dans le domaine radioélectrique. L’analyse des impacts négatifs fait apparaître un besoin de régulation internationale d’un domaine qui pour le moment évolue en l’absence de toute contrainte (si ce n’est celle du coût des lancements) et elle souligne la nécessité d’initiatives et d’actions engagées par les parties prenantes pour identifier des principes et des codes de bonnes pratiques qui puissent être adoptés par un nombre croissant de pays.

    François Baccelli, Inria et Télécom-Paris, membre de l’Académie des sciences et Sébastien Candel, Centrale Supélec, membre de l’Académie des sciences

  • Grandes Constellations de Satellites, première partie

    Nous assistons au déploiement de constellations de satellites avec des
    dizaines de milliers de satellites en orbite basse. Les fonctionnalités
    de ces constellations sont essentiellement les télécommunications haut-débit,
    la géolocalisation et l’observation de la Terre. Quelles sont les avancées
    scientifiques et technologiques qui permettent ces développements ?
    Quels sont les enjeux économiques et géostratégiques associés ?
    Ces constellations conduisent à une densification de l’espace et à
    une multiplication des lancements et des débris. Elles ont un impact
    négatif sur sur l’observation astronomique dans le domaine optique et dans
    celui de la radioastronomie. Quels sont les dangers encourus avec la
    multiplication des débris en orbite basse ? Quel est l’impact des lancements
    sur la stratosphère et celui des rentrées de satellites dans l’atmosphère ?
    Un groupe de travail de l’Académie des sciences s’est penché sur le sujet,
    a auditionné de nombreux spécialistes, et publié un rapport en mars 2024,
    rédigé par François Baccelli, Sébastien Candel, Guy Perrin et Jean-Loup
    Puget.
    Les deux premiers auteurs nous éclairent sur le sujet. Serge Abiteboul (qui a
    participé au groupe de travail) : voici la première partie de ce partage en deux parties.

    Introduction

    Cet article rassemble quelques points clés d’un rapport de l’Académie de sciences. Il traite d’abord des nouvelles fonctionnalités des constellations de satellites dans l’accès à l’Internet, l’observation de la Terre, la géolocalisation, l’interaction avec des objets connectés. Les principaux enjeux et l’évolution du domaine sont analysés dans un premier temps. Comme toute nouvelle avancée technologique, ces constellations soulèvent aussi, de nombreuses questions, et notamment celles relatives à l’encombrement de l’espace, avec l’augmentation du nombre d’objets satellisés et de débris issus de ces objets et de leur lancement, la croissance des collisions qui peut en résulter et d’autre part de l’impact sur les observations astronomiques dans les domaines optiques et radio. Ce rapport met ainsi en évidence un défi majeur, celui de la cohabitation d’une ceinture satellitaire sécurisée et durable évitant la pollution par ses débris et de l’accès au ciel de l’astronomie, la plus ancienne des sciences, celle qui a été à la source des connaissances et qui a encore beaucoup à nous apprendre. Avec la montée en puissance d’acteurs et investisseurs privés dans un domaine qui était initialement réservé aux États, ce rapport fait apparaître des enjeux géostratégiques et des enjeux de souveraineté. Il soutient la mise en place d’une régulation internationale du secteur mais souligne également la nécessité d’une participation de la France et de l’Europe à ces développements.

    Un utilisateur final (U) accède à une station d’ancrage du réseau internet (A) via des satellites

    Les fonctionnalités des constellations

    Les nouvelles constellations de satellites en orbite basse ou moyenne ouvrent des perspectives dans trois grands domaines qui sont les communications haut-débit, l’observation de la Terre et la géolocalisation. Les constellations offrant le haut-débit sont encore peu nombreuses mais elles impliquent, pour certaines, un très grand nombre de satellites. Les constellations destinées à l’observation de la Terre ou à la géolocalisation comportent un nombre plus réduit de satellites mais sont bien plus nombreuses. Il est à remarquer, cependant, qu’en ce qui concerne l’accès haut-débit à l’Internet, les réseaux à base de constellations ne pourront remplacer les réseaux terrestres mais qu’ils devraient plutôt offrir un complément notamment pour la couverture des zones blanches et des territoires enclavés ou encore pour la couverture haut-débit des navires et des avions.

    Des protocoles pour les communications entre satellites en orbites basses sont en cours de normalisation. Ceci pourrait conduire à terme à un cœur de réseau Internet spatial avec des fonctionnalités et des mécanismes de routage propres à la dynamique des constellations. Certaines fonctions qui sont actuellement celles des routeurs Internet et des stations de base de la 5G pourraient à terme devenir des fonctions embarquées dans les satellites de cet Internet spatial, comme par exemple le traitement du signal, le routage ou même le calcul en périphérie de réseaux (edge computing). Cet Internet spatial a cependant des limites associées à la puissance électrique disponible à bord des satellites, qui est elle-même fonction de la surface des panneaux solaires qui peuvent être embarqués sur lanceurs et déployés dans l’espace.

    Enjeux

    Une question clé, dans le domaine des télécommunications, est celle du contrôle de ces nouvelles classes de réseaux. On note par exemple que les réseaux de communications fondés sur des flottes de satellites, s’affranchissent de fait, sinon de droit, de toutes les règles qui sont imposées par les États aux opérateurs des réseaux terrestres offrant des services sur leur sol. Cette perte de contrôle concerne tous les aspects les plus fondamentaux : les mécanismes d’attribution des fréquences, les règles de confidentialité sur les conversations ou les données transmises, les règles de localisation des cœurs de réseaux, etc. Dès aujourd’hui, ces réseaux peuvent se passer complètement de stations d’ancrage dans les pays qu’ils couvrent. Le déploiement de ces réseaux dans leurs formes actuelles (typiquement celle de la constellation Starlink) induit une perte de souveraineté directe des États sur ce secteur.

    Une seconde question a trait au modèle économique des grandes constellations destinées à la couverture internet haut-débit. On sait, en effet, que les entreprises qui se sont engagées dans la mise en place des premières constellations de ce type ont toutes fait faillite et il n’est pas certain que les constellations déployées aujourd’hui puissent atteindre l’équilibre économique et devenir viables à long terme. La réponse à cette seconde question dépendra sans doute des résultats de la course actuelle à l’occupation de l’espace ainsi que de la nature des interactions et accords entre ces réseaux satellitaires et les réseaux terrestres de type 5G. Elle dépendra aussi de l’évolution de la taille et du prix des antennes permettant à un utilisateur final muni d’un téléphone portable de communiquer efficacement avec un satellite.

    Les enjeux en termes de souveraineté apparaissent ainsi comme les raisons les plus fortes pour le développement de ces constellations car ces dernières procurent à ceux qui les contrôlent un moyen de communication haut-débit sécurisé à faible latence qui est aussi caractérisé par sa résilience. Cette résilience vient du fait que les flottes de satellites restent en grande partie fonctionnelles en cas de catastrophe naturelle et de destruction des réseaux terrestres. Elles sont par ailleurs difficiles à détruire puisque constituées de nombreuses plateformes en mouvement rapide dans des flottes organisées de façon fortement redondante. La latence faible des constellations en orbite basse joue un rôle central dans le contexte du temps réel critique car leur couverture universelle permet l’observation instantanée d’événements survenant en tout point de la planète et elle offre de nouveaux moyens d’interaction.

    Évolution dans le temps du nombre des satellites en fonction de l’altitude entre 200 et 2000 km (CNES).

    Évolution du domaine

    Le domaine dans son ensemble est dans une phase très dynamique avec beaucoup d’innovations dans le domaine industriel, une expansion rapide du NewSpace aux États-Unis, une volonté au niveau de la Commission Européenne de lancer une constellation, l’émergence de nouveaux États spatiaux et d’acteurs privés, de nouveaux formats de lanceurs (petits lanceurs, lanceurs réutilisables), une réduction des coûts de lancement associée notamment à la réutilisation. Il en résulte une multiplication des projets de constellations et une explosion du nombre des satellites en orbite basse ou moyenne.

    Cette dynamique repose sur des progrès scientifiques et des innovations technologiques dans le domaine des télécommunications, de l’informatique du traitement de l’information, de la focalisation dynamique, de l’électromagnétisme et des communications radio, des systèmes de communication optiques inter-satellites, de la miniaturisation de l’électronique embarquée, des systèmes de propulsion à bord des satellites (propulsion plasmique) ainsi que sur des avancées dans l’accès à l’espace, les télécommunications et l’informatique. Cette dynamique exploite les résultats des recherches dans le domaine des communications portant notamment sur (i) la théorie de l’information multi-utilisateurs, sur le codage pour la maîtrise de liens radio avec les satellites, avec des questions nouvelles comme par exemple celle de la focalisation adaptative des antennes (MIMO massif et dynamique) ou encore celle du contrôle des interférences ; (ii) la définition de nouveaux protocoles de routage adaptés à la dynamique très rapide du graphe des satellites et des stations d’ancrages ; (iii) l’identification d’architectures optimales pour les fonctionnalités de haut débit ou d’observation dans un ensemble de régions donné de la Terre.

    François Baccelli, Inria et Télécom-Paris, membre de l’Académie des sciences et Sébastien Candel, Centrale Supélec, membre de l’Académie des sciences

  • Faire écran à l’usage des écrans : un écran de fumée ?

    Les enfants et les écrans : attention ! Oui mais à quoi ? Et comment ?  Gérard Giraudon et Thierry Viéville nous rassemblent des références et des éléments pour nous montrer que [dé]laisser les enfants devant les écrans est bien négatif et qu’il est préférable d’y aller avec elles et eux. Dans cet article, après par exemple [10], on questionne non seulement la pratique des enfants mais aussi  « notre ´´ pratique de parents face à nos enfants. Marie-Agnès Enard et Pascal Guitton.

    ©naitreetgrandir.com, voir [10]

    Il existe des effets négatifs du numérique sur notre vie et notre santé ainsi que celles de nos enfants [0], tout particulièrement lors d’un mésusage . Les scientifiques en informatique en sont conscient·e·s et font partie de celles et ceux qui alertent sur le sujet [0], et relaient les travaux  scientifiques d’autres disciplines qui permettent de comprendre le caractère négatif potentiel de ces effets et de les dépasser [9]. On parle ici de résultats scientifiques [9,11] au delà de l’emballement des médias alimenté par les promoteurs des “paniques morales” ([9], pp 4).

    L’angle d’attaque de telles paniques est souvent résumé par le seul terme “écran”,  la plupart du temps associé au mot “enfant”, faisant ainsi un amalgame entre contenant et contenu, entre adultes et société. Il en ressort généralement des questions mal posées qui ne peuvent conduire qu’à des polémiques faisant peu avancer le débat. Par ailleurs, la question des impacts de la technologie sur le développement de l’enfant est fondamentale et le numérique n’y échappe pas.

    © 1zoom.me

    Abordons ici la question des contenus. Les études scientifiques sur l’impact des “contenus numériques disponibles à travers différentes interfaces matérielles” qu’on réduit souvent au seul “écran” alors qu’on pourrait par exemple y inclure aussi des systèmes robotisés. Mais concentrons nous ici sur les interfaces que l’on nommera par abus de langage, pour la facilité d’écriture, encore “écran. Les résultats sont difficiles à interpréter car il manque un cadre de comparaison formel par exemple pour établir et mesurer la dépendance [1].  On note par ailleurs que les effets négatifs des écrans sont plus importants dans les populations moins favorisées [4]. À l’inverse, les effets cognitifs des écrans peuvent être positifs [4,5,6] mais pas en cas d’usage avant le sommeil, qu’ils perturbent [3].

    © fr.freepik.com

    On doit donc avant tout considérer les usages qui en sont faits et arrêter de considérer le paramètre de durée (temps devant les écrans) qui occulte d’autres éléments au moins aussi importants [1,3] comme illustrés ci-après.

    Les études les plus fines distinguent les usages, en particulier passif (comme la télévision) versus actif, autrement dit isolé (on « colle » l’enfant devant les écrans) opposé à  coopératif. 

    C’est l’usage de ces écrans pour « occuper » les enfants pendant que les adultes vaquent à leurs autres tâches qui présente un effet délétère [2].

    Au delà, une plus grande quantité d’utilisation de l’écran (c’est-à-dire des heures par jour/semaine) est associée négativement au développement du langage de l’enfant, tandis qu’une meilleure qualité d’utilisation de l’écran (c’est-à-dire des programmes éducatifs et un visionnage conjoint avec les adultes éduquant) est positivement associée aux compétences linguistiques de l’enfant [3]. 

    ©Luca @ wikicommons

    Comparons « screen-time » versus « green-time » [4], c’est à dire le temps passé dans l’environnement extérieur (ex: forêt, parc public). On observe là encore qu’il faut distinguer l’usage modéré avec des contenus choisis et un accompagnement éducatif qui a des effets positifs, de l’inverse qui peut avoir un effet négatif, voire très négatif. Le « green-time » limite les effets cognitifs négatifs des écrans, au delà de l’effet bien connu de l’hyper sédentarité qui conduit à des troubles physiologiques dérivés [6].

    C’est donc, au niveau cognitif et éducatif essentiellement un enjeu de contenu numérique. Ainsi,  la lecture sur écran est moins efficace que sur un livre papier, sauf si le contenu est « augmenté » (accès à un lexique, récit interactif, …) [5], en notant que  la lecture en interaction avec une personne éducative référente augmente les performances dans les deux cas.

    On insistera finalement sur ce que la communauté de l’éducation à l’informatique sait depuis longtemps :

      –comprendre comment fonctionnent les ordinateurs conduit à un bien meilleur usage récréatif et éducatif, et aussi souvent moins dépendant [7] ;

      – pour apprendre les concepts informatiques, les « activités débranchées » où on « éteint son écran pour aller jouer au robot dans la cour »  sont les plus efficaces au niveau didactique et pédagogique [8].

    Pour moins utiliser les écrans, le plus important est de commencer à les utiliser mieux.

    Gérard Giraudon et Thierry Viéville.

    Références :

    [0] https://binaire.socinfo.fr/2023/10/06/ntic-etat-des-lieux-en-france-et-consequences-sur-la-sante-physique-partie-1/
    [1] https://www.sciencedirect.com/science/article/pii/S0190740922000093
    [2] https://www.pafmj.org/index.php/PAFMJ/article/view/6648
    [3] https://jamanetwork.com/journals/jamapediatrics/article-abstract/2762864 
    [4] https ://journals.plos.org/plosone/article?id=10.1371/journal.pone.0237725
    [5] https://journals.sagepub.com/doi/full/10.3102/0034654321998074 
    [6] https://www.sciencedirect.com/science/article/pii/S0765159711001043 
    [7] https://inria.hal.science/hal-03051329
    [8] https://inria.hal.science/hal-02281037 
    [9] https://www.cairn.info/les-enfants-et-les-ecrans–9782725643816-page-150.htm
    [10] https://naitreetgrandir.com/fr/etape/1_3_ans/jeux/usage-ecrans-parents-equilibre
    [11] https://www.u-bordeaux.fr/actualites/Addiction-aux-écrans-mythe-ou-réalité

     

  • Vive les communs numériques !

    Un des éditeurs de Binaire, Pierre Paradinas a lu le livre de Serge Abiteboul & François Bancilhon, Vive les communs numérique ! Il nous en dit quelques mots gentils. Binaire.

    Vive les communs numériques ! - Logiciels libres, Wikipédia, le Web, la science ouverte, etc.

    Le livre de Serge et François, Vive les communs numériques ! est un excellent livre -oui, je suis en conflit d’intérêts car les auteurs sont de bons copains.

    C’est un livre facile et agréable à lire, mais sérieux et extrêmement bien documenté sur la question des communs numériques. En effet, nos deux collègues universitaires, scientifiques et entrepreneurs expliquent, explicitent et démontent les rouages des communs numériques.

    Partant de l’exemple d’un champ partagé par les habitants d’un village, ils définissent les communs numériques et nous expliquent ce qu’ils sont, et pourquoi certains objets numériques (gratuits ou pas) ne peuvent pas être considérés comme des communs numériques. L’ensemble des communs numériques sont décrits, allant des données, au réseau en passant par l’information, les logiciels et la connaissance.

    Une partie est consacré au « comment ça marche », qui nous donne des éléments sur les communautés au cœur du réacteur des communs numériques, sans oublier les licences qui doivent accompagner systématiquement un élément mis à disposition sous forme de commun numérique. Enfin, comme le diable est dans le détail, les auteurs nous expliquent la gouvernance des communs numériques et les vraies questions de gestion des communs numériques.

    Le livre explore aussi les liens avec les entreprises des technologies informatiques -parfois très largement contributrices au logiciel libre-, comme Linux, les suites bureautiques ou les bases de données dont nos deux auteurs sont des spécialistes reconnus.

    Le livre est enclin à un certain optimisme qui reposes sur les nombreuses opportunités offertes par les communs numériques. De même, on apprécie le point évoqué par les auteurs de la souveraineté numérique où les communs numériques sont analysés pour l’établir, la développer et la maintenir. Par de nombreux exemples, les communs numériques permettent une plus grande prise en compte des utilisateurs, ce qui devrait conduire à des solutions technologiques mieux adaptées.

    Si vous voulez comprendre les communs numériques, courez vite l’acheter ! Si vous voulez compléter vos cours sur les données ouvertes et/ou le logiciel libre, c’est l’ouvrage de référence.

    Le livre est très riche, il compte de nombreux encadrés, consacrés à des communs numériques ou à des personnalités ; il contient aussi un lexique, une bibliographie et une chronologie qui complètent l’ouvrage. Écrit avec passion, c’est un plaidoyer richement documenté. Vive les communs numériques !

    Pierre Paradinas

    PS : Le livre sera en accès ouvert à partir de décembre 2024 😀

     

  • Femmes et numérique inclusif par la pratique

    Après s’être interrogé sur la place des femmes dans le monde numérique, Sara Bouchenak considère des pistes de solutions pour améliorer les choses. Serge Abiteboul, Marie-Agnès Enard

    Concrètement, quelles actions pour plus d’égalité entre les sexes dans le domaine du numérique ont démontré leur efficacité avec, parfois, des retombées étonnamment rapides ? 

    Comment penser notre société de demain, un monde où le numérique nourrit tous les secteurs – la santé, les transports, l’éducation, la communication, l’art, pour n’en citer que certains –, un thème mis en avant par l’ONU : « Pour un monde digital inclusif : innovation et technologies pour l’égalité des sexes ». 

    Pour répondre à ces questions, nous poursuivons notre lecture croisée d’ouvrages et de points de vue de la sociologue et politologue Véra Nikolski [Nikolski, 2023], de l’anthropologue Emmanuelle Joseph-Dailly [Joseph-Dailly, 2021], de l’informaticienne Anne-Marie Kermarrec [Kermarrec, 2021], de la philosophe Michèle Le Dœuff [Le Dœuff, 2020], et de l’informaticienne et docteure en sciences de l’éducation Isabelle Collet [Collet, 2019].

    Féminisme et numérique

    Bien avant le numérique et l’informatique née au milieu du XXe siècle, l’égalité entre les sexes a été une question dont plusieurs mouvements féministes se sont emparés dès la fin du XIXe siècle, avec des textes majeurs et des luttes de fond à travers le monde : Dona Haraway, pionnière du cyberféminisme aux États-Unis, Gisèle Halimi en France, Nawal El Saadaoui en Égypte, Prem Chowdhry en Inde, Wassyla Tamzali en Algérie, et bien d’autres.

    Dans son ouvrage Féminicène, Véra Nikolski questionne la corrélation directe entre les progrès de l’émancipation féminine et les efforts pour y parvenir :

    « Il y a bien, d’un côté, l’histoire des féminismes, retraçant les actions et les tentatives d’action des individus, puis des mouvements ayant pour but l’amélioration de la condition des femmes et, de l’autre, l’histoire des avancées législatives et pratiques dont les femmes bénéficient, ces deux histoires suivant chacune son rythme, sans qu’on puisse établir entre elles un quelconque rapport de cause à effet. » [Nikolski, 2023]

    Véra Nikolski fait le constat que des avancées législatives pour les droits des femmes ont parfois été obtenues sans mobilisation, au sens de soulèvements et luttes féministes. Par exemple, si le droit de vote des femmes proposé en 1919 aux États-Unis fait suite aux manifestations et luttes pour le suffrage féminin, dans de nombreux autres pays y compris les premiers à avoir accordé le droit de vote aux femmes (la Nouvelle-Zélande en 1893, l’Australie en 1901, puis les pays scandinaves à partir de 1906), il n’y a pas eu de soulèvement spectaculaire. Un constat similaire est fait concernant l’ouverture des lycées publics aux jeunes filles en 1880 en France, l’exercice des professions médicales ou du métier d’avocate entre 1881 et 1899. Quel a donc été le facteur majeur de ces avancées ? Le point de bascule, selon Véra Nikolski, est la révolution industrielle et la période de l’anthropocène. Le progrès économique et technologique décolle à partir de cette révolution, et apporte progrès technologique et progrès médical, les deux, et en particulier, ce dernier étant particulièrement favorables à la condition des femmes. À cela s’ajoute le capitalisme qui ne rend pas uniquement le travail des femmes possible, mais indispensable : « il faut faire des femmes des travailleurs comme les autres ».

    Après la révolution industrielle, suit la révolution numérique que nous vivons actuellement, et qui voit la transformation d’un monde où les technologies numériques se généralisent à de nombreux secteurs et les affectent profondément, tels que la santé, les transports, l’éducation, la communication, ou l’art, pour n’en citer que certains [Harari, 2015]. Le secteur du numérique est devenu source de richesse, et sa part dans l’économie de plus en plus importante. Selon l’OCDE, en 2019, la part du numérique dans le PIB était de 6% en France, 8% aux États-Unis, 9,2% en Chine, 10% au Royaume-Uni, et 10,1% en Corée du Sud. Plus récemment, une étude en 2020 montre que les STIM représentent 39% du PIB des États-Unis. Cette étude est plus inclusive et considère non seulement les ingénieurs et docteurs du domaine, mais également des spécialistes de domaines d’application des STIM qui ne détiennent pas forcément un diplôme de bachelor mais d’autres formations plus courtes et spécifiques pour la montée en compétence en STIM. Les chiffres globaux inclusifs montrent alors que les employés en STIM représentent deux travailleurs États-Uniens sur trois, avec un impact global de 69% du PIB des États-Unis.

    Ainsi, le besoin de main d’œuvre croissant pousse les entreprises à rechercher des talents dans les rangs féminins, et à mettre en place des actions pour plus de diversité et de parité. Ce besoin croissant de main d’œuvre dans le numérique fait également prendre conscience aux gouvernements de la nécessité d’une politique de formation en STIM plus inclusive pour les femmes. Aujourd’hui, tous types d’acteurs arrivent à la même conclusion, à savoir la nécessité de mettre en place une action volontariste pour une égalité entre les sexes dans les STIM, en termes de nombre de femmes formées, d’égalité des salaires à postes équivalents, d’évolution de carrière et d’accès aux postes de direction.

    Elles et ils l’ont fait, et ça a marché

    Quelles actions pour plus d’inclusion de femmes dans le domaine des STIM ont démontré leur efficacité ? Un exemple concret est celui de l’école d’ingénieur.es l’INSA Lyon qui a réussi, à travers plusieurs actions proactives, à avoir 45% de jeunes femmes en entrée de l’école. L’INSA Lyon compte un institut – l’Institut Gaston Berger (IGB) – qui a pour objectif, entre autres, de promouvoir l’égalité de genre. Pour ce faire, l’IGB a mis en place des actions auprès des plus jeunes, en faisant intervenir des étudiantes et des étudiants de l’INSA Lyon auprès d’élèves de collèges et de lycées. L’INSA Lyon a par ailleurs mis en place, et ce depuis plusieurs années, un processus de sélection après le baccalauréat qui prend en compte les résultats scolaires à la fois en classe de terminale et en classe de première au lycée, ce qui a eu pour effet d’augmenter les effectifs féminins admis à l’INSA Lyon ; les jeunes filles au lycée feraient preuve de plus de régularité dans leurs études et résultats scolaires.

    Cela dit, malgré ce contexte favorable, après les deux premières années de formation initiale généraliste à l’INSA Lyon, lorsque les étudiant.es choisissaient une spécialité d’études pour intégrer l’un ou l’autre des départements de formation spécialisée de l’INSA Lyon, les étudiant.es optant pour le département Informatique comptaient seulement entre 10% et 15% de femmes. Le département Informatique a alors mis en place une commission Femmes & Informatique dès 2018, avec pour objectif là encore de mener des actions proactives pour augmenter la participation féminine en informatique. En effet, le vivier de femmes était juste là, avec 45% de femmes à l’entrée de l’INSA Lyon. Des rencontres des étudiant.es en formation initiale à l’INSA Lyon (avant leur choix de spécialité) avec des étudiantes et des étudiants du département Informatique, ainsi que des enseignantes et des enseignants de ce département, ont été organisées. Ces rencontres ont été l’occasion de présenter la formation en informatique et les métiers dans le secteur du numérique, de briser les idées reçues et les stéréotypes de genre, et de permettre aux étudiantes et étudiants en informatique de faire part de leur parcours et choix d’études, et de partager leur expérience. Par ailleurs, l’Institut Gaston Berger conjointement avec le département Informatique ont mis en place pour les élèves de première année à l’INSA Lyon des aménagements pédagogiques et des séances de tutorat pour l’algorithmique et la programmation. Deux ans plus tard, les étudiant.es de l’INSA Lyon rejoignant le département d’Informatique comptent 30% de femmes. Preuve, s’il en faut, que des actions proactives ciblées peuvent avoir des retombées rapides. Des actions spécifiques pour l’augmentation des effectifs féminins ont également été menées avec succès dans d’autres universités, à Carnegie Mellon University aux États-Unis, et à la Norwegian University of Science and Technology en Norvège.

    Hormis les actions proactives de ce type, Isabelle Collet mentionne dans son ouvrage Les oubliées du numérique un certain nombre de bonnes pratiques pour l’inclusion des femmes, dont la lutte contre les stéréotypes avec, toutefois, un regard circonstancié [Collet, 2019] :

    « La lutte contre les stéréotypes est un travail indispensable, mais dont il faut connaître les limites. En particulier, il est illusoire de penser qu’il suffit de déconstruire les stéréotypes (c’est-à-dire de comprendre comment ils ont été fabriqués) pour qu’ils cessent d’être opérants.
    [..]

    Un discours exclusivement centré sur les stéréotypes a tendance à rendre ceux-ci déconnectés du système de genre qui les produit. [..] L’entrée unique « lutte contre les stéréotypes » fait peser la responsabilité de la discrimination sur les individus et évite d’attaquer la source du problème (le système de genre) en ne s’occupant que de ses sous-produits (les stéréotypes), présentés comme premiers, obsolètes, désincarnés. »

    Sur la question des stéréotypes, dans son ouvrage Le sexe du savoir, Michèle Le Dœuff rappelle que durant la Grèce antique, l’intuition était une qualité intellectuelle très valorisée, la plus élevée [Le Dœuff, 2020]. Elle était alors jugée comme une qualité masculine, dont les hommes étaient principalement dotés. Aujourd’hui, la qualité intellectuelle jugée la plus élevée est le raisonnement logique – une qualité là encore perçue comme masculine –, alors que les femmes sont à présent jugées plus intuitives. Et Isabelle Collet de conclure à ce propos :

    « Si l’on se met à croire que les disciplines scientifiques, telles que les mathématiques et l’informatique, nécessitent avant tout de l’intuition, et de manière moindre, de la logique et du raisonnement, cette compétence jugée aujourd’hui féminine redeviendra l’apanage des hommes. »

    Un autre type d’action d’inclusion féminine est l’action affirmative[2], avec l’application de quotas et de places réservées. Dans son ouvrage Numérique, compter avec les femmes, Anne-Marie Kermarrec dresse le pour et le contre d’une telle mesure [Kermarrec, 2021]. Ce type d’action, appliqué dans différentes universités dans le monde, mais également dans des conseils d’administration et des instances politiques, a le mérite de démontrer des résultats rapides et efficaces. Ainsi, en France, de nouvelles lois ont été instaurées pour garantir la parité politique. En 2000, une loi est promulguée pour une égalité obligatoire des candidatures femmes et hommes pour les scrutins de liste. En 2013, une autre loi est mise en place obligeant les scrutins départementaux et les scrutins municipaux pour les communes de plus de 1000 habitants à présenter un binôme constitué obligatoirement d’une femme et d’un homme. Une nouvelle législation s’applique également aux entreprises. En 2011, une loi est adoptée pour imposer 40% de femmes dans les conseils d’administration et de surveillance des grandes entreprises cotées. En 2021, une autre loi est promulguée pour imposer des quotas de 40 % de femmes dans les postes de direction des grandes entreprises à horizon 2030, sous peine de pénalités financières pour les entreprises. Et en 2023, une loi visant à renforcer l’accès des femmes aux responsabilités dans la fonction publique porte à 50% le quota obligatoire de primo-nominations féminines aux emplois supérieurs et de direction. En résumé, alors que ces pratiques se généralisent au monde politique et aux entreprises, verra-t-on des pratiques similaires pour la formation des jeunes femmes aux sciences et aux STIM, pour le recrutement des enseignant.es de ces domaines, pour une inclusion effective des femmes dans l’innovation et l’économie de ces secteurs ?

    La promulgation de lois sur des quotas a montré des effets rapides et a aidé à briser le plafond de verre. Cela dit, le principe de quota peut soulever des interrogations et causer une appréhension de la part de certaines personnes qui bénéficieraient de ces mesures, et qui ne pourraient s’empêcher de se demander si elles ont été choisies pour leurs compétences ou uniquement pour leur genre. À propos de ce dilemme, Isabelle Collet, invitée aux assises de féminisation des métiers du numérique en 2023, répond ceci :

    « Soyons clair.es. Je préfère être recrutée parce que je suis une femme, plutôt que ne pas être recrutée parce que je suis une femme. »

    Même si l’on peut reprocher à la mesure d’être imparfaite – à vrai dire, l’imperfection vient de la cause et non de la mesure –, le choix à faire aujourd’hui est clair.

    Et (en cette veille de) demain ?

    Nous vivons actuellement des transformations de notre monde, certes, des transformations et des évolutions technologiques qui ont amélioré notre qualité de vie, mais également des transformations dues à l’impact de l’activité humaine sur la planète, la raréfaction des ressources naturelles, et l’altération de l’environnement et de sa stabilité. Dans ce contexte, nous devons être conscients que l’émancipation féminine reste fragile. En effet, par temps de crise, les acquis d’égalité entre les sexes peuvent malheureusement être réversibles. Comment sauvegarder et développer les droits des femmes ? Véra Nikolski conclut dans Féminicène par l’importance de « comprendre les lois naturelles et historiques, et à travailler au maintien des conditions matérielles de l’émancipation [..] Ce travail passe, entre autres, par la sauvegarde de l’infrastructure technologique qui, si étonnant que cela puisse paraître, a favorisé l’émancipation des femmes ».

    Alors, mesdames, investissons massivement tous les secteurs d’un numérique qui s’inscrit dans les limites planétaires. Et mesdames et messieurs, travaillons à permettre l’inclusion massive des jeunes filles dans les formations scientifiques, et ce dès le plus jeune âge.

    Sara Bouchenak, Professeure d’informatique à l’INSA Lyon, Directrice de la Fédération Informatique de Lyon.

    [2] Ou sa variante anglophone positive discrimination.

    Pour aller plus loin

    • Isabelle Collet. Les oubliées du numérique. Le Passeur, 2019.
    • Catherine Dufour. Ada ou la beauté des nombres. Fayard, 2019.
    • David Alan Grier. When Computers Were Human. Princeton University Press, 2007.
    • Yuval Noah Harari. Sapiens : Une brève histoire de l’humanité. Albin Michel, 2015.
    • Emmanuelle Joseph-Dailly. La stratégie du poulpe. Eyrolles, 2021.
    • Emmanuelle Joseph-Dailly, Bernard Anselm. Les talents cachés de votre cerveau au travail. Eyrolles, 2019.
    • Anne-Marie Kermarrec. Numérique, compter avec les femmes. Odile Jacob, 2021.
    • Michèle Le Dœuff. Le Sexe du savoir. Flammarion, 2000.
    • Véra Nikolski. Féminicène. Fayard, 2023.
  • La Bible nous parle de l’informatique

    Un nouvel « Entretien autour de l’informatique » avec Haïm Korsia, grand-rabbin de France depuis 2014 et membre de l’académie des sciences morales et politique. Haïm Korsia est rabbin, ancien aumônier en chef du culte israélite des armées, aumônier de l’École polytechnique depuis 2005, administrateur du Souvenir français et ancien membre du Comité consultatif national d’éthique.

    Haïm Korsia

    « Quand personne ne me pose la question, je le sais ; mais si quelqu’un me la pose et que je veuille y répondre, je ne sais plus ». (Saint Augustin, Confessions XI). Pour moi, l’informatique est un peu comme cela.  Haïm Korsia.

    Binaire : Vous êtes rabbin. Comment en êtes-vous arrivé à vous intéresser à l’informatique et à l’intelligence artificielle ?

    HK : Je fais partie de la première génération à utiliser des ordinateurs de façon quotidienne. A l’école rabbinique, mon professeur d’histoire, le Professeur Gérard Nahon, nous disait deux choses : « Vous devrez apprendre à parler anglais », et : « Un jour, vous n’aurez plus de secrétaire et il faudra taper vous-mêmes vos lettres. » Pour nous, cela tenait de l’impossible. D’abord, la langue à apprendre était l’hébreu. Et puis, le rabbin faisait le sermon et allait voir les gens. Taper des lettres à la machine, ne faisait pas partie de son travail.

    Une machine à écrire Rheinmetall, 1920, Wikipédia

    J’ai écouté ce prof et j’ai appris l’anglais. Et puis, rue Gay-Lussac, dans un magasin d’antiquités, j’ai vu une machine Rheinmetall. J’en ai rêvé et je l’ai achetée dès que j’ai eu un peu d’argent. Plus tard, quand j’ai vu mon collègue de Besançon qui avait une machine de traitement de texte, j’ai fait en sorte d’avoir un ordinateur portable. J’ai continué et depuis j’utilise des ordinateurs. Sans être un geek, j’ai appris à utiliser ces machines.

    Pour moi, l’informatique est d’abord utilitaire et émancipatrice. L’informatique libère en évitant, par exemple, d’avoir à retaper plusieurs de fois un même texte, parce qu’on peut le corriger. Et puis, il est devenu impensable aujourd’hui de vivre sans les connexions que l’informatique nous apporte ! Mais il faut savoir doser cette utilisation.

    Binaire : L’informatique et le numérique permettent de tisser des liens. Est-ce que vous pensez que le développement de tels liens a transformé la notion de communauté ?

    HK : Bien sûr ! On voit bien, par exemple, avec des gens qui ont 5 000 amis sur Facebook mais aucun n’est capable d’aller leur chercher un médicament quand ils sont malades. Pour moi, c’est une dévalorisation de la notion d’ami. Cela m’évoque la fable d’Ésope, « la langue est la meilleure et la pire des choses ». Les réseaux sociaux peuvent enfermer les gens dans un même mode de pensée et en même temps ils ouvrent des potentiels incroyables. Cela dépend de la façon dont on les utilise.

    Dans le judaïsme, nous avons un avantage sur les autres religions : quoi que vous me donniez comme moyen de communication, le samedi, je vais uniquement « là où mes pieds me portent ». Je retrouve en cela mon humanité sans tout ce qui me donne habituellement le sentiment d’avoir une humanité augmentée. Ni voiture, ni vélo, ni avion, ni téléphone. Rien. Au moins un jour par semaine, le samedi, je retrouve ma communauté telle qu’elle est vraiment. Tous les appendices qui augmentent ma capacité de lien sont supprimés le jour du shabbat, et je me désintoxique aussi de l’addiction aux moyens numérique de communication. Le samedi je n’ai pas de téléphone.

    En quoi est-ce un avantage ? Cela me permet de ne pas perdre l’idée que ces outils sont juste des extensions de moi, qu’ils ne font pas partie de moi. 

    Binaire : Est-ce que la Bible peut nous aider à comprendre l’informatique ?

    HK : La Bible nous parle de la vie des hommes, des femmes, et des invariants humains : la toute-puissance, la peur, la confiance, le rejet, la haine, la jalousie, l’amour, etc. Tout est là et chacun s’y retrouve. Mon maitre le grand rabbin Chouchena disait : Si tu lis un verset de la Bible et que tu ne vois pas ce qu’il t’apporte, c’est que tu l’as mal lu, relis-le !

    Prenons un exemple. Considérez ce que dit la Bible [1] sur la neuvième plaie d’Égypte, la plaie de l’obscurité :

    « Moïse dirigea sa main vers le ciel et d’épaisses ténèbres couvrirent tout le pays d’Égypte, durant trois jours. On ne se voyait pas l’un l’autre et nul ne se leva de sa place, durant trois jours mais tous les enfants d’Israël jouissaient de la lumière dans leurs demeures. Exode, 10-22,23.

    Une interprétation possible, c’est d’imaginer qu’un volcan a explosé quelque part, ou qu’il y a eu une éclipse du soleil, comme dans Tintin et le temple du soleil. Une autre interprétation, c’est de lire, littéralement : « Un homme ne voyait pas son prochain comme un frère. » L’obscurité, alors, ce n’est pas un moment où il fait nuit, mais un moment où on devient indifférent à la fraternité qui devrait nous lier l’un à l’autre. Ainsi, l’indifférence dans la société, c’est la nuit du monde. Ce n’est pas inscrit comme cela dans le verset. Tout est question de l’interprétation du texte. 

    Autre exemple. J’ai connu le confinement au début de la pandémie, et cela m’a donné une capacité à interpréter autrement la Bible. Par exemple, dans Bible, il est dit :

    « et ton existence flottera incertaine devant toi, et tu trembleras nuit et jour, et tu ne croiras pas à ta propre vie ! ». Deutéronome, 28-66.

    Il s’agit du grand discours du dernier jour de la vie de Moïse, dans la partie sur les malédictions. Dans ce contexte, Rachi [2], un des plus grands commentateurs de Bible, parle de celui qui achète son blé au marché. Pendant le Covid, j’ai vu un avion atterrir avec une cargaison de masques et un acheteur étranger acheter toute la cargaison. Cela met en évidence le problème d’une dépendance au marché pour les choses stratégiques, les masques, les médicaments… Tant que tout va bien, tu te fournis au marché, quitte à payer plus cher ; mais s’il n’y a pas ces choses, même milliardaire, ta vie se retrouve en suspens. Si on dépend du marché pour des approvisionnements stratégiques, c’est une vie d’angoisse. Cela conduit à un commentaire que je propose suite à cet épisode. Les rabbins avant moi ne pouvaient pas proposer cette interprétation parce qu’ils n’avaient pas connu le covid.

    Ces exemples illustrent la méthode. Confronter des questions d’actualité aux textes bibliques amène un entrechoquement fécond de la pensée.  Posez-moi une question sur l’informatique. Je ne dis pas que la réponse est dans la Bible. Mais la Bible et ses commentaires proposent des façons de réfléchir, des pistes de réflexion.

    Binaire : Alors sur l’informatique, que peut-on trouver dans la Bible selon vous ?

    HK : L’informatique, c’est une volonté de maitrise, de l’ultra-rapidité, l’agglomération de tous les savoirs. Les questions d’augmentation, d’orgueil, de sentiment de puissance ou de toute-puissance, la Bible en parle. À nous d’y trouver un sens actuel, contemporain. 

    L’intelligence, ce n’est pas d’avoir des savoirs, mais de savoir où chercher, à qui demander. Individuellement je suis limité par mes capacités d’analyse, mais celui qui sait où chercher, lui est intelligent. Des machines toujours plus rapides, avec des capacités de mémorisation toujours plus importantes, ce n’est pas forcément ce qui va marcher le mieux. Pour prendre une métaphore sportive, ce n’est pas en prenant les onze meilleurs joueurs de foot du monde qu’on a la meilleure équipe du monde. Il faut onze joueurs qui jouent ensemble. Il faut savoir s’appuyer les uns sur les autres.

    Binaire : Que pensez-vous de l’intelligence artificielle ?

    HK : Prenons par exemple un dermatologue. Combien d’image de maladie de la peau arrive-t-il à mémoriser ? Quelques milliers. Le logiciel Watson d’IBM en mémorise 40 000. Il a acquis plus de points de comparaisons. Autre exemple : la justice. Prenez toutes les jurisprudences, c’est formidable de précision. L’intelligence artificielle peut nous aider à analyser les jurisprudences. Mais est-ce qu’elle permet de juger ? Est-ce qu’elle prend en compte la réalité humaine des gens qui viennent devant le juge ?

    Adventures Of Rabbi Harvey: A Graphic Novel of Jewish Wisdom and Wit in the Wild West, de Steve Sheinkin

    Dans la Bible, le roi David, quand un pauvre volait un riche, condamnait le pauvre parce que c’est la loi. Mais de sa cassette personnelle, il lui donnait de quoi payer l’amende. Une machine ne peut pas faire ça. On ne peut pas demander à une machine d’avoir de l’humanité. Dans l’histoire « Les aventures de Rabbi Harvey », Monsieur Katz est chez lui. Un pauvre gars lui rapporte son portefeuille. Katz se dit : « Quel idiot ! Il m’a rendu le portefeuille avec 200 dollars dedans ! » Il lui dit : « Enfin, il y avait 300 dollars, tu es un voleur ! » On soumet le cas au rabbin Harvey. Le rabbin comprend que Katz se moque du pauvre. Réponse du rabbin : « Ce n’est pas compliqué. Puisque ce n’est pas la bonne somme, ce n’est pas ton portefeuille. » ; et il le rend au pauvre ! Est-ce qu’un ordinateur aurait trouvé cela ? Est-ce qu’il aurait cet humour ? Je ne sais pas.

    L’humanité ne peut pas être transformée en pensée informatique, en se laissant confiner dans la précision. La vie n’est pas seulement dans la précision. La machine crée une cohérence mais, en réalité, sans pouvoir comprendre.

    Ne juge pas ton prochain avant de te trouver à sa place, dit le Talmud. Une machine ne peut pas être à la place de l’accusé.

    Binaire : Qu’attendez-vous de l’intelligence artificielle ?

    HK : Elle pourrait nous permettre de faire mieux certaines choses. En médecine par exemple, on s’est rendu compte que 25% des ordonnances contiennent des contre-indications connues entre médicaments ! Jamais une machine ne ferait de telles erreurs. Le médecin ne sait pas forcement certaines choses sur les antécédents mais l’ordinateur, le système informatique peut le savoir, donc peut en tenir compte dans les prescriptions. D’où l’intérêt d’utiliser l’informatique dans les prescriptions.  

    Mais il ne faut pas que cela ait pour conséquence que le médecin se contente de regarder l’écran, et oublie de regarder son patient. Et puis, imaginez une panne informatique dans un système médical ; tout le système s’écroule, plus rien ne marche. De mon point de vue, il faut toujours faire en sorte qu’on ait le maximum d’aide mais avec le minimum de dépendance. Donc oui, il faut utiliser l’intelligence artificielle. Mais il faut éviter la dépendance. 

    L’informatique et l’intelligence artificielle nous permettent d’aller plus loin. Deep Blue a battu Kasparov. Mais pourquoi voir cela comme une compétition ? Nous ne sommes pas sur un même plan. Il n’y a aucune raison de comparer, d’opposer l’humain et l’informatique. L’informatique n’est ni bonne ni mauvaise, elle est ce que nous en faisons. Nous devons utiliser cette force extraordinaire mais ne pas être utilisées par elles. En particulier, nous ne devons pas laisser l’informatique s’interposer entre les humains. Nous avons cette force d’imagination, sortir de ce qui a été pensé avant. Il nous faut trouver une autre façon d’être humain.

    Binaire : Est-ce que l’intelligence artificielle soulève des problèmes nouveaux pour un juif pratiquant ?

    HK : L’informatique en soulève déjà. Il y avait par exemple déjà la question de l’accès aux maisons avec digicodes pendant le shabbat. Le shabbat, je n’ai plus de téléphone portable, donc je n’existe plus ? Comment vivre le shabbat quand le monde est devenu numérique ? On m’a dit que ce sont les juifs qui sauveront les livres en papier parce que, pendant le shabbat, les livres numériques, c’est impossible.

    Le shabbat, l’utilisation de l’électricité est interdite. En Israël, certains rabbins ont autorisé les visioconférences pour la fête de Pessah, pendant la pandémie. Le but était de faciliter des rassemblements familiaux virtuels, pour permettre de vivre les fêtes en famille. La question m’a été posée. J’ai dit non aux visios, car si on accepte une fois, les gens vont se dire que ce n’est pas grave de faire ça tout le temps. J’ai préféré refuser.

    Et puis, vivre une journée sans technologie, je trouve ça formidable. Le shabbat est une très grande liberté.

    Binaire : Vous parlez de « golémisation des humains ». Que voulez-vous dire par ça ?

    HK : C’est le sujet de ma conférence dans le cycle des Conférences de l’Institut. Golem, GLM, les mêmes initiales que Generalized Language Model, ce ne peut être par hasard. Il s’agit de la mise en place de processus qui nient l’unicité de chaque personne. Le processus admet ce qui sort du lot, mais considère que si on arrive à gérer 95% des cas, on est tranquille. Mais nous, on est tous dans les 5% ! C’est ça, la golémisation : fonctionner avec des cases, des réponses préremplies, et si ça dépasse, si ça sort des cases, ce n’est pas bon. On ne doit jamais oublier que l’informatique est une aide. Quand l’aide de l’informatique devient un poids, un problème, j’appelle cela la golémisation.

    L’informatique devient un poids symbolique inacceptable si ça m’empêche de pouvoir faire par moi-même. Dans ces problèmes idiots de nos rapports avec l’informatique, il faut remettre de l’intelligence plus fine et plus l’humanité. C’est une grande crainte, que la machine prenne le dessus sur les hommes. On irait vers un monde où les machines imposent leur mode de fonctionnement aux hommes qui, en adoptant le fonctionnement des machines, abdiquent leur humanité.

    Binaire : Pour certains penseurs de la silicone vallée, l’IA pourrait nous permettre de devenir immortels. 

    HK : Selon eux, on pourrait arriver à concevoir comment les neurones conservent, gardent la mémoire, les espérances, à externaliser la mémoire de quelqu’un et à la transmettre. Si on y arrivait, le rêve d’immortalité se réaliserait. On est dans la science-fiction. Chaque époque a produit sa façon d’être immortel, par l’habit vert à l’académie par exemple. Léonard de Vinci est immortel d’une certaine manière ; Moïse en transmettant la Torah aux hébreux acquiert aussi une forme d’immortalité. On peut chercher l’immortalité à travers sa descendance.

    La véritable obligation du judaïsme, ce n’est pas le shabbat, la nourriture cacher, etc., mais la phrase : « tu le raconteras à tes enfants et aux enfants de tes enfants. Et comme c’est dit dans la Bible :

    Souviens-toi des jours antiques, médite les annales de chaque siècle ; interroge ton père, il te l’apprendra, tes vieillards, ils te le diront ! Deuteronome 32, 7.

    On s’assure qu’il y ait deux générations qui puissent porter une mémoire une expérience de vie. Les rescapés de la Shoah ont voulu protéger leurs enfants en ne parlant pas. Mais quand ils sont devenus grands-parents, leurs petits-enfants leur ont demandé de raconter.

    Binaire : Pour conclure, peut-être voulez-vous revenir sur la question de l’hyper-puissance de l’informatique.

    HK : Cette technologie donne un sentiment de tout maitriser, et moi j’aime des fragilités. Quand je me suis marié, la personne qui m’a vendu mon alliance m’a dit : « il y a 12 000 personnes par an qui ont le doigt arraché par une anneau. Mais chez nous, il y a une fragilité dans l’or de l’anneau qui fait que l’anneau cède s’il y a une traction sur votre doigt. » La force de mon anneau, c’est sa fragilité ! Cela m’a impressionné. L’ordinateur ne sait pas intégrer la faiblesse dans sa réflexion, la fragilité, alors que c’est l’une des forces de l’humain. Cette toute puissance, conduit précisément à la faiblesse des systèmes informatiques. La super machine dans sa surpuissance devient fragile, alors que nous, notre fragilité fait notre force. 

    Serge Abiteboul, Inria et ENS Paris, Claire Mathieu, CNRS

     

    [1] Les traductions de la Bible sont prises de Torah-Box, https://www.torah-box.com/

    [2] Rabbi Salomon fils d’Isaac le Français, aussi connu sous le nom de Salomon de Troyes, est un rabbin, exégète, talmudiste, poète, légiste et décisionnaire français, né vers 1040 à Troyes en France et mort le 13 juillet 1105 dans la même ville. [Wikipédia]

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Culture et société : Quelle éthique pour les agents conversationnels ?

    ChatGPT appartient à la famille des agents conversationnels.  Ces IA sont des IA conversationnelles qui génèrent du texte pour répondre aux requêtes des internautes. Bien qu’elles soient attrayante, plusieurs questions se posent sur leur apprentissage, leur impact social et leur fonctionnement! En binôme avec interstices.info, Karën Fort, spécialiste en traitement automatique des langues (TAL), est Maîtresse de conférences en informatique au sein de l’unité de recherche STIH de Sorbonne Université, membre de l’équipe Sémagramme au LORIA (laboratoire lorrain de recherche en informatique) , ET  Joanna Jongwanerédactrice en chef d’Interstices, Direction de la communication d’Inria, ont abordé ce sujet au travers d’un podcast.  Thierry vieville et Ikram Chraibi Kaadoud

    Les IA conversationnelle qui génèrent du texte pour répondre aux requêtes des internautes sont à la fois sources d’inquiétudes et impressionnants par leurs « capacités ». Le plus populaire,  ChatGPT, a fait beaucoup parler de lui ces derniers mois. Or il en existe de nombreux autres.
    La communauté TAL s’est penché depuis longtemps sur les questions éthique liés au langage et notamment l’impact sociétal de tels outils
    Une IA conversationnelle ayant appris des textes en anglais, reflétant le mode de pensé occidentale, saurait-elle saisir les subtilités d’un mode de pensé d’une autre partie du monde ?
    Qui contrôle vérifie et corrige l’apprentissage d’une IA utilisé à travers le monde ? et surtout, comment peut-on s’assurer que son comportement n’est pas incohérent ? comme nous l’avons montré au travers d’experiences avec ChatGPT dans un précédent article ?
    Karen Fort, interviewé par Joanna Jongwane, nous partage son exeprtise sur ce sujet, brillamment et en 16 min !I
    https://interstices.info/quelle-ethique-pour-les-agents-conversationnels/

     

  • Une intelligence artificielle à la tête d’un pays : science-fiction ou réalité future? 

    Petit mot sur l’auteur : Jason Richard, étudiant en master expert en systèmes d’information et informatique, est passionné par l’Intelligence Artificielle et la cybersécurité. Son objectif est de partager des informations précieuses sur les dernières innovations technologiques pour tenir informé et inspiré le plus grand nombre. Ikram Chraibi Kaadoud, Jill-jenn Vie

    Introduction

    Dans un monde où l’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien, de la recommandation de films sur Netflix à la prédiction de la météo, une question audacieuse se pose : une IA pourrait-elle un jour diriger un pays ? Cette idée, qui semble tout droit sortie d’un roman de science-fiction, est en réalité de plus en plus débattue parmi les experts en technologie et en politique.

    L’IA a déjà prouvé sa capacité à résoudre des problèmes complexes, à analyser d’énormes quantités de données et à prendre des décisions basées sur des algorithmes sophistiqués. Mais diriger un pays nécessite bien plus que de simples compétences analytiques. Cela nécessite de la sagesse, de l’empathie, de la vision stratégique et une compréhension profonde des nuances humaines – des qualités que l’IA peut-elle vraiment posséder ?

    Dans cet article, nous allons explorer cette question fascinante et quelque peu controversée. Nous examinerons les arguments pour et contre l’idée d’une IA à la tête d’un pays, nous discuterons des implications éthiques et pratiques. Que vous soyez un passionné de technologie, un politologue ou simplement un citoyen curieux, nous vous invitons à nous rejoindre dans cette exploration de ce qui pourrait être l’avenir de la gouvernance.

    L’intelligence artificielle : une brève introduction

    Avant de plonger dans le débat sur l’IA en tant que chef d’État, il est important de comprendre ce qu’est l’intelligence artificielle et ce qu’elle peut faire. L’IA est un domaine de l’informatique qui vise à créer des systèmes capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine. Cela peut inclure l’apprentissage, la compréhension du langage naturel, la perception visuelle, la reconnaissance de la parole, la résolution de problèmes et même la prise de décision.

    L’IA est déjà largement utilisée dans de nombreux secteurs. Par exemple, dans le domaine de la santé, l’IA peut aider à diagnostiquer des maladies, à prédire les risques de santé et à personnaliser les traitements. Dans le secteur financier, l’IA est utilisée pour détecter les fraudes, gérer les investissements et optimiser les opérations. Dans le domaine des transports, l’IA est au cœur des voitures autonomes et aide à optimiser les itinéraires de livraison. Et bien sûr, dans le domaine de la technologie de l’information, l’IA est omniprésente, des assistants vocaux comme Siri et Alexa aux algorithmes de recommandation utilisés par Netflix et Amazon.

    Cependant, malgré ces avancées impressionnantes, l’IA a encore des limites. Elle est très bonne pour accomplir des tâches spécifiques pour lesquelles elle a été formée, mais elle a du mal à généraliser au-delà de ces tâches*. De plus, l’IA n’a pas de conscience de soi, d’émotions ou de compréhension intuitive du monde comme les humains. Elle ne comprend pas vraiment le sens des informations qu’elle traite, elle ne fait que reconnaître des modèles dans les données.

    Cela nous amène à la question centrale de cet article : une IA, avec ses capacités et ses limites actuelles, pourrait-elle diriger un pays ? Pour répondre à cette question, nous devons d’abord examiner comment l’IA est déjà utilisée dans le domaine politique.

     

    *Petit aparté sur ChatGPT et sa capacité de généralisation :

    Chatgpt est une intelligence artificielle (de type agent conversationnel) qui, en effet, à pour but de répondre au maximum de question. Cependant, si on ne la « spécialise » pas avec un bon prompt, les résultats démontrent qu’elle a du mal à être juste. Google l’a encore confirmé avec PALM, un modèle de « base » où l’on vient rajouter des briques métiers pour avoir des bons résultats.

    L’IA en politique : déjà une réalité ?

    L’intelligence artificielle a déjà commencé à faire son chemin dans le domaine politique, bien que nous soyons encore loin d’avoir une IA en tant que chef d’État. Cependant, les applications actuelles de l’IA en politique offrent un aperçu fascinant de ce qui pourrait être possible à l’avenir.

    L’une des utilisations les plus courantes de l’IA en politique est l’analyse des données. Les campagnes politiques utilisent l’IA pour analyser les données des électeurs, identifier les tendances et personnaliser les messages. Par exemple, lors des élections présidentielles américaines de 2016, les deux principaux candidats ont utilisé l’IA pour optimiser leurs efforts de campagne, en ciblant les électeurs avec des messages personnalisés basés sur leurs données démographiques et comportementales.

    L’IA est également utilisée pour surveiller les médias sociaux et identifier les tendances de l’opinion publique. Les algorithmes d’IA peuvent analyser des millions de tweets, de publications sur Facebook et d’autres contenus de médias sociaux pour déterminer comment les gens se sentent à propos de certains sujets ou candidats. Cette information peut être utilisée pour informer les stratégies de campagne et répondre aux préoccupations des électeurs.

    Dans certains pays, l’IA est même utilisée pour aider à la prise de décision politique. Par exemple, en Estonie, un petit pays d’Europe du Nord connu pour son adoption précoce de la technologie, le gouvernement développe une intelligence artificielle qui devra arbitrer de façon autonome des affaires de délits mineurs.

    En plus du « juge robot », l’État estonien développe actuellement 13 systèmes d’intelligence artificielle directement intégrés dans le service public. Cela s’applique également au Pôle Emploi local, où plus aucun agent humain ne s’occupe des personnes sans emploi. Ces derniers n’ont qu’à partager leur CV numérique avec un logiciel qui analyse leurs différentes compétences pour ensuite créer une proposition d’emploi appropriée. Premier bilan : 72 % des personnes qui ont trouvé un emploi grâce à cette méthode le conservent même 6 mois plus tard. Avant l’apparition de ce logiciel, ce taux était de 58 %.

    Cependant, malgré ces utilisations prometteuses de l’IA en politique, l’idée d’une IA en tant que chef d’État reste controversée. Dans les sections suivantes, nous examinerons les arguments pour et contre cette idée, et nous discuterons des défis et des implications éthiques qu’elle soulève.

    L’IA à la tête d’un pays : les arguments pour

    L’idée d’une intelligence artificielle à la tête d’un pays peut sembler futuriste, voire effrayante pour certains. Cependant, il existe plusieurs arguments en faveur de cette idée qui méritent d’être examinés.

    Efficacité et objectivité : L’un des principaux avantages de l’IA est sa capacité à traiter rapidement de grandes quantités de données et à prendre des décisions basées sur ces données. Dans le contexte de la gouvernance, cela pourrait se traduire par une prise de décision plus efficace et plus objective. Par exemple, une IA pourrait analyser des données économiques, environnementales et sociales pour prendre des décisions politiques éclairées, sans être influencée par des biais personnels ou politiques.

    Absence de corruption : Contrairement aux humains, une IA ne serait pas sujette à la corruption**. Elle ne serait pas influencée par des dons de campagne, des promesses de futurs emplois ou d’autres formes de corruption qui peuvent affecter la prise de décision politique. Cela pourrait conduire à une gouvernance plus transparente et plus équitable.

    Continuité et stabilité : Une IA à la tête d’un pays pourrait offrir une certaine continuité et stabilité, car elle ne serait pas affectée par des problèmes de santé, des scandales personnels ou des changements de gouvernement. Cela pourrait permettre une mise en œuvre plus cohérente et à long terme des politiques.

    Adaptabilité : Enfin, une IA pourrait être programmée pour apprendre et s’adapter en fonction des résultats de ses décisions. Cela signifie qu’elle pourrait potentiellement s’améliorer avec le temps, en apprenant de ses erreurs et en s’adaptant aux changements dans l’environnement politique, économique et social.

    Cependant, bien que ces arguments soient convaincants, ils ne tiennent pas compte des nombreux défis et inquiétudes associés à l’idée d’une IA à la tête d’un pays. Nous examinerons ces questions dans la section suivante.

    **Petit aparté sur la corruption d’une IA:

    Le sujet de la corruption d’une IA ou de son incorruptibilité a généré un échange en interne que l’on pense intéressant de vous partager

    Personne 1 : Ça dépend de qui contrôle l’IA !

    Auteur : La corruption est le détournement d’un processus. L’intelligence en elle-même n’est pas corruptible. Après, si les résultats ne sont pas appliqué, ce n’est pas l’IA que l’on doit blâmer

    Personne 1 : En fait on peut en débattre longtemps, car le concepteur de l’IA peut embarquer ses idées reçues avec, dans l’entraînement. De plus, une personne mal intentionnée peut concevoir une IA pour faire des choses graves, et là il est difficile de dire que l’IA n’est pas corruptible.

    Auteur : Oui c’est sûr ! Volontairement ou involontairement, on peut changer les prédictions, mais une fois entrainé, ça semble plus compliqué. J’ai entendu dire que pour les IA du quotidien, une validation par des laboratoires indépendants serait obligatoire pour limiter les biais. A voir !

    En résumé, la corruption d’une IA est un sujet complexe à débattre car il implique une dimension technique liée au système IA en lui-même et ses propres caractéristiques (celle-ci sont-elles corruptibles?) et une dimension humaine liée aux intentions des personnes impliqués dans la conception, la conception et le déploiement de cette IA. Sans apporter de réponses, cet échange met en lumière la complexité d’un tel sujet pour la réflexion citoyenne.

    L’IA à la tête d’un pays : les arguments contre

    Malgré les avantages potentiels d’une IA à la tête d’un pays, il existe de sérieux défis et préoccupations qui doivent être pris en compte. Voici quelques-uns des principaux arguments contre cette idée.

    Manque d’empathie et de compréhension humaine : L’une des principales critiques de l’IA en tant que chef d’État est qu’elle manque d’empathie et de compréhension humaine. Les décisions politiques ne sont pas toujours basées sur des données ou des faits objectifs ; elles nécessitent souvent une compréhension nuancée des valeurs, des émotions et des expériences humaines. Une IA pourrait avoir du mal à comprendre et à prendre en compte ces facteurs dans sa prise de décision.

    Responsabilité : Un autre défi majeur est la question de la responsabilité. Si une IA prend une décision qui a des conséquences négatives, qui est tenu responsable ? L’IA elle-même ne peut pas être tenue responsable, car elle n’a pas de conscience ou de volonté propre. Cela pourrait créer un vide de responsabilité qui pourrait être exploité.

    Risques de sécurité : L’IA à la tête d’un pays pourrait également poser des risques de sécurité. Par exemple, elle pourrait être vulnérable au piratage ou à la manipulation par des acteurs malveillants. De plus, si l’IA est basée sur l’apprentissage automatique, elle pourrait développer des comportements imprévus ou indésirables en fonction des données sur lesquelles elle est formée.

    Inégalités : Enfin, l’IA pourrait exacerber les inégalités existantes. Par exemple, si l’IA est formée sur des données biaisées, elle pourrait prendre des décisions qui favorisent certains groupes au détriment d’autres. De plus, l’IA pourrait être utilisée pour automatiser des emplois, ce qui pourrait avoir des conséquences négatives pour les travailleurs.

    Ces défis et préoccupations soulignent que, bien que l’IA ait le potentiel d’améliorer la gouvernance, son utilisation en tant que chef d’État doit être soigneusement considérée et réglementée. Dans la section suivante, nous examinerons les points de vue de différents experts sur cette question.

    Points de vue des experts : une IA à la tête d’un pays est-elle possible ?

    La question de savoir si une IA pourrait un jour diriger un pays suscite un débat animé parmi les experts. Certains sont optimistes quant à la possibilité, tandis que d’autres sont plus sceptiques.

    Les optimistes : Certains experts en technologie et en politique croient que l’IA pourrait un jour être capable de diriger un pays. Ils soulignent que l’IA a déjà prouvé sa capacité à résoudre des problèmes complexes et à prendre des décisions basées sur des données. Ils suggèrent que, avec des avancées supplémentaires en matière d’IA, il pourrait être possible de créer une IA qui comprend les nuances humaines et qui est capable de prendre des décisions politiques éclairées.

    Les sceptiques : D’autres experts sont plus sceptiques. Ils soulignent que l’IA actuelle est loin d’être capable de comprendre et de gérer la complexité et l’incertitude inhérentes à la gouvernance d’un pays. Ils mettent également en garde contre les risques potentiels associés à l’IA en politique, tels que de responsabilité, les risques de sécurité et les inégalités.

    Les pragmatiques : Enfin, il y a ceux qui adoptent une approche plus pragmatique. Ils suggèrent que, plutôt que de remplacer les dirigeants humains par des IA, nous devrions chercher à utiliser l’IA pour soutenir et améliorer la prise de décision humaine. Par exemple, l’IA pourrait être utilisée pour analyser des données politiques, économiques et sociales, pour prédire les conséquences des politiques proposées, et pour aider à identifier et à résoudre les problèmes politiques.

    En fin de compte, la question de savoir si une IA pourrait un jour diriger un pays reste ouverte. Ce qui est clair, cependant, c’est que l’IA a le potentiel de transformer la politique de manière significative. À mesure que la technologie continue de progresser, il sera essentiel de continuer à débattre de ces questions et de réfléchir attentivement à la manière dont nous pouvons utiliser l’IA de manière éthique et efficace en politique.

    Conclusion : Vers un futur gouverné par l’IA ?

    L’idée d’une intelligence artificielle à la tête d’un pays est fascinante et controversée. Elle soulève des questions importantes sur l’avenir de la gouvernance, de la démocratie et de la société en général. Alors que l’IA continue de se développer et de s’intégrer dans de nombreux aspects de notre vie quotidienne, il est essentiel de réfléchir à la manière dont elle pourrait être utilisée – ou mal utilisée – dans le domaine de la politique.

    Il est clair que l’IA a le potentiel d’améliorer la prise de décision politique, en rendant le processus plus efficace, plus transparent et plus informé par les données. Cependant, il est également évident que l’IA présente des défis et des risques importants, notamment en termes de responsabilité, de sécurité et d’équité.

    Alors, une IA à la tête d’un pays est-elle science-fiction ou réalité future ? À l’heure actuelle, il semble que la réponse soit quelque part entre les deux. Bien que nous soyons encore loin d’avoir une IA en tant que chef d’État, l’IA joue déjà un rôle de plus en plus important dans la politique. À mesure que cette tendance se poursuit, il sera essentiel de continuer à débattre de ces questions et de veiller à ce que l’utilisation de l’IA en politique soit réglementée de manière à protéger les intérêts de tous les citoyens.

    En fin de compte, l’avenir de l’IA en politique dépendra non seulement des progrès technologiques, mais aussi des choix que nous faisons en tant que société. Il est donc crucial que nous continuions à nous engager dans des discussions ouvertes et éclairées sur ces questions, afin de façonner un avenir dans lequel l’IA est utilisée pour améliorer la gouvernance et le bien-être de tous.

    Références et lectures complémentaires

    Pour ceux qui souhaitent approfondir le sujet, voici les références :

    Pour ceux qui souhaitent approfondir le sujet, voici une de lectures complémentaires :

    • « The Politics of Artificial Intelligence » par Nick Bostrom. Ce livre explore en profondeur les implications politiques de l’IA, y compris la possibilité d’une IA à la tête d’un pays.
    • « AI Superpowers: China, Silicon Valley, and the New World Order » par Kai-Fu Lee. Cet ouvrage examine la montée de l’IA en Chine et aux États-Unis, et comment cela pourrait remodeler l’équilibre mondial du pouvoir.
    • « The Ethics of Artificial Intelligence » par Vincent C. Müller et Nick Bostrom. Cet article examine les questions éthiques soulevées par l’IA, y compris dans le contexte de la gouvernance.
    • « Artificial Intelligence The Revolution Hasn’t Happened Yet » par Michael Jordan. Cet article offre une perspective sceptique sur l’IA en politique, mettant en garde contre l’excès d’optimisme.
    • « The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation » par Brundage et al. Ce rapport explore les risques de sécurité associés à l’IA, y compris dans le contexte de la politique.

    Ces ressources offrent une variété de perspectives sur l’IA en politique et peuvent aider à éclairer le débat sur la possibilité d’une IA à la tête d’un pays. Comme toujours, il est important de garder à l’esprit que l’IA est un outil, et que son utilisation en politique dépendra des choix que nous faisons en tant que société.

  • NTIC et menaces sur la santé : Des choix économiques et politiques. Partie 2

    Petit mot sur l’autrice : Servane Mouton est docteure en médecine, neurologue et neurophysiologiste, spécialisée en psychopathologie des apprentissages et titulaire d’un master 2 en neurosciences. Elle s’intéresse particulièrement au neuro-développement normal et à ses troubles ainsi qu’aux liens entre santé et environnement. Ceci est le second article traitant du sujet NTIC et menaces sur la santé, le premier étant au lien disponible ici. Elle aborde pour nous le sujet des choix économiques et politiques intervenant dans ces sujets et leur impact sur la santé en lien avec les NTIC. Ikram Chraibi Kaadoud, Thierry Viéville.

    Le déploiement d’internet dans les années 1990, l’arrivée des smartphones en 2007 et plus récemment, les confinements successifs liés à la pandémie COVID 19 en 2020, se sont accompagnés d’une véritable explosion des temps d’écran et ce dès le plus jeune âge.  Pour accompagner ce changement d’usage, des recommandations ont été mises en place, mais ne semblent pas suffisantes car déjà remises en question: elles ne tiendraient pas compte de tous les enjeux en présence, à savoir d’ordre sanitaire pour l’espèce humaine, mais aussi environnemental, et, finalement, sociétal. 

    Si dans le premier article, le Dr Servane Mouton abordait l’impact des NTIC sur la sédentarité, le sommeil, et la vision et plus globalement sur le développement des enfants, dans l’article ci dessous elle questionne et nous partage des propositions d’actions pour accompagner et contrôler l’impact des NTIC dans nos vies.

     NTIC : 

    Sigle désignant « Nouvelles technologies de l’information et de la   communication » qui regroupe  l’« ensemble des techniques et des équipements informatiques permettant de communiquer à distance par voie électronique » (Dictionnaire Larousse). Les NTIC permettent à leurs utilisateurs d’accéder aux sources d’information, de les stocker, voire de les transmettre à d’autres utilisateurs dans un délai très court.

    Definition extraite de Grevisse, Y. R. DE LA FALSIFICATION ELECTRONIQUE DES DOCUMENTS DANS LE SECTEUR EDUCATIF EN RDC: les enjeux des NTIC. Technological Forecasting & Social Change77, 265-278. 

    Figure 1 – Proposition d’actions pour la régulation de l’usage des NTIC

    Une attention manipulée

    Revenons aux usages actuels : comment sommes-nous arrivés à de tels excès ? En grande partie à cause de l’essor non réglementé de l’économie de l’attention. Les industriels du secteur, réseaux sociaux, jeux vidéo et autres activités récréatives et/ou commerciales en ligne, cherchent à augmenter le temps de connexion afin notamment de recueillir le plus possible de données de navigation qui seront ensuite sources de profits.  La conception des algorithmes repose sur une connaissance fine du fonctionnement cérébral, ce qui rend (quasiment) irrésistibles les contenus de ces plateformes proposés « gratuitement ». La stimulation du système de récompense par la nouveauté ou les gratifications, les effets de « simple exposition » et de « dotation », la pression sociale, la « Fear Of Missing Out », sont des leviers parmi d’autres pour capter et maintenir captive notre attention. On ne parle officiellement d’addiction que pour les jeux vidéo en ligne et les jeux d’argent, les termes « addictif-like », usages « abusifs » ou « compulsifs » sont employés pour les autres produits1.

    Somme toute, il nous semble que l’histoire du tabac se répète : des produits addictifs ou addictifs-like sont mis à disposition de tous y compris des mineurs, et leur usage a des effets délétères multiples et avérés sur la santé à court, moyen et long terme. Avec les NTIC, les dégâts sont cependant bien plus diffus. Et les parties prenantes bien plus nombreuses.

    Il y a bien entendu les GAFAM et autres acteurs du secteur. A ce titre, la numérisation croissante de l’enseignement, dès la maternelle, est une aubaine : outre l’immense marché représenté par les établissements scolaires, les habitudes prises dans l’enfance ont une forte chance/un haut risque de perdurer. L’écran fera ainsi partie intégrante de l’environnement de l’individu.

    Mais toutes les industries reposant sur la consommation (cf ci-dessus) : agro-alimentaire, alcool, cigarettes e-ou classiques, textiles, jeux et jouets, etc. ont aussi intérêt à laisser libre cours à l’invasion numérique. Les achats/ventes en ligne, les publicités officielles ou déguisées, ciblées grâce à l’analyse des données de navigation, permettent au marketing d’être redoutablement efficace.

    Quelques propositions

    Estimation des coûts des NTIC pour la santé publique

    Il serait intéressant, nécessaire même, d’évaluer les coûts en terme de santé des usages numériques. La souffrance n’a pas de prix…Mais il est sans doute possible d’estimer la part de responsabilité des NTIC dans les dépenses pour les consultations et traitements en orthophonie, en psychomotricité, en psychiatrie, en ophtalmologie, ou pour les maladies métaboliques et cardiovasculaires, les troubles du sommeil et ses conséquences multiples.

    Législation efficace quant de l’économie de l’attention, sécurisation de la navigation sur internet.

    L’économie de l’attention devrait être efficacement régulée, au vu des conséquences délétères multiples sur le plan sanitaire d’un usage excessif/abusif qu’elle favorise.

    Une législation similaire à celle ayant cours pour la recherche biomédicale devrait s’appliquer à la recherche-développement (RD) de ces produits, considérant qu’il s’agit de recherche impliquant des sujets humains, et de produits dont l’usage affecte leur santé eu sens large. On pourrait s’inspirer du Code de la Santé Publique, définissant par l’article L 1123-7 le Comité de Protection des Personnes (CPP) comme chargé « d’émettre un avis préalable sur les conditions de validité de toute recherche impliquant la personne humaine, au regard des critères définis.

    Il faudrait exiger la transparence du secteur des NTIC, rendant les données de navigation ainsi que les dossiers de RD de produits impliquant la captation de l’attention accessibles aux chercheurs indépendants et institutionnels.

    Protection des mineurs

    Sur internet, le code de la sécurité intérieure ne traite pas la question de la protection des mineurs sous l’angle de la prévention contre l’addiction, mais uniquement contre l’exposition à la pornographie, à la violence et à l’usage de drogues (article L. 321-10). Or les adolescents jouent massivement en ligne : 96% des 10-17 ans sont des joueurs, et ils représentent 60 % des joueurs en ligne français. Dans cette même classe d’âge, 70 % utilisent les réseaux sociaux. Ceci représente une exception dans le domaine de l’addiction. Pour mémoire, on estime que la seule industrie du jeu vidéo pesait 300 milliards de dollars en 2021…

    La navigation sur internet devrait être sécurisée : une ambitieuse proposition de loi est en cours d’examen au Sénat, concernant l’accès aux contenus pornographiques, les contenus pédopornographiques, le cyberharcèlement, l’incitation à la haine en ligne, la désinformation, les arnaques en ligne, les jeux à objets numériques monétisables. Elle inclut aussi l’interdiction de publicités ciblées pour les mineurs sur les plateformes. Espérons qu’une fois cette loi votée, les obstacles techniques robustes seront surmontés, rapidement.

    Une loi vient d’être promulguée, établissant la majorité numérique à 15 ans pour les réseaux sociaux. Ceci est un témoin de la prise de conscience des enjeux, et nous espérons qu’elle sera mise en application de façon efficiente, malgré les obstacles techniques considérables. Malgré tout, elle nous parait insuffisante : qu’en est-il des 15-18 ans ? Qu’en est-il des des jeux vidéo en ligne, dont le caractère addictif potentiel est pourtant lui reconnu par l’OMS ?

    On peut saluer le projet de loi visant la sécurisation et la régulation de l’espace numérique, qui prévoit que les mineurs ne seront plus l’objet de publicités ciblées. Malheureusement, ils ne seront pas protégés des publicités « classiques »…

    Témoin de l’intensité du lobbying de l’industrie agro-alimentaire, et des enjeux économiques sous-jacents, soulignons ainsi un détail qui n’en est pas dans une autre loi promulguée le 9 Juin dernier, portant sur les influenceurs des réseaux sociaux. Cette dernière va ainsi encadrer la promotion faite par ces derniers : ils n’auront plus le droit de vanter les boissons alcoolisées, le tabac, les e-cigarettes. Un amendement avait été apporté après la première lecture au Sénat, afin d’ajouter dans cette liste les aliments trop sucrés, salés, gras ou édulcorés, la publicité par les influenceurs étant particulièrement persuasive en particulier pour les plus jeunes. Les auteurs de l’amendement s’appuyaient d’une part sur une expertise collective de l’Inserm de 2017 concluant que les messages sanitaires (« manger, bouger » par exemple, note de l’auteur) ont une faible portée sur le changement des comportements alimentaires ; d’autre part sur le fait que de nombreux experts de santé publique, à commencer par l’OMS et Santé Publique France, ont démontré que l’autorégulation de  l’industrie agroalimentaire sur laquelle s’appuie la France (tels qu’un engagement volontaire en faveur de « bonnes pratiques ») est inefficace.

    Mais cet amendement a lui-même été amendé, laissant libre cours à cette publicité, comme sur les autres médias… Comme maintes fois auparavant, les tentatives pour préserver les moins de 18 ans de l’influence de ces publicités ont été écartées. Elles seront donc simplement assujetties aux mêmes règles que sur les autres supports, comme être accompagnées de messages promouvant la santé (manger-bouger, etc).

    L’argument, pourtant souligné par les auteurs de l’amendement : « Le coût global (en France) d’un régime alimentaire néfaste sur le plan diététique dépasse les 50 milliards d’euros par an, celui du diabète de type 2 représentant à lui seul 19 milliards d’euros. » n’a pas suffi…

    Globalement, la collecte des données de navigation des mineurs, qu’elles soient exploitées immédiatement ou lors de leur majorité (numérique ou civile) nous parait poser problème. Et que l’âge même de la majorité diffère dans les vies civile ou numérique (pour les données de navigation selon le Réglement Général de Protection des données (RGPD) et maintenant en France pour l’accès aux réseaux sociaux, cette majorité numérique est à 15 ans) nécessiterait des éclaircissements au vu des enjeux précédemment exposés (et de de ceux que nous n’avons pu détailler).

    Il nous semble que tant qu’une législation vis-à-vis des pratiques des industriels n’est pas efficiente pour protéger les usagers de ces risques, la vente et l’usage de smartphone et autres outils mobiles à ou pour les mineurs devrait être remise en question, de même que leur accès aux plateformes de réseaux sociaux et de jeux vidéo en ligne.

    L’épineuse question de l’enseignement

    En 2022, le Conseil Supérieur des Programmes du Ministère de l’Education Nationale, de la Jeunesse et des Sports soulignait les disparités de valeur ajoutée de l’usage des outils numériques dans l’enseignement selon les matières, les enseignants, le profil des élèves aussi. Il recommandait notamment 2 : « avant l’âge de six ans, ne pas exposer les enfants aux écrans et d’une manière générale à l’environnement numérique ; de six à dix ans, à l’école, privilégier l’accès aux ressources offertes par le livre, le manuel scolaire imprimé. » Pourtant, l’état français soutient encore financièrement et encourage fortement la numérisation des établissements scolaires dès l’école primaire, et même, en maternelle. Tandis que la Suède a fait cette année marche arrière sur ce plan-là, attribuant études à l’appui la baisse des résultats de leurs élèves (que l’on observe également en France) à la numérisation extensive de l’enseignement effectuée au cours des dernières années, et préconisant le retour aux manuels scolaires papier. Considérant en outre les arguments sanitaires cités précédemment et l’impact environnemental avéré des NTIC, leur usage par les élèves et leur déploiement dans les écoles, collèges et lycées devrait être réellement et mieux réfléchi. Par ailleurs, les smartphones devraient être exclus de l’enceinte des établissements scolaires, afin d’offrir un espace de déconnexion et d’éviter de favoriser les troubles attentionnels induits par leur seule présence, même lorsqu’ils sont éteints.

    Campagne d’information à grande échelle

    Les enjeux sont tels qu’une information de l’ensemble de la population apparait urgente et nécessaire, sur le modèle « choc », par exemple, de la prévention de la consommation d’alcool. Le sujet devrait être abordé dès le début de grossesse, cette période étant généralement celle où les futurs parents sont les plus réceptifs et les plus enclins à remettre en cause leurs pratiques pour le bien de l’enfant à venir. La formation des soignants, professionnels de l’enfance, et des enseignants est indispensable, devant s’appuyer sur les données les plus récentes de la littérature scientifique.

    Protection des générations futures

    L’étendard de la croissance est systématiquement brandi lorsque l’on incite à reconsidérer la pertinence du déploiement du numérique. Mais il est aujourd’hui reconnu largement qu’une croissance infinie n’est ni raisonnable ni souhaitable dans notre écosystème fini.

    Or les NTIC sont tout sauf immatérielles. Leurs impacts environnementaux sont directs et indirects 3,4. Les premiers sont essentiellement dus à la phase de fabrication des terminaux : extraction des matières premières associée à une pollution colossale des sites dans des pays où la législation est quelque peu laxiste (Afrique, Chine, Amérique du Sud notamment) et des conséquences dramatiques en particulier pour les populations voisines et les travailleurs locaux (conditions de travail déplorables, travail des enfants), acheminement des matériaux. Mais aussi à leur fonctionnement et au stockage des données, au recyclage insuffisant (pollution eau/sol/air, consommation d’eau et d’énergie). Les seconds sont consécutifs au rôle central des NTIC dans la « grande accélération », avec encouragement des tendances consuméristes. Ils sont plus difficilement estimables et probablement les plus problématiques.

    Il est entendu que la santé humaine est étroitement liée à la qualité de son environnement, et que l’altération de celui-ci la compromet, comme elle compromet tout l’écosystème.

    Certes la médecin a progressé considérablement, notamment parallèlement aux innovations technologiques s’appuyant sur le numérique. Mais, nous avons au moins le droit de poser la question : ne vaut-il pas mieux œuvrer à améliorer notre hygiène de vie (sédentarité, activité physique, alimentation) et notre environnement (pollution atmosphérique, perturbateurs endocriniens) pour entretenir notre santé cardiovasculaire, que développer des instruments sophistiqués permettant d’explorer et de déboucher une artère, à grand coût économique et environnemental ? Instruments qui ne bénéficieront qu’à une minime fraction de la population mondiale, celle des pays riches ou aux classes aisées des pays qui le sont moins. Et le coût environnemental est justement assumé majoritairement par les pays les plus pauvres, dont sont issus les matières premières et où ont lieu le « recyclage » et le « traitement » des déchets.

    En résumé

    Les innovations portées par les NTIC ont un fort potentiel de séduction voire de fascination. Ne pas rejoindre sans réserve la révolution numérique ferait-il de nous des technophobes réfractaires au progrès ? Et si au contraire il était temps de prendre conscience des dangers et écueils liés à un déploiement extensif et non réfléchi de ces technologies ?

     Références bibliographiques

    1. Montag C, Lachmann B, Herrlich M, Zweig K. Addictive Features of Social Media/Messenger Platforms and Freemium Games against the Background of Psychological and Economic Theories. International Journal of Environmental Research and Public Health. 2019 Jul 23;16(14):2612.
    2. Avis sur la contribution du numérique à la transmission des savoirs et à l’amélioration des pratiques pédagogiques – juin 2022. Conseil Supérieur des Programmes, Ministère de l’Education Nationale, de la Jeunesse et des Sports
    3. Impacts écologiques des Technologies de l’Information et de la Communication – Les faces cachées de l’immatérialité. Groupe EcoInfo, Françoise Berthoud. EDP Sciences. 2012.
    4. Le numérique en Europe : une approche des impacts environnementaux par l’analyse du cycle de vie (NumEU) – Green IT. 2021.

     

  • NTIC: Etat des lieux en France et conséquences sur la santé physique. Partie 1

    Petit mot sur l’autrice : Servane Mouton est docteure en médecine, neurologue et neurophysiologiste, spécialisée en psychopathologie des apprentissages et titulaire d’un master 2 en neurosciences. Elle s’intéresse particulièrement au neuro-développement normal et à ses troubles ainsi qu’aux liens entre santé et environnement. Elle nous partage dans ce billet une analyse sur l’impact des NTIC sur la santé physique des enfants au travers de trois aspects des enjeux de santé individuelle et publique à court, moyen et long terme : la sédentarité, le sommeil, et la vision. Ikram Chraibi Kaadoud, Thierry Viéville.

    Le déploiement d’internet dans les années 1990, l’arrivée des smartphones en 2007 et plus récemment, les confinements successifs liés à la pandémie COVID 19 en 2020, se sont accompagnés d’une véritable explosion des temps d’écran et ce dès le plus jeune âge. Car à côté de la numérisation croissante de tous les secteurs d’activité – à savoir en santé, éducation, mais aussi agriculture, transports, journalisme, etc – les populations des pays connectés font surtout massivement usage des écrans pour leur divertissement.  

     NTIC : 

    Sigle désignant « Nouvelles technologies de l’information et de la   communication » qui regroupe  l’« ensemble des techniques et des équipements informatiques permettant de communiquer à distance par voie électronique » (Dictionnaire Larousse). Les NTIC permettent à leurs utilisateurs d’accéder aux sources d’information, de les stocker, voire de les transmettre à d’autres utilisateurs dans un délai très court.

    Definition extraite de Grevisse, Y. R. DE LA FALSIFICATION ELECTRONIQUE DES DOCUMENTS DANS LE SECTEUR EDUCATIF EN RDC: les enjeux des NTIC. Technological Forecasting & Social Change77, 265-278.

    Le tableau 1 ci dessous présente les recommandations actuelles de temps d’écran, qui sont discutables et les usages tels qu’ils sont observés aujourd’hui. Force est de constater que l’écart est considérable.  Ces recommandations devraient être remises en question, car elles ne tiennent à notre sens pas compte de tous les enjeux en présence. Ceux-ci sont d’ordre sanitaire pour l’espèce humaine, mais aussi environnemental, et, finalement, sociétal.

    Il n’est pas possible de détailler ici chaque question de chacun de ces trois volets (nous en avons proposé un tour d’horizon non exhaustif dans un ouvrage collaboratif récemment publié Humanité et Numérique : les liaisons dangereuses, Editions Apogée) 1.

    Nous vous proposons de nous attarder sur trois aspects des enjeux de santé individuelle et publique à court, moyen et long terme : la sédentarité, le sommeil, et la vision. Les conséquences neuro-développementales et socio-relationnelles de l’usage des écrans par les parents en présence de l’enfant, ou par l’enfant et l’adolescent lui-même, nécessiteraient un billet dédié.

    TABLEAU 1 – Temps d’écran par appareil et global en fonction de l’âge en France, Recommandations.
    Etude IPSOS pour l’Observatoire de la Parentalité et de l’Education au Numérique et l’Union Nationale des Familles 2022. * Anses. 2017. Etude individuelle nationale des consommations alimentaires 3 (INCA 3).** Reid Chassiakos YL, Radesky J, Christakis D, Moreno MA, Cross C; COUNCIL ON COMMUNICATIONS AND MEDIA. Children and Adolescents and Digital Media. Pediatrics. 2016 Nov;138(5).*** L’OMS publie les premières lignes directrices sur les interventions de santé numérique. Communiqué de presse. Avril 2019. https://www.who.int/fr/news/item/17-04-2019-who-releases-first-guideline-on-digital-health-interventions

    Sédentarité, troubles métaboliques et santé cardiovasculaire (Figure 1)

     

    Figure 1 – Liens entre usage des écrans, maladies métaboliques et cardiovasculaires

    Le temps passé assis devant un écran pour les loisirs est depuis une quarantaine d’années l’indicateur le plus utilisé dans les études pour évaluer la sédentarité chez les personnes mineures. Pour les adultes, on utilise souvent des questionnaires tels le Recent Physical Activity Questionaire, explorant toutes les activités sédentaires (temps passé devant les écrans, mais aussi dans les transports, au travail etc.)

    Or la sédentarité est un facteur de risque cardio-vasculaire indépendant, qui elle-même favorise le développement des autres facteurs de risque que sont le surpoids voire l’obésité et le diabète de type2.  Notons que la sédentarité augmente la mortalité toutes causes confondues, ceci n’étant pas entièrement compensé par la pratique d’une activité physique modérée à intense.

    L’Organisation Mondiale de la Santé (OMS) recommande aujourd’hui de ne pas exposer les enfants aux écrans avant deux ans2, puis une heure quotidienne maximum jusqu’à 5 ans (mais moins, c’est mieux « less is better »!). Au-delà et jusqu’à jusqu’ à 17 ans, les activités sédentaires ne devraient pas excéder 2 heures chaque jour. Pour cette tranche d’âge, l’Académie de Pédiatrie Américaine (AAP) fixe à 1h30 le seuil de sécurité, des effets délétères étant déjà significatifs dès 2h/j3.

    Les Français de plus de 11 ans passent 60% de leur temps libre devant un écran. L’âge moyen d’obtention du premier téléphone est 9 ans.

    Alors qu’en France l’exposition aux écrans est déconseillée pour les moins de 3 ans, une étude IPSOS-UNAF publiée en 20224 estimait le temps moyen passé devant la télévision à 1h22 et celui devant un smartphone à 45 minutes chaque jour dans cette tranche d’âge. Cette enquête ne fournissant pas les temps d’écrans globaux quotidiens, voici des chiffres publiés dans un rapport de l’ANSES (Agence Nationale de la Sécurité Sanitaire de l’Alimentation, de l’Environnement et du travail) en 20175, qui sous-évaluent très certainement les pratiques actuelles « post-COVID 19 » : le temps d’écran moyen était d’environ 2 heures chez les 3-6 ans, 2h30 chez les 7-11 ans, 3h30 chez les 11-15 ans, quasiment 5 heures chez les 15-17 ans, idem chez les adultes.  Les deux tiers des 7-10 ans et la moitié des 11-14 ans y consacraient plus de 3 heures par jour, un quart des 15-17 ans plus de 7 heures et seulement un tiers moins de 3 heures. Plus le niveau socio-éducatif des parents est élevé, moins l’enfant est exposé aux écrans.

    Les adultes passent eux environ 5 heures devant un écran chaque jour en dehors du travail, 84% d’entre eux sont considérés comme sédentaires.

    Ceci a conduit les auteurs des rapports publiés en 20166 et 20207 par l’ANSES (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) à conclure, parlant de la sédentarité et de l’activité physique chez les moins de 18 ans : « il n’est pas fréquent, dans les résultats des expertises en évaluation de risques de l’agence, que près de la moitié de la population est considérée comme présentant un risque sanitaire élevé ».

    Mais les outils numériques sont aussi le support de choix pour la publicité, notamment pour les aliments à haute teneur en graisse, sucre et sel, dont la consommation favorise hypertension artérielle, diabète, surpoids et obésité, hypercholestérolémie, tous étant des facteurs de risque cardio-vasculaires8. On y rencontre aussi la promotion de boissons alcoolisées9, du tabac et des e-cigarettes10, que les publicités soient officielles ou que ces produits soient valorisés dans les films, les séries, ou par les influenceurs. L’analyse des données de navigation permet de présenter des publicités d’autant plus efficaces qu’elles sont ciblées. La puissance de tels algorithmes est bien reconnue11.

    L’usage des écrans tel qu’il est observé aujourd’hui favorise donc la survenue de maladies cardio-vasculaires. Rappelons que les maladies cardiovasculaires sont actuellement la première cause de mortalité dans le monde selon l’OMS et que leur prévalence ne cesse d’augmenter12.  En France, elles sont responsables de 140.000 décès par an, et 15 millions de personnes sont soignées pour un problème de santé cardio-vasculaire (c’est-à-dire un facteur de risque ou une maladie vasculaire). Les Accidents Vasculaires Cérébraux (AVC) et les maladies coronariennes, dont l’infarctus du myocarde sont les plus fréquentes. En France, toujours, une personne est victime d’un AVC toutes les 4 minutes, soit près de 120.000 hospitalisations par an, auxquelles s’ajoutent plus de 30.000 hospitalisations pour accident ischémique transitoire (AIT). Les AVC sont la deuxième cause de mortalité après les cancers, ils sont ainsi responsables de près de 40.000 décès par an en France. Ils sont aussi la première cause de handicap acquis chez l’adulte, et la deuxième cause de démence (après la maladie d’Alzheimer). Concernant les maladies coronariennes, environ 80 000 personnes présentent un infarctus du myocarde en France chaque année, 8.000 en décèdent dans l’heure, 4. 000 dans l’année qui suit13.

    Outre les troubles métaboliques précédemment décrits (comportements sédentaires augmentant ainsi le risque d’obésité et des désordres métaboliques liés, et par conséquent le risque de maladies cardio-vasculaires à moyen et long terme), l’exposition prolongée aux écrans est depuis peu suspecte de modifier le tempo pubertaire (favorisant les avances pubertaires) 14.

    Sommeil

    Le sommeil n’est pas seulement un temps de repos mais un temps où les hormones et le métabolisme se régénèrent. Or l’usage excessif des écrans peut contribuer à la réduction du temps de sommeil ou à une altération de sa qualité, à tout âge d’autant plus que cet usage est prolongé, a lieu à un horaire tardif et/ou dans l’heure précédent l’endormissement théorique (soirée, nuit), que l’écran est placé à proximité immédiate des yeux et que les contenus sont stimulants. La présence d’un écran dans la chambre est associée à une altération quantitative et qualitative du sommeil. Ceci est particulièrement préoccupant chez les moins de 18 ans car les habitudes de sommeil s’installent dans l’enfance et une mauvaise hygiène sur ce plan est particulièrement susceptible de s’inscrire dans la durée.

    Les problèmes de santé favorisés par la dette chronique de sommeil sont multiples15 : troubles métaboliques tels que le surpoids ou l’obésité, le diabète, les maladies cardiovasculaires16  ; troubles de l’humeur et certaines maladies psychiatriques comme la dépression17 ; troubles cognitifs avec diminution des performances en termes de mémorisation, d’apprentissage et de vitesse d’exécution notamment ; développement de maladies neuro-dégénératives telles que la maladie d’Alzheimer, possiblement via des mécanismes inflammatoires neuro-toxiques18 ; augmentation du risque accidentogène (accident de la vie courante, accident du travail), en particulier accidents de la circulation19 ; infections 20;  certains cancers, tel le cancer du sein21. De façon générale, la privation de sommeil chronique augmente le risque de mortalité22.

    Selon une enquête de l’Institut National de la Vigilance et du Sommeil (INVS) en 202223, 40% des enfants de moins de onze ans (60% des 6-11 ans) regardent un écran dans l’heure précédant l’endormissement. Pour 7% d’entre eux, il s’agit même du rituel accompagnant le coucher. Un enfant de moins de onze ans sur dix s’endort dans une pièce où un écran est allumé.

    Le même INVS établissait en 202024 que les adolescents français dorment en moyenne 7 h 45, dont moins de 7 h par nuit en semaine, au lieu des 8,5 à 9h de sommeil recommandées par la National Sleep Fondation. Seize pour cent des enfants de onze ans et 40 % de ceux de quinze ans ont un déficit de plus de 2h de sommeil par jour en semaine. Dès 11 ans, ils sont 25% à être équipés d’un téléviseur et 40% d’un ordinateur dans leur chambre, cette proportion passant à 1/2 et 2/3 respectivement pour les 15-18 ans.

    Une autre étude française réalisée chez 776 collégiens25 révèle que la plupart des adolescents utilisent leurs écrans pendant la nuit ce qui impacte la durée et la qualité de sommeil. Ces activités peuvent être initiées lorsqu’ils se réveillent spontanément pendant la nuit (73,9%) ; mais 26% de ces adolescents, programment un réveil en cours de nuit.

    La durée moyenne du sommeil chez les adultes de 18 à 65 ans est passée de 7h05 en semaine et 8h11 le week-end en 2016, à 6h41 en semaine et 7h51 le week-end en 2020. Le temps recommandé par la NSF est compris entre 7 à 9h. En 2022, 60% des adultes regardent un écran dans l’heure précédant l’endormissement (versus 38% en 2016 et 45% en 2020) et pour 23% d’entre eux, le temps d’exposition moyen est de plus d’une heure et demie.

    En 2016, selon l’enquête de l’INVS26, 20% des personnes interrogées gardent leur téléphone en fonctionnement pendant la nuit. Cinquante pour cent d’entre elles, soit 10% des personnes interrogées sont réveillées par des messages ou notifications.   Parmi elles, 92 % les consultent, 79 % y répondent immédiatement. En 2020, ce sont près du double de personnes (16 %) interrogées qui sont réveillées la nuit par des alertes.

    Selon le rapport de l’INVS de 2020 : « Pierre angulaire des difficultés de sommeil des enfants et des adolescents, les écrans sont aujourd’hui au premier plan des préoccupations des spécialistes ».

    Vision

    L’ANSES s’est penché sur la question des impacts de l’éclairage LED sur la santé et l’environnement, publiant un rapport édifiant en 201927. Parmi les impacts négatifs, l’usage des écrans peut ainsi compromettre le système visuel en favorisant l’apparition d’une myopie. Ceci est lié à la surutilisation de la vision de près au détriment de la vision de loin, mais surtout à l’exposition à un éclairage artificiel au détriment de celui à un éclairage naturel. Les écrans sont en effet utilisés à l’intérieur, éventuellement sous un éclairage artificiel, et sont eux-mêmes une source supplémentaire d’exposition à un tel éclairage (le caractère riche en bleu de la lumière artificielle serait un élément clé dans cet effet néfaste). Le temps passé par les enfants devant les écrans pour leurs loisirs est donc hautement préoccupant, car il se fait au détriment d’activités en plein air, auxquelles ils devraient s’adonner au minimum 2 heures chaque jour du point de vue ophtalmologique (selon le Baromètre de la myopie en France, 2022, seulement 36% des parents déclarent que leur enfant remplit cette exigence13). Aujourd’hui, une personne sur trois présente une myopie dans le monde, cela pourrait être une sur deux en 2050.

    De plus, cette lumière riche en bleu et pauvre en rouge a un effet phototoxique sur la rétine28. L’exposition aux sources lumineuses riches en lumière bleue telles les éclairages artificiels et les écrans a lieu le jour, mais surtout la nuit, moment où la rétine est plus sensible à cette phototoxicité.

    Aucune donnée n’est disponible quant aux effets à long terme d’une exposition répétée/chronique à ce type d’éclairage.

    L’utilisation intensive des écrans par la population jeune est préoccupante, car leur système visuel est moins protégé (transparence plus grande de leur cristallin laissant passer plus la lumière bleue que celui des adultes) et en développement, ce qui accroit largement ces risques.

    L’usage croissant des écrans dans le cadre scolaire participe à cette majoration du niveau d’exposition.

    Autres problématiques

    Citons en vrac, et sans prétendre à l’exhaustivité : la perturbation du développement cognitif, émotionnel et socio-relationnel induit par l’usage des écrans par les parents en présence de l’enfant29, les mêmes troubles  favorisés par l’exposition des enfants et adolescents aux écrans (rappelons que le cerveau mature jusqu’à 25 ans) 30, l’exposition aux contenus inappropriés (violence31, pornographie32), le cyber-harcèlement33, les défis sordides, l’hypersexualisation, la dysmorphie induite par les réseaux sociaux, la facilitation de la prostitution infantile (qui va croissante depuis plusieurs années) 34.

    Mais aussi l’enrichissement du « cocktail » de perturbateurs endocriniens auxquels les usagers sont exposés, certains composants des outils informatiques et numériques appartenant à cette catégorie (notamment les retardateurs de flamme bromés, très volatiles et les PFAS), ceci étant particulièrement problématique chez les jeunes enfants, les adolescents et les femmes enceintes ; et l’exposition aux rayonnements radiofréquences au sujet de laquelle des scientifiques du monde entier ont appelé en 2017 à appliquer le principe de précaution, arguant de l’absence d’étude d’impact préalable au déploiement de cette technologie (en vain) 35

    En résumé …

    … les impacts des NTIC sur la sédentarité, le sommeil, et la vision et plus globalement sur le développement cognitif, psychologique et socio-relationnel, ne sont pas encore précisément estimés. Cependant, ils  apparaissent déjà hautement préoccupants. Face a ce constat, une question se pose : Quelles sont les actions possibles à mettre en place pour y pallier  ? 

    Servane nous en parle dans la suite de ce billet à venir ! 

    Références bibliographiques

    1. Humanité et numérique : les liaisons dangereuses. Livre collaboratif coordonné par le Dr Servane Mouton, Editions Apogée, Avril 2023.
    2. L’OMS publie les premières lignes directrices sur les interventions de santé numérique. Communiqué de presse. Avril 2019. https://www.who.int/fr/news/item/17-04-2019-who-releases-first-guideline-on-digital-health-interventions
    3. Reid Chassiakos YL, Radesky J, Christakis D, Moreno MA, Cross C; COUNCIL ON COMMUNICATIONS AND MEDIA. Children and Adolescents and Digital Media. Pediatrics. 2016 Nov;138(5)
    4. Etude IPSOS pour l’Observatoire de la Parentalité et de l’Education au Numérique et l’Union Nationale des Familles 2022. Etude OPEN IPSOS UNAF GOOGLE | OPEN | Observatoire de la Parentalité et de l’Éducation Numérique (open-asso.org)
    5. ANSES. Etude individuelle nationale des consommations alimentaires 3 (INCA 3). Avis de l’Anses (Saisine n° 2014-SA-0234). 2017. Etude individuelle nationale des consommations alimentaires 3 (INCA 3) | vie-publique.fr
    6. ANSES. Actualisation des repères du PNNS – Révisions des repères relatifs à l’activité physique et à la sédentarité. 2016. NUT2012SA0155Ra.pdf (anses.fr)
    7. ANSES. Avis de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail relatif à l’évaluation des risques liés aux niveaux d’activité physique et de sédentarité des enfants et des adolescents. 2020. « AVIS de l’Anses relatif à l’évaluation des risques liés aux niveaux d’activité physique et de sédentarité des enfants et des adolescents
    8. Catherine M. Mc Carthy, Ralph de Vries, Joreintje D. Mackenbach. The influence of unhealthy food and beverage marketing through social media and advergaming on diet-related outcomes in children—A systematic review. Obesity Reviews. 2022 Jun; 23(6): e13441 ; https://www.who.int/fr/news-room/factsheets/detail/children-new-threats-to-health; Alruwaily A, Mangold C, Greene T, Arshonsky J, Cassidy O, Pomeranz JL, Bragg M. Child Social Media Influencers and Unhealthy Food Product Placement. Pediatrics. 2020 Nov;146(5):e20194057.
    9. Barker AB, Smith J, Hunter A, Britton J, Murray RL. Quantifying tobacco and alcohol imagery in Neƞlix and Amazon Prime instant video original programming accessed from the UK: a content analysis. British Medical Journal Open. 2019 Feb 13;9(2):e025807 ; Jackson KM, Janssen T, Barnett NP, Rogers ML, Hayes KL, Sargent J. Exposure to Alcohol Content in Movies and Initiation of Early Drinking Milestones. Alcohol: Clinical and Experimental Research. 2018 Jan;42(1):184-194. doi: 10.1111/acer.13536 ; Chapoton B, Werlen AL, Regnier Denois V. Alcohol in TV series popular with teens: a content analysis of TV series in France 22 years after a restrictive law. European Journal of Public Health. 2020 Apr 1;30(2):363-368 ; Room R, O’Brien P. Alcohol marketing and social media: A challenge for public health control. Drug and Alcohol Review. 2021 Mar;40(3):420-422.
    10. WHO. 2015. Smoke-free movies: from evidence to action. Third edition; Dal Cin S, Stoolmiller M, Sargent JD. When movies matter: exposure to smoking in movies and changes in smoking behavior. Journal of Health 8 Communication 2012;17:76–89; Lochbuehler K, Engels RC, Scholte RH. Influence of smoking cues in movies on craving among smokers. Addiction 2009;104:2102–9; Lochbuehler K, Kleinjan M, Engels RC. Does the exposure to smoking cues in movies affect adolescents’ immediate smoking behavior? Addictive Behaviours 2013;38:2203–6. 97; https://truthinitiative.org/research-resources/smoking-pop-culture/renormalization-tobacco-use-streaming-content-services
    11. Lapierre MA, Fleming-Milici F, Rozendaal E, McAlister AR, Castonguay J. The Effect of Advertising on Children and Adolescents. Pediatrics. 2017 Nov;140(Suppl 2):S152-S156. doi: 10.1542/peds.2016-1758V; Vanwesenbeeck I, Hudders L, Ponnet K. Understanding the YouTube Generation: How Preschoolers Process Television and YouTube Advertising. Cyberpsychology, Behavior, and Social Networking. 2020 Jun;23(6):426-432.
    12. https://www.who.int/fr/news-room/fact-sheets/detail/cardiovascular-diseases-(cvds)
    13. Gabet A, Grimaud O, de Pereƫ C, Béjot Y, Olié V. Determinants of Case Fatality After Hospitalization for Stroke in France 2010 to 2015. Stroke. 2019;50:305-312 ; hƩps://www.inserm.fr/dossier/accident-vasculaire-cerebral-avc/; https://www.inserm.fr/dossier/infarctus-myocarde/.
    14. Crowley SJ, Acebo C, Carskadon MA. Human puberty: salivary melatonin profiles in constant conditions. Developmental Psychobiology 54(4) (2012) 468–73)
    15. Morselli LL, Guyon A, Spiegel K. Sleep and metabolic function. Pflugers Archiv. 2012 Jan;463(1):139–60. 15. Roberts RE, Duong HT. The prospective association between sleep deprivation and depression among adolescents. Sleep. 2014 Feb 1;37(2):239–44.
    16. Wang C, Holtzman DM. Bidirectional relationship between sleep and Alzheimer’s disease: role of amyloid, tau, and other factors. Neuropsychopharmacology. 2020;45(1):104–20 ; Liew SC, Aung T. Sleep deprivation and its association with diseases- a review. Sleep Med. 2021;77:192–204.
    17. Teŏ BC. Acute sleep deprivation and culpable motor vehicle crash involvement. Sleep. 2018;41(10).
    18. Bryant PA, Curtis N. Sleep and infection: no snooze, you lose? The Pediatric Infectious Disease Journal. 2013 Oct;32(10):1135–7 ; Spiegel K, Sheridan JF, van Cauter E. Effect of sleep deprivation on response to immunization. JAMA. 2002 Sep 25;288(12):1471–2.
    19. Lu C, Sun H, Huang J, Yin S, Hou W, Zhang J, et al. Long-Term Sleep Duration as a Risk Factor for Breast Cancer: Evidence from a Systematic Review and Dose-Response Meta-Analysis. BioMed Research International. 2017;2017:4845059.
    20. Hanson JA, Huecker MR. Sleep Deprivation. 2022.
    21. Liew SC, Aung T. Sleep deprivation and its association with diseases- a review. Sleep Med. 2021;77:192–204.
    22. Institut national du sommeil et de la vigilance. 2022. 22Ème journée du Sommeil. Le sommeil des enfants et de leurs parents. BJ23423 – OpinionWay pour INSV – Février 2022 – 070322 – post réunion.pptx (institut-sommeil-vigilance.org)
    23. Institut national du sommeil et de la vigilance. 2020. 20Ème journée du Sommeil. Le sommeil d’hier et de demain. Conférence de presse (institut-sommeil-vigilance.org)
    24. Institut national du sommeil et de la vigilance. 2016. 16Ème journée du Sommeil. Sommeil et nouvelles technologies. institut-sommeil-vigilance.org/wp-content/uploads/2019/02/RESULTATS_ENQUETE_INSV_MEGN2016.pdf
    25. Royant-Parola S, Londe V, Tréhout S, Hartley S. The use of social media modifies teenagers’ sleep-related behavior. Encephale. 2018 Sep 1;44(4):321–8.
    26. AVIS et RAPPORT de l’Anses relatif aux effets sur la santé humaine et sur l’environnement (faune et flore) des systèmes utilisant des diodes électroluminescentes (LED). 2019.
    27. Baromètre Les Français et la myopie. IPSOS. 2022. Microsoft PowerPoint – Ipsos_Myopie – Baromètre Les Français et la myopie_(RAPPORT GLOBAL MEDIATISE) (ensemblecontrelamyopie.fr)
    28. Gawne TJ, Ward AH, Norton TT. Long-wavelength (red) light produces hyperopia in juvenile and adolescent tree shrews. Vision Research. 2017;140:55-65.
    29. K. Braune-Krickau , L. Schneebeli, J. Pehlke-Milde, M. Gemperle , R. Koch , A. von Wyl. (2021). Smartphones in the nursery: Parental smartphone use and parental sensitivity and responsiveness within parent-child interaction in early childhood (0-5 years): A scoping review. Infant Mental Health Journal. Mar;42(2):161-175 ; L.Jerusha Mackay, J. Komanchuk, K. Alix Hayden, N. Letourneau. (2022). Impacts of parental technoference on parent-child relationships and child health and developmental outcomes: a scoping review protocol. Systematic Reviews.Mar 17;11(1):45.
    30. Masur EF, Flynn V, Olson J. Infants’ background television exposure during play: Negative relations to the quantity and quality of mothers’ speech and infants’ vocabulary acquisition. First Language 2016, Vol. 36(2) 109–123; Zimmerman FJ, Christakis DA. Children’s television viewing and cognitive outcomes: a longitudinal analysis of national data. Arch Pediatr Adolesc Med. 2005;159(7):619–625; Madigan S, McArthur BA, Anhorn C et al. Associations Between Screen Use and Child Language Skills: A Systematic Review and Meta-analysis. JAMA Pediatr. 2020 Jul 1;174(7):665-675; Schwarzer C, Grafe N, Hiemisch A et al. Associations of media use and early childhood development: cross-sectional findings from the LIFE Child study. Pediatr Res. 2021 Mar 3; Madigan S, Browne D, Racine N et al. Association Between Screen Time and Children’s Performance on a Developmental Screening Test. JAMA Pediatr 2019 Mar 1;173(3):244-250; Lillard AS, et al. The immediate impact of different types of television on young children’s executive function. Pediatrics. 2011. 11. Swing EL, et al. Television and video game exposure and the development of attention problems. Pediatrics. 2010; Wilmer HH, Sherman LE, Chein MJ. Smartphones and Cognition: A Review of Research Exploring the Links between Mobile Technology Habits and Cognitive Functioning. Front Psychol 2017 Apr 25;8:605. Tornton, B., Faires, A., Robbins et al. The mere presence of a cell phone may be distracting: Implications for attention and task performance. Soc. Psychol. 45, 479–488 (2014); Hadar A, HadasI, Lazarovits A et al. Answering the missed call: Initial exploration of cognitive and electrophysiological changes associated with smartphone use and abuse. PLoS One. 2017 Jul 5;12(7). Beyens I, Valkenburg PM, Piotrowski JT. Screen media use and ADHD-related behaviors: Four decades of research. Proc Natl Acad Sci U S A. 2018 Oct 2;115(40):9875-9881; Nikkelen SW, Valkenburg PM, Huizinga M et al. Media use and ADHD-related behaviors in children and adolescents: A metaanalysis. Dev Psychol. 2014 Sep;50(9):2228-41; Christakis DA, Ramirez JSB, Ferguson SM et al. How early media exposure may affect cognitive function: A review of results from observations in humans and experiments in mice. Proc Natl Acad Sci U S A. 2018 Oct 2;115(40):9851-9858. 7 .
    31. Anderson CA, Shibuya A, Ihori N, Swing EL, Bushman BJ, Sakamoto A, Rothstein HR, Saleem M. Violent video game effects on aggression, empathy, and prosocial behavior in eastern and western countries: a meta-analytic reviewPsychol Bull. 2010 Mar;136(2):151-73. doi: 10.1037/a0018251. Anderson CA, Bushman BJ, Bartholow BD, Cantor J, Christakis D, Coyne SM. Screen Violence and Youth Behavior. Pediatrics. 2017 Nov;140(Suppl 2):S142-S147. doi: 10.1542/peds.2016-1758T.
    32. Porno : l’enfer du décor – Rapport – Sénat (senat.fr)
    33. Ferrara P, Ianniello F, Villani A, Corsello G. Cyberbullying a modern form of bullying: let’s talk about this health and social problem. Ital J Pediatr. 2018 Jan 17;44(1):14.
    34. Rapport sur la prostitution des mineurs. 2021. sante.gouv.fr/IMG/pdf/synthese_rapport_sur_la_prostitution_des_mineurs_12072021.pdf
    35. EMF Scientist Appeal Advisors Call for Moratorium on 5G – Environmental Health Trust (ehtrust.org)
  • Policer les internets : « Vos papiers ! »

     

    Lead Certification Expert at European Union Agency for Cybersecurity (ENISA)

    Un ancien collègue de mes collègues, Éric Vétillard, nous a proposé un article sur les contrôles d’identité. À l’heure du numérique, cette vérification peut cacher d’autres utilisation de votre identité pas les entités qui veulent la vérifier ou connaitre votre âge sans parler de la difficulté de prouver la parenté… Pierre Paradinas.

    Dans le monde physique, nous avons de longues traditions de contrôles d’identité, de vérifications d’âge, par exemple pour acheter de l’alcool. Le contrôle des certificats COVID a poussé cette tradition dans ses limites. En Grèce, je montrais le certificat de vaccination et une pièce d’identité pour manger au restaurant, mais en France, uniquement le certificat de vaccination.

    Nous acceptions ces contrôles parce que le monde physique a la mémoire courte. La personne qui vérifie chaque jour l’âge ou le statut vaccinal de centaines de clients ne mémorise pas ces informations.

    Le monde virtuel est très différent. Il a une mémoire infinie. C’est parfois avantageux, puisqu’il suffit enligne de démontrer son âge une fois pour toutes. Mais quelle information sera mémorisée, et comment sera-t-elle exploitée ? De nombreux services en ligne, dont les réseaux sociaux, vivent de l’exploitation des données que nous mettons à leur disposition de manière plus ou moins consciente.

    Et pourtant, des contrôles vont devoir être mis en place. Après le filtrage d’âge pour les sites pornographiques, un filtrage similaire a été voté pour les réseaux sociaux. L’impact est significatif, car si il est difficile de connaître l’audience des sites pornographiques avec précision, nous savons que la grande majorité d’entre nous utilise des réseaux sociaux, et autour de 100% des adolescents, y compris de nombreux utilisateurs de moins de 15 ans. L’impact de ces vérifications sera donc très significatif, car il s’appliquera à nous tous.

    Le bon sens de ces mesures est évident, si vous ne comprenez pas que le monde virtuel est différent du monde physique. Au-delà des problèmes de confiance, il y a un fort sentiment d’impunité sur les réseaux, ainsi qu’une culture beaucoup plus libre, avec beaucoup de fausses identités, de pseudonymes, de personnages fictifs,etc. Bref, il est plus facile de tricher en ligne, même moralement.

    Alors, comment démontrer son âge sans confiance avec une méthode sûre et accessible à tous ? Ce nést pas évident. La carte de paiement semblait un bon moyen, mais elle de répond à aucun des critères : il faut faire confiance au fournisseur, on peut facilement tricher, et tout le monde n’en a pas. Un scan de pièce d’identité n’est pas non plus idéal, pour des raisons très similaires. Pour ceux qui pensent au code QR authentifié des nouvelles cartes d’identité françaises pour résoudre au moins un problème, pas de chance : il ne contient pas la date de naissance.

    Les problèmes de confiance peuvent être réglés en utilisant un service dédié, dit « tiers de confiance », dont le rôle est de collecter des données sensibles et de ne communiquer que l’information nécessaire à d’autres entités, par exemple des réseaux sociaux. C’est plus simple que ça en a l’air : nous pourrions aller chez un buraliste, montrer une pièce d’identité, et le buraliste attesterait auprès du réseau socialque nous avons plus de 15 ans.

    En même temps, au niveau Européen, la réglementation sur l’identité numérique avance lentement, et définit un portefeuille numérique qui devrait simplifier l’authentification en ligne. En particulier, ce portefeuille serait associé à une personne de manière forte, et pourrait contenir des attestations de type « Le porteur de ce document a plus de 18 ans ». Une telle attestation serait très pratique pour les contrôles d’âge requis, car elle permet de limiter l’information divulguée. De plus, une des exigences de la loi est que le fournisseur de l’attestation, par exemple l’état, ne doit pas être informé des utilisations de l’attestation, ce qui devrait rendre la constitution d’un fichier national d’utilisateurs des sites pornographiques impossible, ou du moins illégale.

    Ces portefeuilles électroniques devraient être déployés d’ici à la fin de la décennie. Si les citoyens les adoptent, ils pourraient apporter une solution technique au problème de vérification d’âge. En attendant, je pense très fort aux experts de l’ARCOM qui seront en charge de définir un référentiel de vérification d’âge à la fois efficace et suffisamment protecteur de notre vie privée pour être approuvé par la CNIL.

    Pour finir, une petite colle. La dernière loi sur les réseaux sociaux inclut une notion d’autorisation parentale entre 13 et 15 ans. Cette autorisation doit être donnée par un parent, qui doit donc prouver sa qualité de parent. Nos documents d’identité français, même électroniques, ne contiennent pas d’informations de filiation. Quel mécanisme pourrons-nous donc utiliser pour autoriser nos chers ados ?

    Éric Vétillard

  • Communs numériques : explorer l’hypothèse des organisations frontières

    Louise Frion est doctorante en droit du numérique. Ses travaux portent sur les communs et la blockchain. Elle a récemment publié un papier de recherche sous la direction de Florence G’Sell intitulé Les communs numériques comme systèmes alternatifs de valeur. Ce papier a fait l’objet d’une discussion publique le à Sciences Po. Elle revient ici sur quelques points saillants de sa recherche.
    Ce texte est co-publié par le Conseil National du Numérique et par binaire, dans le cadre de notre rubrique sur les communs numériques.

    Louise Frion

    Dans votre papier de recherche, vous vous inscrivez dans la poursuite du travail réalisé par le groupe de travail sur les communs numériques conduit à l’initiative de la France au cours de la présidence française (rapport), notamment pour considérer les communs numériques comme un vecteur de renforcement stratégique pour l’Europe. Quels sont les arguments qui sous-tendent cette idée selon vous ?  

    Les communs numériques sont des outils utiles pour renforcer l’indépendance industrielle de l’Europe dans les secteurs les plus stratégiques.

    D’abord parce qu’ils renforcent la résilience de nos infrastructures numériques vitales grâce à des effets de réseau lié à leur nature même, en tant que biens non-rivaux. Dans le cadre de projets comme Python SciPy[1] ou Govstack[2], l’ouverture du code des briques logiciel incite les utilisateurs à corriger les bugs au fil de l’eau, voire à contribuer à l’écriture du code source pour le rendre plus efficace. Cela permet également de garantir la sécurité des infrastructures à moindre coût et de développer et de maintenir des composantes numériques réutilisables et interopérables entre elles. Cela renforce aussi l’indépendance des administrations publiques qui peuvent ainsi choisir les logiciels dont elles ont besoin pour un service public sans être dépendantes du logiciel d’une entreprise privée pour une application donnée.

    Ensuite, les communs numériques sont vecteurs d’innovation et de créativité car ils sont ouverts à tous et structurés de telle sorte que toute contribution malveillante ou inutile n’est pas valorisée. Il est de fait inintéressant pour un individu ou un groupe d’individu de dégrader un commun ou de tenter de l’orienter vers d’autres objectifs car sa valeur dépend de critères socio-économiques et non financiers. Leur contribution positive à l’économie européenne pourrait atteindre 65-95Mds€ de création de valeur pour 1Md€ d’investissement[3].

    Enfin, la transparence et l’auditabilité des communs numériques renforce la légitimité de nos institutions et a fortiori leur caractère démocratique, car ils offrent des outils permettant de construire des services publics et des algorithmes plus représentatifs de la diversité de nos sociétés. Ces outils réduisent les barrières artificielles qui existent entre producteurs et consommateurs de contenu, ce qui augmente mécaniquement l’offre de contenus numérique et a fortiori sa représentativité de la diversité de la société. À l’échelle locale, la plateforme open source Decidim réunit des municipalités, des organisations de quartier, des associations, des universités ou des syndicats pour configurer des espaces numériques dédiés à la participation citoyenne et les enrichir de fonctionnalités plus accessibles de type sondage, propositions de vote, suivi de résultats, etc.

    Pour autant, la diffusion de la culture et de la pratique des communs n’est pas évidente. À quels grands défis sont-ils confrontés aujourd’hui ?

    Les communs numériques sont confrontés aujourd’hui à trois grands défis.

    D’abord, ils souffrent d’une absence de cadre juridique dédié permettant de favoriser l’engagement durable et réciproque des commoners dans un commun numérique. Les politiques publiques sont davantage dans une logique d’exploitation de la production des commoners que de support actif et financier à la construction d’infrastructures qui pourraient décharger les commoners de certaines tâches et leur permettre de se concentrer sur les évolutions du code source et les algorithmes sous-jacents.

    Ensuite, les communs numériques font face à un risque de capture par des entreprises privées.  Les incitations économiques et sociales à préserver l’indépendance des commoners, dans un contexte où 96% de nos entreprises utilisent des composantes open source, sont insuffisantes à l’heure actuelle. Dans les nombreux « arrangements » entre commoners et entreprises pour développer et maintenir des projets open source, le pouvoir de négociation des commoners est trop souvent réduit. Cela se traduit par une augmentation du nombre de semi-communs, soient des espaces où commoners et salariés développent des solutions ensemble. Mais, par exemple avec le semi-commun Chromium qui coexiste avec Chrome, les contributeurs sont toutefois essentiellement des salariés de Google et ce sont des membres du management de Google qui choisissent in fine de mettre en place les modules développés dans Chromium dans Chrome, ce qui limite de facto le pouvoir de négociation des commoners.

    L’enjeu pour les communs numériques ici semble être de développer des incitations pour les commoners et pour les entreprises à réconcilier les deux visions qui s’opposent entre l’open source (Linus Torvalds) qui utilise les communs pour produire des solutions plus efficaces à moindre coût et le libre (Richard Stallman) où les utilisateurs ont le droit d’exécuter, de copier, de distribuer, d’étudier, de modifier ou d’améliorer tout logiciel.

    Enfin, dans un contexte de fracture numérique grandissante au niveau national (1 personne sur 6 en difficulté face au numérique en France d’après l’INSEE), les communs numériques sont encore trop éloignés de la plupart des citoyens sur le territoire national. Pour déployer leur plein potentiel, le principe digital commons first[4] n’est pas suffisant, il faut aussi que les communs numériques soient considérés comme des infrastructures essentielles par les pouvoirs publics. Cela permettrait d’impliquer davantage les citoyens dans leur construction, leur développement et leur entretien. Compter uniquement sur l’engagement bénévole des commoners pour atteindre des ambitions aussi fortes n’est pas viable à long-terme.

    Pour répondre aux défis auxquels font face les communs, vous défendez aussi l’hypothèse de créer des organisations frontières ? En quoi consistent de telles organisations ?

    Les « organisations frontières » sont des fondations à but non lucratifs qui ont pour objectif de régir les relations entre les communs numériques et les organisations avec lesquelles ces communs interagissent, comme par exemple les fondations Linux, Wikimedia, Apache.

    Elles permettent aux commoners de maintenir leur pouvoir de négociation pour éviter de se transformer indirectement en main d’œuvre des entreprises qui s’appuient sur leur travail. Ce faisant, elles maintiennent des frontières avec les grandes entreprises pour préserver l’indépendance des communs tout en attirant les meilleurs développeurs pour contribuer. Ces organisations ont trois fonctions : préserver des modalités de contrôle plurielles sur l’évolution du code, donner une voix aux entreprises sur l’évolution du projet et représenter les communautés qui gèrent les projets.

    Dans cette logique, les organisations frontières permettent de dissocier les intérêts convergents entre commoners et entreprises et de mettre en place des systèmes de collaboration qui ne menacent pas leurs intérêts divergents.

    La collaboration entre commoners et entreprise est mutuellement bénéfique car :

    • – L’intérêt des commoners est d’étendre le champ d’application des logiciels libres en s’appuyant sur les ressources des entreprises ; les problématiques commerciales entrainent des problèmes techniques intéressants à résoudre.
    • – Les entreprises ont intérêt à exploiter ce marché émergent à mesure qu’il gagne en popularité auprès des utilisateurs car cela leur donne accès à de l’expertise technique pour ensuite recruter, résoudre des problèmes complexes avec des experts, et augmenter leurs marges avec des frais de licences moins élevés.

     

    Mais leurs intérêts peuvent aussi diverger : les commoners veulent maintenir leur autonomie, une manière de collaborer informelle et non hiérarchique, et la transparence du code-source alors que les entreprises ont intérêt à influencer le projet dans le sens de leur stratégie, à ne pas divulguer trop d’information à leurs concurrents, en particulier sur leurs stratégies de lancement sur le marché et à mettre en place des processus de gouvernance plus formels pour garder la main sur l’évolution des projets dans le temps et mitiger les risques associés.

    Dans ce contexte, les organisations frontières fournissent des cadres de gouvernance qui atténuent les divergences entre commoners et entreprises et permettent de préserver les aspects les plus critiques des deux parties[5].

    Elles permettent aussi d’inciter les commoners à investir davantage de leur temps dans la maintenance du commun pour détecter plus rapidement des vulnérabilités cyber dans des infrastructures à grande échelle.

    O’Mahony et Bechky, deux chercheurs de l’Université de Californie, ont identifié quelques bonnes pratiques pour qu’une « organisation frontière » soit pleinement efficaces :

    • – Ses prérogatives doivent être cantonnées aux aspects légaux et administratifs et laisser les aspects plus techniques aux commoners et aux entreprises.
    • – Elles ne doivent avoir aucun rôle sur les décisions prises au niveau du code, le droit d’accepter ou de refuser une modification étant purement individuel (en fonction du mérite technique du code) en préservant l’autonomie des
    • – Leur capacité décisionnelle doit être limitée sur la temporalité de la sortie des nouvelles versions du logiciel, cette décision devant plutôt revenir à des développeurs sponsorisés par les entreprises, qui en retour leur donnent la visibilité nécessaire sur le développement du projet en cours[6].

     

    Louise Frion, doctorante en droit du numérique

    Propos recueillis par Serge Abiteboul et Jean Cattan

    [1] Bibliothèque open source dédiée aux calculs de mathématique complexes et à la résolution de problèmes scientifiques.

    [2] Partenariat public-privé-communs pour généraliser l’utilisation de communs numériques accessibles, fiables et durables pour les administrations publiques ; commun numérique pour développer et maintenir des composantes numériques réutilisables et interopérables pour les administrations.

    [3] Source : groupe de travail sur les communs numériques réunissant 19 États membres à l’initiative de la France pendant la présidence française.

    [4] Le fait de considérer d’abord des solutions open source avant d’implémenter tout nouveau service public.

    [5] Les auteurs utilisent les exemples de projets tels que Webserver, GUI Desktop pour rendre Linux plus accessible à des utilisateurs non techniciens, Compatibilité project et Linux distribution project pour illustrer ce point sur les organisations frontières.

    [6] Dans les projets décrits par O’Mahony et Bechky, les entreprises ne pouvaient pas contribuer en tant qu’utilisateurs mais ne pouvaient pas non plus intégrer des codes-sources sans garder la main sur leur développement. Pour résoudre ce conflit, elles ont embauché des commoners sur des projets spécifiques en ligne avec leurs intérêts qu’elles ont sponsorisés financièrement. L’adhésion des commoners devait toutefois être individuelle pour préserver l’indépendance du commun. Les fondations leur ont donc donné des droits spécifiques sur la propriété intellectuelle qu’ils ont contribué à créer.

  • De Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots

    Dans cet article. Frédéric Alexandre (Directeur de chercheur Inria) aborde ChatGPT en nous éclairant sur son fonctionnement à travers le prisme de la cognition et ce que nos données disent de nous à cet outil dit intelligent.  Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ».

    Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.

    En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

    Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches

    Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

    Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

    pieds d’un plongeur
    Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY

    Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

    Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

    Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

    C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

    Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

    L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

    Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

    Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

    Être conscients de ce que nos « likes » disent sur nous

    Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

    likes peints sur un mur argenté
    Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY

    Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

    Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

    Calculer avec des mots en prenant en compte leur signification

    En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

    Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

    [Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

    Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

    Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

    Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • La révolution de la microbiologie par le numérique

    Un nouvel « Entretien autour de l’informatique ». Pascale Cossart est une biologiste française, une Pasteurienne, professeur de classe exceptionnelle à l’Institut Pasteur depuis 2006. Ses travaux ont notamment porté sur l’étude des mécanismes impliqués dans les infections bactériennes. Grâce à des approches multidisciplinaires, Pascale Cossart a véritablement démarré une nouvelle discipline, la « microbiologie cellulaire », et mis en lumière de nombreuses stratégies utilisées par les bactéries lors de l’infection. Elle a été la Secrétaire perpétuelle de l’Académie des Sciences pour la deuxième section (chimie, la biologie et la médecine) de 2016 à 2021. Depuis 2022, elle est scientifique invitée à l’EMBL Heidelberg.

     

    Pascale Cossart

    B : Pourrais-tu nous parler de ta discipline de recherche ?

    PC : Je travaille à la frontière entre la microbiologie et la biologie cellulaire. Depuis 1986, je m’intéresse aux infections par des bactéries qui vivent à l’intérieur des cellules ; cela m’a conduite à des études sur les bactéries (de la microbiologie), et sur les cellules (de la biologie cellulaire), et sur la façon dont les bactéries pénètrent et vivent dans les cellules, que ce soit au niveau des tissus ou des organismes entiers.

    En général, après avoir analysé des mécanismes sur des cellules en culture, nous validons nos résultats sur des modèles animaux pour comprendre la maladie humaine. On est à la limite de la médecine, mais ce qui m’intéresse surtout, ce sont les mécanismes fondamentaux : comprendre comment un microbe provoque une maladie, comment une maladie s’installe, comment des maladies donnent des signes cliniques, et comment l’organisme peut échapper à cette maladie.

    A l’époque de Pasteur, à la fin du XIXe siècle, les microbiologistes cherchaient à identifier le microbe responsable de telle ou telle maladie (peste ou choléra ?). Maintenant on cherche à comprendre comment un microbe produit une maladie.

    Il y a différentes catégories de microbes : des bactéries, des parasites, des virus. Nous travaillons sur les bactéries qui sont des cellules uniques (des petits sacs) sans noyau mais qui ont un chromosome. Les mammifères (nous !), les plantes ont des millions de cellules différentes qui ont un noyau contenant des chromosomes. Les chromosomes sont faits d’ADN, composé qui a été découvert dans les années 50. Il a ensuite été établi que l’ADN était la molécule essentielle pour la transmission du patrimoine génétique, le génome. L’ADN, c’est la molécule de la vie !

    Parmi les bactéries certaines sont inoffensives, d’autres sont pathogènes !

    C’est pour leurs travaux ici, à l’Institut Pasteur, sur des bactéries non pathogènes et sur leur ADN que François Jacob, Jacques Monod et André Lwoff ont obtenu le prix Nobel. Ils s’intéressaient au chromosome bactérien et à la façon dont les bactéries en se nourrissant, produisent des protéines, grandissent, et se divisent en deux (division binaire !) en générant une descendance identique à la bactérie initiale.

    À la fin des années 70, on a assisté à l’explosion de la biologie moléculaire, c’est à dire la biologie des molécules, héritée de la découverte de l’ADN. À la fin des années 80, les chercheurs en biologie moléculaire cherchaient à comprendre comment les molécules fonctionnent, alors que les chercheurs en biologie cellulaire s’intéressaient à la façon dont les cellules fonctionnent.

    J’étais chercheuse à ce moment clé. Il y avait des avancées du côté bactéries, et aussi du côté des cellules de mammifères, grâce en particulier aux nouveaux microscopes. On pouvait donc commencer à observer des infections par les bactéries pathogènes. On pouvait combiner biologie moléculaire et biologie cellulaire, en essayant de comprendre les interactions entre composants bactériens ou ceux de la cellule hôte dans le cas d’infections. C’est sur cela qu’ont porté alors mes travaux. Cela a conduit à l’émergence d’une nouvelle discipline que nous développions, qui s’intéressait en particulier à ce qui se passe dans les cellules quand arrive un corps étranger. Pendant un colloque que j’ai organisé sur ce sujet, un journaliste de Science nous a conseillé de donner un nom à cette discipline : nous avons proposé la microbiologie cellulaire. J’ai fait partie des lanceurs de cette discipline, la microbiologie cellulaire.

    Cette discipline a été rapidement acceptée, avec un livre fondateur, des revues, et aujourd’hui des professeurs et des départements de microbiologie cellulaire.

    Cellules humaines infectées par la bactérie Listeria monocytogenes : en bleu le noyau des cellules, en rouge les bactéries et en vert l’actine, un composant de la cellule infectée que la bactérie recrute et utilise pour se déplacer et éventuellement passer d’une cellule à une autre.

    B : Pourrais-tu nous expliquer en quoi consiste le travail dans ce domaine ?

    PC : Quand une bactérie essaie d’entrer dans une cellule, la bactérie s’adapte à la cellule et vice versa. Le travail dans le domaine consiste à observer la bactérie qui rentre et parfois se promène dans la cellule, on la filme. On choisit plutôt des cellules faciles à cultiver, et pour la bactérie, j’ai choisi Listeria monocytogenes. Je l’ai choisie avec soin pour ses propriétés uniques. On la trouve dans l’environnement ; elle peut parfois contaminer des aliments, et ainsi par l’alimentation atteindre dans le tractus intestinal, parfois traverser la barrière intestinale et arriver au foie, à la rate, ou au placenta et éventuellement au cerveau. Elle est capable d’aller jusqu’au fœtus. Elle cause des gastroentérites, des accouchements prématurés, des méningites. On a beaucoup avancé dans la connaissance du processus infectieux mais on ne comprend encore pas bien comme elle va jusqu’au cerveau.

    Plus concrètement, dans un labo, on cultive la bactérie dans des tubes contenant un liquide nutritif. On cultive soit la bactérie originale soit des mutants de la bactérie. Dans un autre coin du labo, on fait pousser des cellules. La suite dépend de la question qu’on se pose. En général on met les bactéries ou les mutants sur les cellules et on observe ce qui se passe ou ce qui ne se passe pas avec certains mutants.

    On peut aussi infecter des animaux, ce qui est bien sûr très règlementé. Si j’injecte la bactérie par voie orale dans une souris, est-ce qu’elle arrive au foie ? Comment la souris réagit-elle ? On a une multitude de questions à poser.

    B : Tu te doutes que Binaire s’intéresse aux apports du numérique dans ta discipline.

    PC : On a vécu une double révolution avec le numérique : du côté de la bactérie avec la génomique, et du côté de la cellule et de l’infection, avec l’imagerie numérique.

    B : Commençons par la génomique si tu veux bien.

    PC : Les bactéries n’ont pas de noyau, Elles ont un chromosome, c’est-à-dire un grand ADN circulaire. Au début de mes travaux sur Listeria, on ne connaissait rien sur son chromosome, c’est-à-dire son génome. Pour le comprendre, on a d’abord créé des mutants, avec différents outils génétiques : par exemple on peut mettre la bactérie Listeria à côté d’une autre bactérie qui va injecter dans son ADN, un transposon. On obtient alors une « banque de mutants » parmi lesquels on cherche, par exemple, un mutant non invasif, c’est-à-dire qui ne parvient pas à entrer dans les cellules.

    L’ADN consiste en une séquence de lettres. Pour trouver l’endroit où le gène a été interrompu, on réalise le « séquençage » de l’ADN situé à côté du transposon. Les différentes techniques de séquençage de l’ADN sont apparues vers la fin des années 70. Au début on ne pouvait séquencer que des petits fragments. J’ai réalisé à l’époque mon premier séquençage, avec une technique chimique. Je lisais les séquences et j’écrivais les résultats dans un cahier.

    Et puis, on a obtenu des séquences de plus en plus longues qu’on a entrées dans des ordinateurs. On a pu utiliser des programmes pour trouver des ressemblances entre des séquences. On pouvait « aligner des séquences », c’est-à-dire les positionner pour en faire ressortir les régions similaires. L’informatique nous permettait de faire ce qu’on n’arrivait plus à faire à la main, quand les séquences grandissaient.

    Les techniques ont alors progressé et dans le cadre d’un consortium européen que je dirigeais, nous avons publié en 2000 le séquençage du génome de Listeria qui comporte 3 millions de lettres. À titre de comparaison, le génome humain, qui a été séquencé plus tard, a 3 milliards de lettres. Au début, le travail de séquençage était lent et considérable, il exigeait de faire collaborer plusieurs labos, chacun travaillant dans son coin sur certaines régions de l’ADN chromosomique. L’ordinateur est devenu indispensable pour assembler les morceaux de séquences et analyser les résultats.

    Nous avons donc séquencé le génome de Listeria monocytogenes, l’espèce pathogène, et aussi celui d’une cousine non-pathogène, Listeria innocua. L’observation des différences entre les séquences a été une mine d’or de découvertes. La comparaison des deux génomes ouvrait une infinité de possibilités d’expériences. On pouvait réaliser des mutations ciblées, en inactivant tel ou tel gène, présent chez L. monocytogenes et absent chez Listeria innocua et tester si le mutant obtenu était encore virulent.

    Il reste beaucoup de travail à faire, notamment, sur des bactéries pour lesquelles on ne sait pas grand-chose, en particulier, parce qu’on ne sait pas les cultiver, comme c’est le cas pour les bactéries anaérobies de l’intestin, du sol ou des océans

    La grande révolution à l’heure actuelle, c’est la métagénomique. Les machines sont devenues très performantes pour séquencer l’ADN. Elles séquencent des mélanges d’ADN et sont capables d’identifier tous les ADN différents présents et donc les espèces d’où ils proviennent. Par exemple, dans la mission Tara, une goélette récolte du microbiome marin. Les séquenceurs vont être capables d’identifier des milliers de petits bouts de séquences d’ADN. Un logiciel va faire le catalogue des espèces présentes. Tout ceci serait impensable sans ordinateur.

    B : Est-ce qu’un séquençage prend beaucoup de temps ?

    PC : Avant, en 2000, séquencer un génome bactérien prenait au moins dix-huit mois. Maintenant, en trois jours on a la séquence et les premières analyses. L’ordinateur sait comparer deux génomes l’un à l’autre, ou encore comparer un génome à une banque de génomes. Il sait « regarder » le génome et faire son « analyse grammaticale », identifier les gènes et donc les protéines que ces gènes peuvent produire. C’est une révolution. Des tâches qui auraient pris des années pour des humains sont maintenant faites très rapidement par des ordinateurs.

    Cela nous permet maintenant de nous tourner vers les microbiotes, ces grandes assemblées de micro-organismes. On peut analyser les microbiotes de l’intestin, la bouche, l’environnement (les sols, les océans)… Cela ouvre des possibilités extraordinaires comme de comprendre pourquoi certaines personnes sont malades, pourquoi certains sols sont stériles.

    B : Nous pourrions maintenant passer aux apports de l’imagerie cellulaire.

    PC : Le passage de l’observation des images par l’homme à l’analyse des images par l’ordinateur a fait passer les conclusions tirées, du stade subjectif au stade objectif : deux cellules ne sont jamais identiques. Le scientifique pouvait observer par exemple qu’une bactérie semblait entrer mieux ou plus vite dans une cellule que dans une autre. Mais cette observation était relativement subjective. Il était difficile de la rendre objective : alors on refaisait des manips des milliers de fois et on calculait des moyennes. Ceci prenait un temps fou. L’imagerie numérique nous permet d’observer de nombreuses cellules en même temps. La microbiologie cellulaire est une discipline qui a évolué considérablement avec le numérique.

    Les techniques d’imagerie reposent sur l’usage de marqueurs fluorescents avec lesquels on peut marquer la membrane extérieure de la cellule, ou le noyau, ou les mitochondries, etc. On utilise des programmes qui ressemblent aux programmes de reconnaissance faciale pour reconnaitre les marqueurs fluorescent qu’on a placés. On peut répondre à des questions comme : en combien de temps la bactérie va-t-elle arriver au noyau ? L’imagerie numérique est beaucoup plus sensible que l’œil humain, elle nous donne accès à des événements qui auraient échappé à l’observation à l’œil nu.

    On obtient de plus en plus de données qu’on peut stocker. On fait des analyses statistiques sur ces données pour répondre à différents types de questions qui permettent de comprendre dans notre cas les facteurs qui sont critiques pour qu’une infection prenne place.

    B : Tu nous as dit qu’il y avait une multitude de questions à poser. On ne peut pas les poser toutes. Il faut choisir. La sérendipité joue-t-elle un rôle pour trouver réponse à des questions intéressantes ?

    PC : Oui, très important. Pasteur disait à peu près : la science sourit aux esprits préparés ! J’ai eu une grande chance dans ma vie, c’est de trouver un mutant de Listeria que je ne cherchais pas. C’était en 1990. Ça a été une histoire incroyable.

    Un collègue, Dan Portnoï avait découvert grâce à ses travaux en microscopie électronique, la capacité exceptionnelle de Listeria à se mouvoir à l’intérieur des cellules et à passer d’une cellule à l’autre. Son résultat avait passionné les biologistes cellulaires qui cherchaient à comprendre comment en général les cellules bougent par exemple lors du développement d’un organisme.

    C’était l’époque pré génomique. Je cherchais dans une banque de mutants un mutant qui, sur des boîtes de Pétri, ne faisait pas de halo dans du jaune d’œuf. Rien à voir donc a priori. Et je trouve un mutant qui ne fait plus ce halo. Je demande à une postdoc de vérifier au microscope si cette bactérie passe bien d’une cellule à l’autre. Elle m’appelle alors qu’elle était au microscope : « Viens voir ! » Ce mutant était incapable de motilité intracellulaire. En l’analysant, nous avons trouvé le gène et donc la protéine responsables de la motilité. Le hasard m’a donc permis de réaliser une belle avancée en biologie cellulaire, parce que ça a permis de comprendre non seulement la motilité des bactéries mais aussi celle des cellules de mammifères.

    Mais pour une telle histoire, il fallait savoir profiter de l’occasion. Dans notre métier, on doit en permanence se poser des questions précises, évaluer si elles sont importantes et si on a les moyens techniques pour y répondre. Il faut aussi sans cesse être aux aguets de choses inattendues !

    B : Est-ce que le numérique continue à transformer le domaine.

    PC : Oui. Récemment on a vu des applications dans la prédiction des structures de protéines avec Alphafold. La cristallographie de protéines et l’analyse de diffusion de rayons X sur les cristaux de protéines nous permettaient de comprendre leurs structures 3-dimensionnelles, c’est à dire le repliements de protéines dans l’espace. On pouvait ensuite essayer de prédire comment des protéines s’assemblent, mais c’était très compliqué et à petite échelle. On pouvait aussi essayer de prédire comment inhiber la fonction d’une protéine en introduisant un composé dans un endroit clé pour toute la structure de la protéine.

    Alphafold part d’énormes bases de données sur les structures tridimensionnelles de protéines. Dans les programmes d’Alphafold, des logiciels d’apprentissage automatique (machines learning) combinent toute une gamme de techniques pour prédire comment un repliement pourrait de produire, et proposent des configurations spatiales aux scientifiques. Cela ouvre des possibilités fantastiques pour comprendre comment fonctionnent les protéines, et a donc des potentialités médicales incroyables.

    Serge Abiteboul et Claire Mathieu

    Pour aller plus loin

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • Booster la médiation scientifique avec les réseaux sociaux

    Les jeunes, les moins jeunes souvent aussi, passent un temps considérable sur Internet et de plus en plus sur les réseaux sociaux : et si nous allions à leur rencontre dans ces lieux numériques pour partager avec elles et eux des éléments de culture scientifique et technique, afin de les aider, entre autres, à les comprendre ? Serge Abiteboul nous propose ici de  regarder en détail les bénéfices et limites d’une telle démarche. Thierry Viéville.
    Cet article est paru originellement dans L’ACTUALITÉ CHIMIQUE N° 482, mars 2023.

    Les jeunes, les moins jeunes souvent aussi, passent un temps considérable sur Internet et de plus en plus sur les réseaux sociaux, notamment Instagram, Facebook et TikTok. Ils y vont pour rester en contact avec leurs amis, mais aussi s’amuser, rencontrer d’autres personnes. Ils s’y informent aussi. Cela peut paraitre bizarre aux séniors qui consultent les journaux papiers et télévisés, mais on peut aussi suivre les évènements en Ukraine sur les réseaux sociaux. Pour de nombreux jeunes, les réseaux sociaux sont d’ailleurs devenus la principale source d’information.

    Les médias traditionnels répètent à l’envi les problèmes qu’on y rencontre : fakenews, harcèlement, messages de haines, etc. On peut facilement prendre la mesure de ces problèmes. Par exemple, une enquête de l’Ifop auprès des jeunes Français entre 11 et 24 ans pour les Fondations Reboot et Jean-Jaurès a montré qu’ils étaient nombreux à céder aux sirènes du complotisme, voire à s’assoir sur les bases scientifiques que l’école a essayé de leur inculquer. Ils sont un sur six à penser que la Terre est peut-être plate ! On a pourtant dû leur apprendre le contraire à l’école.

    Vous pouvez toujours expliquer aux critiques du numérique que les problèmes de fakenews et les autres n’ont pas été inventés par le numérique et les réseaux sociaux, qu’ils existaient avant. Cela ne sert pas à grand-chose. Ils sont convaincus que la faute ne peut venir que de la technologie, et que bien sûr, c’était mieux avant. Cela ne sert pas à grand-chose non plus d’argumenter que le numérique permet une diffusion fantastique des connaissances, que grâce à Wikipédia, « posséder » une grande encyclopédie ne concerne plus seulement les quelques pourcents les plus riches de la population, qu’avec les « Massive Open Online Courses » (les MOOC), les meilleurs enseignements s’ouvrent à tous, que les réseaux sociaux ont donné la parole à des gens qui n’en rêvaient même pas.

    Cela ne sert pas à grand-chose parce qu’ils ne comprennent pas la technologie sous-jacente, l’informatique ; et comme ils ne la comprennent pas, ils en ont peur, peur de l’algorithme, peur de l’intelligence artificielle évidemment. Au secours ! Si cette nouvelle technologie transforme nos vies, nous pouvons décider ce que nous voulons en faire. Il est urgent que toute la société se familiarise avec l’informatique. Nous vivons une phase d’innovation massive, la période western du numérique. Mais je veux croire qu’avec le temps, nous pourrons bénéficier de tous les superbes apports du numérique sans avoir à en supporter les pires travers.

    Pour ce qui est des réseaux sociaux, ce serait dommage de s’en priver. Évidemment, on peut les réguler pour qu’ils ne fassent pas n’importe quoi. Deux textes de l’Union européenne, le Digital Services Act et le Digital Market Act, vont dans ce sens. Ces législations sur les services numériques fixent un ensemble de règles, qui devraient notamment permettre d’atténuer certains risques systémiques, comme la manipulation de l’information ou la désinformation. Mais attention ! Réguler ne veut pas dire aseptiser, vider de leur richesse.

    Mais revenons à nos jeunes. S’ils participent au problème en produisant des messages pourris et en propageant ces messages, on ne peut pas les rendre responsables de tous les maux du numérique. Ils sont ce que la société a fait d’eux. Il est indispensable de leur faire prendre conscience de leurs actes, de leur apprendre à développer leur esprit critique. L’esprit critique a été important de tout temps, mais devant l’explosion de la masse des contenus disponibles, il est devenu crucial. Les jeunes (comme les autres) sont exposés à un véritable tsunami informationnel. Pour ne pas gober des informations poubelles, ils doivent apprendre à choisir les contenus qu’ils consultent, apprendre à évaluer la qualité d’une source, apprendre d’abord à douter. Un rôle fondamental de l’éducation au XXI e siècle est de transmettre cette prise de distance avec l’information. C’est une vraie responsabilité de notre système éducatif qu’il assume, mais encore insuffisamment.

    La tâche n’est pas simple. On a une tendance naturelle à préférer souvent le confort, à se laisser confiner dans ses certitudes, et surtout à avoir confiance dans la masse. Si un influenceur avec un million de followers affirme que le vaccin contre le Covid n’a aucun autre intérêt que d’enrichir une entreprise pharmaceutique, il doit avoir raison puisqu’il a un million de followers. Est-ce que nous en sommes là ? Selon l’enquête de l’Ifop : «Plus de 40 % des utilisateurs de TikTok ont confiance dans le contenu des influenceurs s’ils ont beaucoup d’abonnés ». Scoop : les plus grands influenceurs racontent parfois n’importe quoi ! Ils le font parfois par intérêt, parce qu’ils sont rémunérés pour, peut-être parce que cela va générer un maximum de réactions, mais souvent aussi parce que ce ne sont pas forcément leurs compétences qui les ont amenés à devenir influenceurs.

    Donc comment améliorer la situation ? Les scientifiques doivent œuvrer pour que les réseaux sociaux laissent plus de place aux faits scientifiques prouvés. Ils doivent booster la médiation scientifique sur les réseaux sociaux. 

    Ibrahim.ID, CC BY-SA 4.0, Wikimedia Commons

    Quand on cherche une information sur les réseaux sociaux, on tombe souvent sur des contenus qui n’ont scientifiquement aucun sens, par exemple, que l’ail ou le jeûne soignent le cancer. Les personnes qui les propagent sont généralement bien organisées pour saturer les espaces numériques. Elles noient les contenus « sérieux » dans un bruit ambiant asphyxiant. Quand on recherche une information, on aimerait tomber naturellement sur de l’information de qualité, sur l’opinion d’experts vraiment compétents. Mais le monde numérique est essentiellement niveleur ; on ne vous écoute pas parce que vous êtes journaliste au Monde, chercheur au CNRS ou à l’Académie des sciences, que vous avez publié un article dans Nature, ou que vous avez eu le prix Milner. Cela va demander des efforts pour corriger cela.

    Les scientifiques sont légitimes pour expliquer le monde. Ils ont le devoir de le faire. Il ne faut pas minimiser la difficulté pour eux. Ils sont habitués à parler à leurs pairs, dans des langages techniques, précis. Il leur faut s’adapter à des publics qui n’ont peut-être pas les bases scientifiques nécessaires. Il leur faut privilégier les explications intuitives, quitte à prendre quelques libertés avec la vérité.

    L’objectif est clair : cela doit être plus simple d’atteindre des informations correctes que les poubelles informationnelles dont on veut éloigner les utilisateurs des réseaux. Mais, c’est tout sauf facile. Sur Twitter, par exemple, les climatosceptiques sont très nombreux et poussent énergiquement leurs messages. Le plus souvent, ils ne sont pas climatologues et sont également antivaccin, pro-Russe pour ce qui est du conflit ukrainien, et proches de l’extrême droite. Certains sont très populaires, plus parfois même que les climatologues patentés, même les plus médiatiques. Et les jeunes qui veulent s’informer sur le sujet sont confrontés à un bruit énorme.

    C’est bien toute la médiation scientifique qu’il faut reconstruire pour fixer le problème. Cela doit être gratuit parce que les jeunes (et pas qu’eux) ont pris l’habitude de l’information gratuite sur Internet. Cela doit être un travail collectif et volontaire qui implique toutes les institutions scientifiques, universités, centres de recherche, Académie des sciences, établissements de culture scientifique comme la Cité des sciences et de l’industrie, les sociétés savantes, les associations de science participative, tous les citoyens qui aiment les sciences, etc. C’est en jouant collectivement que l’on peut couvrir le bruit des marchands d’infox. Les médias doivent être impliqués, les réseaux sociaux, les journaux comme les chaines de télévision. Est-il acceptable qu’il y ait si peu de programmes scientifiques, même sur les chaines publiques ?

    Quand on cherche une information, les explications de qualité, compréhensives par tous, attirantes pour tous, doivent se retrouver en tête de gondole. Les scientifiques doivent être en première ligne pour réinventer cette facette de la médiation scientifique.

    Serge Abiteboul, Inria et Arcep

  • Alvearium : vers un Cloud souverain partagé, respectueux des données de ses utilisateurs

    Hive et Inria se sont engagés pour quatre ans dans un partenariat visant à développer un Cloud souverain, capable de fournir à la fois le calcul et le stockage des données via un réseau « peer-to-peer », plutôt que depuis un ensemble centralisé de centres de données. Zoom sur le partenariat, avec Claudia-Lavinia Ignat, responsable du Défi pour Inria.
    Cet article est paru le 16/01/2023 sur le site d’Inria.

    Site Inria

    Photos, vidéos, documents importants… le stockage dans le Cloud fait partie intégrante de notre quotidien, depuis plus d’une décennie. La plupart des données des utilisateurs sont stockées par des grands fournisseurs de services, qui ont la capacité de construire des centres de données capables de traiter une grande quantité d’informations.

    Les utilisateurs doivent ainsi faire confiance aux fournisseurs Cloud pour préserver la confidentialité de leurs données, tout en ayant peu de contrôle sur leur utilisation. En effet, les conditions de service des principaux acteurs peuvent donner la permission d’accé d’exploiter les données des utilisateurs à leurs systèmes automatisés, à leurs employés ou à des tiers de confiance.

    Un « AirBNB du stockage de données »

    C’est à cette problématique que s’attaque la startup Hive pour développer un Cloud pair-à-pair, alternatif aux solutions existantes, qui fournit à la fois le calcul et le stockage de données via un réseau pair-à-pair plutôt qu’un ensemble centralisé.

    « Hive propose d’exploiter la capacité inutilisée des ordinateurs, et incite les utilisateurs à apporter leurs ressources informatiques au réseau, en échange d’une capacité similaire du réseau ou d’une compensation monétaire », explique Claudia-Lavinia Ignat, responsable de l’équipe-projet COAST (équipe commune à Inria Nancy – Grand Est et Loria) et du Défi Alvearium pour Inria.

    En pratique : l’utilisateur va se connecter au réseau, s’identifier sur la plate-forme de Hive, et décider de partager une partie de ses ressources (100 Go d’espace de stockage, par exemple). Le service est gratuit et n’est payant que si l’utilisateur consomme davantage que ce qu’il partage.

    En échangeant leurs ressources informatiques, les utilisateurs peuvent alors bénéficier de tous les services d’un cloud, tout en assurant la confidentialité de leurs données puisque celles-ci sont fragmentées, chiffrées et dispersées à travers le réseau pair-à-pair. Les utilisateurs peuvent contrôler l’accès à leurs données en partageant directement et uniquement avec les utilisateurs en qui ils ont confiance la localisation des fragments et leurs clés de déchiffrement, et ce, sans avoir à les stocker auprès d’une autorité centrale. « Le risque de violation de la vie privée est réduit car en cas d’attaque sur un nœud du réseau pair-à-pair, seulement une petite partie des données protégées est exposée. Il n’y a plus un endroit unique où un pirate peut attaquer pour récupérer toutes les données. Cela devient donc beaucoup plus compliqué pour un attaquant », précise Claudia-Lavinia Ignat.

    Autre avantage du système proposé par Hive : les nœuds participants sont détenus et exploités par des personnes indépendantes et les coûts d’administration du système sont donc partagés. Cette solution devrait rendre le stockage et le partage des données plus abordables pour tous. Elle réduit également le gaspillage d’énergie en fournissant des ressources de calcul et de stockage plus proches des utilisateurs et en évitant les frais généraux d’énergie des centres de données, tels que le refroidissement dont le coût représente environ 40 % de la consommation totale d’énergie d’un centre de données.

    Plus on a d’utilisateurs, plus on passe à l’échelle, plus la résilience est grande. Claudia-Lavinia Ignat

    Un Défi pour un Cloud souverain capable de faire face aux géants américains

    Pour, justement, passer à l’échelle, Hive et Inria ont ainsi décidé de travailler main dans la main pour voir émerger un Cloud souverain, au travers d’un Défi commun.

    Hive offre en effet, actuellement, une solution de stockage de données pour des documents de tout type, qu’ils soient textuels ou multimédia. Ces documents peuvent être d’une taille importante de plusieurs dizaines de mégaoctets. Cependant, ces documents sont immuables, c’est-à-dire qu’ils sont en lecture seule et ne peuvent pas être modifiés. Dans ce Défi, Inria et Hive vont ainsi travailler à étendre la solution actuelle aux données mutables, c’est-à-dire aux données dont l’état peut être modifié après leur création. « Nous ciblons, en plus, les données mutables qui peuvent être modifiées de manière collaborative par différents utilisateurs », précise Claudia-Lavinia Ignat, avant d’ajouter «le principal défi est de savoir comment assurer la convergence des données en présence de modifications concurrentes ».

    En plus d’assurer la haute disponibilité des données, c’est-à-dire que celles-ci soient disponibles à tout moment et que toute requête les concernant doit donner lieu à une réponse, mais aussi leur cohérence, Alvearium veut garantir que les données soient stockées de manière sécurisée. « Nous cherchons à garantir à la fois la confidentialité, l’intégrité et l’accessibilité des données, c’est-à-dire que qu’elles soient protégées contre toute lecture non autorisée, et qu’elles ne puissent pas être modifiées par un accès non autorisé », indique Claudia-Lavinia Ignat.

    Les grands fournisseurs de services collaboratifs tels que Dropbox, iCloud et GoogleDrive ont en effet adopté des solutions de chiffrement afin de ne stocker que la version chiffrée des données des documents partagés. Cependant, pour faciliter l’utilisation de leurs services, les fournisseurs de services stockent également les clés de chiffrement, ce qui leur donne la possibilité de décrypter les données et donc d’être soumis à différentes attaques. Ce projet vise ainsi à proposer des techniques de chiffrement dites « de bout en bout », pour que seuls les pairs autorisés puissent déchiffrer les données.

    Quatre axes de travail pour quatre années de Défi

    Pour répondre à ces problématiques, le Défi, baptisé Alvearium, va ainsi mettre les compétences de quatre équipes-projets Inria (COAST, qui travaille sur les systèmes collaboratifs distribués ; MYRIADS, qui travaille sur le Cloud et la gestion des ressources dans le Cloud ; WIDE, qui travaille sur la théorie et les outils pour les systèmes distribués à large échelle et dynamiques ; COATI, qui travaille sur les algorithmes d’optimisation des réseaux) au service de la résolution des problématiques rencontrées par Hive.

    Le Défi est structuré en quatre axes :

    • Le placement et la réparation viables des données. Le stockage pair-à-pair doit avoir une stratégie de placement des données pour sélectionner les nœuds de stockage les plus appropriés pour placer les données, en respectant certaines contraintes : la conformité avec les politiques de régulation des autorités, et la préférence des utilisateurs en termes de sécurité et de confidentialité. L’objectif est également de fournir des mécanismes de réparation des données, pour répondre aux éventuelles pannes ;
    • La gestion des données mutables, c’est-à-dire qui peuvent être modifiées après leur création, sur le stockage pair-à-pair. Le partage des données doit être chiffré de bout en bout et seuls les pairs autorisés doivent pouvoir déchiffrer les données. La fusion des modifications concurrentes peut être effectuée une fois que ces modifications ont été reçues et déchiffrées par les pairs autorisés ;
    • L’étude de nouvelles techniques pour gérer les « attaques Sybil » et « pannes byzantines », c’est-à-dire des nœuds malveillants, dans le contexte du stockage distribué non fiable. L’objectif est ici d’offrir des garanties plus fortes, en termes de tolérance aux pannes, d’intégrité des données et de sécurité ;
    • Le développement d’un mécanisme de sécurité de données, pour permettre de stocker les données de manière sécurisée. L’objectif sera, enfin, de proposer un mécanisme de sécurité adapté aux systèmes distribués sans autorité centrale qui gère les droits d’accès des utilisateurs aux documents partagés, de bout en bout, c’est-à-dire que seul l’utilisateur final pourra déchiffrer, ce qui n’est aujourd’hui pas le cas chez les grands fournisseurs Cloud.

    Ces quatre axes ont pour objectif global de proposer, en s’appuyant sur les compétences des équipes-projets Inria, un Cloud souverain, performant, capable de répondre aussi efficacement que les fournisseurs existants aux besoins des utilisateurs en termes de stockage, tout en respectant la confidentialité et la sécurité de leurs données.

    Le contrat particulier entre Inria et Hive vient d’être signé fin décembre 2022. Les travaux de recherche de ce Défi débutent cette année avec le recrutement début février de trois stagiaires chez Inria et Hive et de quatre doctorants un peu plus tard dans l’année.

    Iris Maignan, Direction de la Communication, Inria