Liliana Cucu-Grosjean est chercheuse à l’Inria. Elle est aussi , avec son complice Steve Kremer, co-présidente du comité Parité et Égalité des Chances à l’Inria. Ce groupe de réflexion et de proposition travaille depuis 2015 sur des sujets aussi variés que la valorisation des profils internationaux, l’inclusion des personnes LGBTI+ au sein de l’Institut, ou encore la place des femmes qui représente aujourd’hui moins de 20% des effectifs scientifiques dans les sciences du numérique. En ce 8 mars, Liliana nous recommande une lecture… Antoine Rousseau
Chaque année à l’approche du 8 mars, je me pose la question de comment souligner l’importance de cette date, qui rappelle qu’on doit, encore et toujours, se battre pour les droits des femmes. D’ailleurs, toute personne mordue par cette bataille cherche un cadeau ou un moyen pour rappeler (ou crier) que nous sommes le 8 mars, tout en se disant qu’un jour cette date n’aurait plus lieu d’être fêtée tellement les choses auraient évolué.
Cette année les adeptes des droits des femmes sont gâtés par la sortie du livre d’Anne-Marie Kermarrec début mars. Coïncidence ou choix délibéré ? Anne-Marie reste un petit miracle dans ce monde binaire, en faisant partie de celles et ceux qui n’attendent pas qu’on leur demande pour nous offrir des belles surprises. L’autrice admet, aussi, passer de plus en plus du temps sur la cause des femmes. Je dirais, donc, un choix délibéré.
J’ai appris via le réseau linkedin l’apparition du livre et je me suis dépêchée pour l’avoir entre mes mains, bon, plutôt devant mes yeux car je suis passée par une version électronique. Pourquoi me dépêcher ? Car j’ai pu constater par le passé l’absence de langue de bois dans les interventions d’Anne-Marie sur le sujet de la parité et, surtout, la pertinence de ses propos. Et je n’ai pas été déçue. J’avais pris le livre comme une lecture de soir et je me suis retrouvée à la dévorer jusqu’à des heures pas possibles ; cela ne m’était plus arrivé depuis le dernier volume des Milléniums (désolée pour la sortie de piste sans aucun lien avec ce billet), mais le livre m’y oblige par sa grande honnêteté.
Comment Anne-Marie attaque des sujets chauds, contradictoires, voire tabous des discussions sur la parité, impressionne la lectrice que je suis. Prenons sa discussion sur les quotas. Sujet sensible en France, Anne-Marie ose le mettre sur la table et le disséquer. Quels sont ces préjugés sur les quotas et pourquoi en sommes-nous là ? Un frein ou l’arme ultime ? Pour convaincre le lecteur ou la lectrice, Anne-Marie gagne sa confiance par le fil rouge de son livre qui est, à la fois historique, en faisant rentrer dans ses pages Grace Murray Hopper ou Sheryl Sandberg (avec la même aisance), et thématique, en passant par le décodage des idées reçues ou encore la vague #metoo dans le numérique (toujours avec la même honnêteté).
Mon passage préféré reste la discussion sur la question “Les femmes sont-elles des pestes entre elles ?” et la référence au syndrome “Queen Bee” m’a fait du bien, un peu comme dans les contes pour les enfants quand seulement la (belle-)mère est méchante et veut nuire à ses enfants, jamais le père, comme me l’a fait remarquer une de mes filles.
Je parle d’une attaque en décrivant l’écriture d’Anne-Marie car son style est frais et direct, il fait penser à une pièce de stand-up. Anne-Marie se met à table et nous partage ses doutes, l’évolution de ses opinions et, surtout, propose d’une manière constructive comment faire évoluer nos préjugés. Dans le feu de la lecture, je n’étais pas d’accord avec une ou deux de ses opinions et, maintenant après avoir dormi dessus, je me demande si ses opinions ne rentrent pas en conflit avec mes préjugés.
Êtes-vous prêts ou prêtes à quitter vos préjugés ? Si la réponse est oui, alors faites-vous du bien et lisez ce livre. Si vous pensez ne pas en avoir, lisez-le pour vous en assurer.
À l’occasion de la Journée Internationale des Droits des Femmes, Anne-Marie Kermarrec retrouve binaire pour nous parler de difficultés rencontrées par les femmes au temps du Covid. La route est longue, on le savait, jusqu’à la vraie parité. On le vérifie. Serge Abiteboul et Pauline Bolignano
PS : binaire est fier de réaliser que nombre des chapitres du dernier livre d’Anne-Marie Kermarrec, ont été d’abord « testés » dans ses colonnes.
Le 8 mars dernier nous observions, encore d’un peu loin, avec une once, une once seulement, quels naïfs nous faisions, d’inquiétude les dégâts du coronavirus en Asie, lançant les paris sur l’éventualité d’un confinement que nous imaginions durer une ou deux semaines. Le couperet est tombé un peu plus d’une semaine après, nous coinçant là où nous étions ce soir du 16 mars 2020. Confinés, un mot un peu nouveau dans notre vocabulaire courant, dont il a fallu s’accommoder et que l’on ne finit de conjuguer depuis à tous les temps. Les écoles et les universités sont passées intégralement aux cours en ligne mettant au défi parents et enseignants, les commerces ont baissé leur rideau avec dépit, les soignants se sont mobilisés, les entreprises ont généralisé le télétravail, l’état s’est démené pour déclencher des aides, les familles se sont recroquevillées ou épanouies ensemble selon les cas, les parents se sont transformés en enseignants du jour au lendemain, les étudiants se sont retrouvés un peu à l’étroit dans leurs 20m2 ou au contraire ont filé dare-dare chez leurs parents pour avoir plus d’espace et bénéficier de la logistique familiale, certains parisiens ont débarqué dans leur résidence secondaire en Bretagne ou Normandie sous l’œil, parfois, réprobateur et méfiant des autochtones, qui les imaginaient trimballer le virus dans leurs poches.
Le numérique à la rescousse
Finalement nous avons survécu, certains mêmes, les plus chanceux, ont pu apprécier cette parenthèse hors norme où le temps s’étirait. Le numérique s’est avéré extrêmement salutaire pour tous dans cette période. En un mot, il a évité que le monde ne s’écroule pendant cette pandémie. C’est grâce au numérique que nous avons pu continuer à travailler, redoublant de créativité pour travailler en équipe, à grand renfort de Zoom, Teams, que sais-je, comparant dans le processus les avantages et inconvénients de chaque plateforme. Les professeurs ont pu effectuer leurs cours en ligne. Familles et amis se sont retrouvés pour des apéritifs virtuel, les artistes ont redoublé d’imagination pour pallier la fermeture des lieux de culture, et ont organisé des concerts virtuels depuis leur salon, des ballets synchronisés sur Internet. Les animaux en tous genres on refait surface en ville. Les radios en un tour de main ont organisé leurs émissions à distance. Les conférences, hauts lieux de rencontres académiques, se sont organisées à distance. Les scientifiques, largement aidés par des algorithmes d’apprentissage se sont lancés dans la quête du vaccin. D ’autres encore se sont lancés dans les applications de traçage ou la modélisation de la propagation du virus.
Et tout ça aura peut-être même un effet salvateur pour notre planète. En effet les plus de 3 millions de trajets qui ont ainsi pu être évités en France chaque semaine grâce au télétravail [1] ont certainement eu un impact non négligeable sur la pollution. On n’a jamais vu le ciel des mégalopoles chinoises aussi clair que début 2020. Même si on peut déplorer que les grosses entreprises de transport aériens aient beaucoup souffert dans le processus, nous avons pris de nouvelles habitudes qui potentiellement pourraient contribuer à la quête d’une empreinte carbone atténuée, y compris sur le long terme. Nous n’en sommes pas encore sortis et il est encore difficile de dresser un bilan. Espérons que le naturel ne revienne pas au galop sur tous les fronts. En particulier maintenant qu’il est avéré qu’une réunion sur zoom face à la mer n’est pas moins efficace qu’une réunion en présentiel (tiens encore un nouveau mot à notre arc) qui aurait nécessité un aller-retour Paris-Oslo dans la journée.
Outre qu’il nous a sauvé, le numérique a été le grand bénéficiaire de cet épisode. À la faveur de cette pandémie qui a mis des millions de personnes sur la paille, Eric Yuanle fondateur de Zoom, au contraire, a vu sa fortune grandir exponentiellement et le placer parmi les 400 américains les plus riches. Amazon, dont la place était d’ores et déjà bien établie, a vu ses bénéfices monter en flèche au troisième trimestre 2020 et tripler grâce aux ventes pandémiques. Un quart de la population s’est abonné à une nouvelle plateforme de streaming vidéo pendant cette période. Le e-commerce a fait un bond, y compris pour les plus petits acteurs, de nouvelles applications sont nées, la télémédecine s’est enfin imposée, etc. Bon, ça ce sont les bonnes nouvelles. On sait bien évidemment que malheureusement de nombreux secteurs ont pâti de cette crise et que de bien nombreuses personnes ont souffert (et continuent) financièrement, psychologiquement voire même physiquement. Comme on ne peut évoquer tous les sujets, je me propose en ce 8 mars de nous interroger, sur l’impact, en particulier celui du télétravail généralisé pendant le confinement, sur les femmes ?
Crédit photo: wocintechchat.com
Le télétravail au féminin : la vraie fausse bonne idée ?
Le télétravail, oui…
Dans certains pays, le télétravail est un véritable atout pour attirer les femmes dans des domaines peu féminisés, comme celui de l’informatique par exemple [2]. Cela dit, c’est un argument à double tranchant puisque la raison principale est qu’il permet en effet d’apporter une certaine flexibilité quant à l’organisation de son temps, le rendant ainsi compatible avec le fait de rester à la maison pour les enfants. Cette flexibilité peut cependant s’avérer assez salutaire, ainsi si certaines mettent un frein à une carrière exigeante qui leur demande de voyager à l’autre bout du monde pour une réunion de quelques heures, le faire depuis son salon leur permet d’être plus présentes dans le milieu professionnel. Ou encore leur laisse l’opportunité d’accepter une réunion tardive qui n’entre pas en conflit avec les horaires scolaires. Bien sûr la raison est que les femmes ont une petite tendance à ne pas souhaiter déroger à leurs obligations familiales pour gagner des galons. Mais puisque nous en sommes encore là, le télétravail peut s’avérer salutaire et ouvrir des portes aux femmes en particulier dans le domaine du numérique qui s’y prête particulièrement. Le télétravail peut ainsi représenter une excellente opportunité sur le long terme pour permettre aux femmes de s’ouvrir à des carrières qu’elles n’auraient pas considérées autrement.
…mais pas en pandémie
D’ailleurs, il se trouve que le travail chez les cadres s’est généralisé à la faveur de cette crise sanitaire dont nous ne sommes pas encore sortis. Un quart de la population a eu recours au télétravail des mars 2020 [1]. Si les entreprises ont dû transformer leurs pratiques managériales dans le processus, elles ont accusé réception des avantages potentiels comme des besoins réduits de mètres carrés de locaux et ont même parfois observé des gains de productivité.
Mais le bât blesse encore et toujours. Et si ces habitudes de travailler depuis la maison, faisaient partir en fumée 25 ans de lutte pour l’égalité homme-femme [3] ? Si le télétravail creusait les inégalités contre lesquelles on lutte depuis tout ce temps ?
Tout d’abord, tous les métiers ne se prêtent pas au télétravail, et c’est en majorité les cadres qui s’y sont collés à 86% pendant le premier confinement. Et bien c’est justement dans cette catégorie que les inégalités sont les plus importantes quant au meilleur spot de la maison pour travailler. Ainsi chez les cadres, 29% des femmes disposait d’un bureau à la maison contre 47% des hommes [4]. Pourquoi donc ? Est-ce parce que le bureau va plutôt à la personne du foyer qui occupe le poste le plus important ? Comme on sait que les hommes, s’ils ne préfèrent pas les blondes nécessairement, sont rarement en couple avec des femmes plus diplômées [6]. Et même à diplôme égale, il n’est pas rare que la carrière féminine n’ait pas suivi la même trajectoire et à la même rapidité. Il n’est pas exclu que les femmes elles-mêmes se portent volontaires pour laisser le bureau à leur conjoint.
La conséquence directe est, qu’outre que la répartition naturelle des tâches domestiques dans un couple, qui si elle s’est vaguement améliorée reste largement inégalitaire [7], que ce sont les femmes qui ont assuré en majorité les tâches domestiques pendant les confinements. Tâches du reste d’autant plus importantes que la famille entière prend ses repas à la maison matin, midi et soir en confinement, ce qui augmente singulièrement le volume de courses, cuisine et ménage. Et devinez qui a en majorité jouer à l’institutrice puisque Maman travaillait dans le salon ?
Crédit photo : https://nappy.co/alyssasieb
D’ailleurs, ce télétravail « pandémique » a eu un effet désastreux sur les femmes du milieu académique, celles- là même qui ont déjà bien du mal à gravir les échelons [2]. Ainsi les dernières études sur le sujet montrent que les femmes ont soumis proportionnellement beaucoup moins d’articles scientifiques que les hommes pendant cette pandémie [8].
Pour finir, selon les données de l’ONU, les violences conjugales ont augmenté de 30% en France pendant le confinement, à l’instar de ce qui s’est passé dans de très nombreux pays d’ailleurs. De là à dire que le télétravail augmente la probabilité de se faire taper dessus est exagéré. Mais il semblerait quand même que pour une proportion non négligeable de femmes, la maison n’est pas nécessairement l’endroit le plus sûr.
Pour conclure, le télétravail qui est désormais une option beaucoup plus répandue et probablement le restera, n’a pas été nécessairement un cadeau pendant cette pandémie. Mais espérons que dans le monde d’après, le télétravail permettra aux femmes de saisir de nouvelles opportunités que ce soit dans le numérique ou ailleurs.
À l’heure des GAFAM, des fakenews, de prétendues addictions au numérique, etc., l’informatique ne manque pas de détracteurs. La définition même de cette science inédite du XXe qui a bouleversé nos sociétés divise. Serge Abiteboul et Gilles Dowek, les auteurs du best seller « Le temps des Algorithmes »[0] nous racontent ces sources de désaccords. Thierry Viéville.
À chaque fois qu’il y a un nouveau support technique,
il y a un Socrate qui engueule Platon.
Michel Serres, Télérama, 12 Avril 1996.
À l’heure des GAFAM, des fakenews, de prétendues addictions au numérique, etc., l’informatique ne manque pas de détracteurs. Sa définition même est source de désaccords. Le Conseil Scientifique de la Société Informatique de France a proposé une définition dans un article [1] publié en 2014 par le blog binaire du Monde. Il ne fut pas simple d’arriver à se mettre d’accord. Le souvenir de ce travail est l’occasion d’une pensée émue pour l’un des rédacteurs, Maurice Nivat, qui nous avait fait le plaisir et l’honneur de participer à cette rédaction, ce qui n’a pas été sans élever la barre des exigences.
Cet article soulève des questions sur l’informatique, susceptibles de vous fâcher avec des amis. Certaines étaient discutées dans l’article de la SIF, nous les reprenons rapidement ici. Nous en soulevons d’autres tout aussi délicates.
Nouvelle science, quel est ton nom ?
Le texte de la SIF adresse le sujet :
Comme les ados qui ne veulent pas utiliser le même mot que leurs parents pour parler de surprise-partie, les informaticiens changent (ou laissent les autres changer) le nom de leur discipline régulièrement. Par exemple, le CNRS invente régulièrement des néologismes pour désigner l’informatique : STIC pour « sciences et techniques de l’information et de la communication » a eu un temps le vent en poupe. Ce qui gêne sans doute, et conduit à changer de mot, ce sont les multiples facettes de l’informatique.
Un autre terme est très utilisé : « numérique ». Ce qu’en dit le texte de la SIF :
L’adjectif « numérique » qualifie toutes les activités qui s’appuient sur la numérisation de l’information comme le livre, l’image ou le son numérique, la commande numérique de voiture ou d’avion, le commerce numérique (e-commerce), l’administration numérique, l’édition numérique, l’art numérique, etc. On parle de « monde numérique ».
Cette énumération montre bien qu’avec le numérique, on a largement dépassé le cadre strict de l’informatique. On assiste pourtant à une certaine confusion entre le mot informatique et le mot numérique et de plus en plus avec digital (selon le dictionnaire « qui appartient, se rapporte aux doigts »), un anglicisme pour numérique. Le terme numérique est souvent convoqué quand on parle de logiciel ou de matériel informatique, celui de digital est plutôt convoqué quand on discute d’usages de l’informatique.
Un moyen assez sûr de démarrer une controverse est de demander à des amis quelle est la différence entre informatique et numérique, ou de leur faire préciser ce qui distingue numérique et digital.
L’informatique, science ou technique ?
Certains ont trouvé que le texte de la SIF laissait la part trop belle à la science, d’autres à la technique, d’autres enfin pensaient qu’il était faux d’autant mêler les deux. La question partage : est-ce que l’informatique est une science ou une technique plutôt l’une ou plutôt l’autre. Le texte de la SIF commence ainsi :
L’informatique est la science et la technique de la représentation de l’information d’origine artificielle ou naturelle, ainsi que des processus algorithmiques de collecte, stockage, analyse, transformation, communication et exploitation de cette information, exprimés dans des langages formels ou des langues naturelles et effectués par des machines ou des êtres humains, seuls ou collectivement.
C’est beaucoup pour une seule phrase, mais c’est clair. L’informatique est à la fois science et technique, ce que le texte explique clairement. Évidemment, cette prise de position ne clôt pas le débat et on peut parier que certains lecteurs voient dans l’informatique surtout une science, et d’autres essentiellement une technique. Un autre moyen assez sûr de démarrer une controverse. Mais plus que de distinguer entre science et technique, le sujet n’est-il pas plutôt leur interdépendance, l’enchevêtrement entre les deux que propose l’informatique, une source considérable de richesse ?
Être informaticien, ou pas
Les frontières de l’informatique ne sont pas très précises. C’est un autre sujet de discorde.
N’est pas informaticien qui veut. Les ordinateurs sont des machines à tout faire, et de plus en plus de personnes conçoivent des algorithmes, les programment. Pourtant, il ne suffit pas de concevoir un algorithme pour être informaticien : le sieur al-Khuwārizmī, s’il a donné son nom aux algorithmes, était mathématicien. On peut aussi être à l’origine de logiciels sans être informaticienne mais physicienne, biologiste, sociologue, etc. Un étudiant se définit souvent suivant la discipline principale qu’il étudie. On devient géographe, statisticien, économiste, etc., parce qu’on obtient un diplôme dans la discipline correspondante. Comme chercheur, nous étudions des problèmes et cherchons la ou les sciences qui nous aideront à les résoudre, dans quelque discipline qu’elles soient. Les problèmes eux ne participent pas de la même classification qui nous a placés dans une case. Donc on peut, par exemple, être physicienne et développer des algorithmes et des logiciels du matin au soir. On reste physicienne.
Informaticiens ou pas. Où placer Claude Shannon ? Est-il, aux côtés d’Alan Turing « fondateur » de l’informatique ? Ou ailleurs ? Dans le cadre du saucissonnage des sciences, nécessité pour les structurer un tant soit peu, la section 27 du CNU est « Informatique » (à la Turing), et la 61 « Génie informatique, automatique et traitement du signal » (peut-être plutôt à la Shannon). Mais n’oublions pas que pour Shannon, toute information peut se voir comme une suite de bits, ce qui est véritablement un fondement de l’informatique. Et puis, la distinction entre la 27 et 61 semble bien arbitraire aujourd’hui quand le traitement du signal et l’automatique sont massivement numériques. Dans certains domaines, la frontière de l’informatique est particulièrement floue. Par exemple, considérons la robotique qui s’appuie de manière essentielle sur des pans entiers de l’informatique comme la géométrie algorithmique, les algorithmes de planification ou l’apprentissage automatique. Bien sûr, la robotique utilise aussi la mécanique, fait parfois appel à la perception haptique, etc. Un roboticien est-il mécanicien ou informaticien ? Il peut évidemment se déclarer l’un ou l’autre, voire les deux s’il le souhaite.
Le grand voisin. Une des frontières les plus sensibles peut-être est celle avec les mathématiques. L’informatique est parfois née dans les départements de mathématiques où les informaticiens étaient les vilains petits canards. Les informaticiens ont acquis leur indépendance et habitent aujourd’hui des départements d’informatique. À l’heure de la recherche de contrats, certains mathématiciens regrettent-ils, peut-être, leur départ quand ils revendiquent l’analyse de données massives (le big data) ou l’apprentissage automatique (le machine learning) comme faisant partie des mathématiques. Pour nous, c’est de l’informatique. Mais après tout , on s’en moque ! C’est de la science avec de beaux résultats et c’est ça qui compte.
Par nature, l’informatique reste proche des mathématiques. Ce sont toutes deux des sciences de l’artificiel. Depuis des siècles, on considère que pour être un honnête chercheur (pour être un honnête homme), il faut une maîtrise raisonnable des mathématiques. Aujourd’hui, il faut aussi celle de l’informatique. Des chercheurs font de la recherche en « mathématiques pures », mais d’autres chercheurs partent de problèmes d’autres sciences pour faire des « mathématiques appliquées ». La situation est assez semblable entre informatique fondamentale et informatiques appliquées incluant la bio-informatique, les systèmes d’information géométrique, les humanités numériques, etc.
Pour conclure sur cette question, si l’informatique n’a pas de frontières bien délimitées, s’il n’est pas possible d’en trouver de périmètre précis, pas besoin de convoquer la pluridisciplinarité pour conclure que cela aussi en fait sa richesse.
L’informatique a transformé les sciences plus encore que l’imprimerie
L’informatique est engagée dans un riche dialogue avec les autres sciences. De quelles sciences parle-t-on ? Des sciences dans un sens très large incluant les sciences de la nature ou de la vie, les sciences humaines et sociales (sociologie, économie, histoire, etc.) mais aussi, les mathématiques.
La transformation des sciences par l’informatique est la raison d’être des « Entretiens autour de l’informatique », qui invitent des spécialistes de toutes disciplines à raconter leurs liens avec l’informatique. Leur lecture confirme que l’informatique transforme en profondeur presque toutes les autres sciences. Et nous utilisons ici « presque » surtout par précaution oratoire. De fait, nous avons du mal à trouver une science qui n’ait été profondément transformée par l’informatique.
Comment comprendre tout cela quand on est pas spécialiste ? https://classcode.fr/iai
Presque indépendamment de leurs disciplines, les scientifiques aujourd’hui consultent des systèmes d’information, utilisent des bases de données, tweetent, bloggent, tchatent à distance avec leurs collègues, leurs étudiants, etc. L’informatique a modifié leur façon de travailler, leur permet de le faire de manière de plus en plus distribuée, de partager des données, des logiciels. La littératie informatique est devenue leur quotidien, ou en tous cas, devrait l’être. Avec l’informatique, ils analysent des données massives qu’ils réunissent pour améliorer leurs connaissances, ils simulent des phénomènes complexes qu’ils essaient de comprendre.
On assiste à une mutation radicale du paysage scientifique, de l’essence de ses pratiques, une entreprise de transformation fondamentale des sciences. Plus que l’utilisation d’outils informatiques, nous verrons plus loin que l’informatique transforme les sciences en apportant d’autres manières de penser, de faire de la recherche, fondées sur la pensée algorithmique, s’appuyant sur des modèles algorithmiques, l’analyse de données numériques, et la simulation. Nous manquons sans doute encore de recul et ces transformations sont encore pour partie en devenir mais il semble de plus en plus clair que si chaque science est restée essentiellement la même, chacune s’est profondément enrichie par l’utilisation d’outils numériques et surtout par le dialogue avec la pensée algorithmique. Peut-on imaginer aujourd’hui la linguistique sans le traitement automatique des langues, l’astronomie sans ses pipelines de calculs informatiques, la génomique sans les algorithmes d’analyse de séquences ADN ? Etc.
Au risque de choquer, nous irons donc jusqu’à écrire que l’informatique a transformé en profondeur les sciences plus encore que l’imprimerie. Mais évidemment ce n’est pas à nous de le dire, mais aux historiens des sciences quand ils auront assez de recul pour réaliser sereinement une telle comparaison. En attendant, que la question ait du sens ou pas, c’est sûrement une occasion pour se fâcher entre amis.
Les informaticiens ne servent à rien
Les scientifiques confrontés à l’informatique se tournent vers nous, collègues informaticiens, pour trouver de l’aide. Mais, désolé, nous ne savons pas quels ordinateurs vous devez acheter, ni quels logiciels. Vos sujets de recherche sont passionnants mais comprenez que nous ayons aussi les nôtres et que nous ne voulons pas forcément les abandonner pour travailler sur les vôtres. Ayez pitié de nous !
Par exemple, les bases de données sont essentielles dans nombre de disciplines. Pendant des années, le sujet de recherche du premier auteur étaient les bases de données « semi-structurées » avec des modèles de données moins rigides que les relations à deux dimensions, ce qui conduit à des formats de données comme XML ou JSON. Sa recherche était motivée par des travaux dans d’autres disciplines et des questions soulevées notamment par des biologistes. Mais les systèmes dont il participait à la construction étaient des prototypes déconseillés pour des scientifiques non informaticiens. Ces derniers devaient attendre les systèmes disponibles aujourd’hui.
Certains informaticiens sautent le pas vers d’autres sciences pour participer à des domaines comme la bio-informatique ou les humanités numériques. Bravo ! Mais, même eux ne suffisent pas à répondre à toutes les demandes. Alors…
Collègues scientifiques non-informaticiens, apprenez à vous débrouiller !
Quand vous avez besoin d’informatique, embauchez des ingénieurs ou payez des sociétés de services. Surtout, apprenez suffisamment d’informatique pour réaliser vous-mêmes vos propres simulations, vos propres analyses de données. Vous ne perdrez pas de temps à expliquer ce que vous voulez à des informaticiens qui ne parlent probablement pas le même langage que vous. Les logiciels sont devenus beaucoup plus simples à utiliser. Vos étudiants, de plus en plus, savent programmer. Et si au hasard de la recherche, vous tombez sur un vrai challenge pour l’informatique, alors làseulement allez voir un informaticien :
(i) vous aurez déjà appris à parler son langage et aurez plus de chance d’être compris,
(ii) vous aurez plus de chance de l’intéresser.
Se former à l’informatique quand on est pas spécialiste ? https://classcode.fr/snt
Pour éviter toute ambiguïté : on ne vous demande pas à tous d’atteindre la sophistication en informatique d’un chercheur Inria ou d’un développeur Google, mais seulement à un grand nombre d’entre vous d’être capable d’écrire les programmes simples dont vous aurez besoin. C’est déjà la norme dans de nombreuses disciplines comme la physique ou la géographie, ça peut être le cas demain aussi dans votre discipline. Si ce n’est pas encore le cas, redéfinissez la formation dans vos disciplines pour que vos étudiants aient un solide bagage en informatique.
Est-ce que cela s’accompagnera pour ces étudiants de pertes de compétence ? Sans doute. Pour vous consoler, dites-vous que de tous temps il s’est trouvé des chantres du « les étudiants ne sont plus ce qu’ils étaient avant. » Leur niveau est supposé baisser depuis des centaines peut-être des milliers d’années, alors nous n’allons pas nous inquiéter s’il baisse aujourd’hui. Mais, il est vrai que le temps d’étude n’est pas extensible à l’infini. Les archéologues d’antan étaient d’excellents dessinateurs, les dessins de Pompéi par les archéologues juste après la découverte du site sont impressionnants de précision. Aujourd’hui, avec la photo, les archéologues ont perdu ce talent (en gagnant d’autres compétences). Nous pensons que c’est plus important pour eux de programmer que d’être de brillants dessinateurs, mais nous ne sommes pas archéologues. C’est aux archéologues de choisir ce que leurs étudiants doivent apprendre.
Et pour conclure, une question qui divise :
Assiste-t-on avec l’informatique à un affaiblissement des sciences ?
La clé de voûte de notre compréhension du monde est la construction de théories comme la mécanique newtonienne ou la théorie darwinienne de l’évolution. La science exige que les théories valident les observations, qu’elles permettent de faire des prédictions.
Certaines théories sont aujourd’hui formulées sous la forme d’algorithmes qui permettent de construire des modèles de phénomènes pour ensuite pouvoir les « simuler ». Elles résultent en des logiciels parfois de taille considérable. Nous développons des modèles algorithmiques de nombreux phénomènes : l’évolution de l’atmosphère et des océans, le fonctionnement du cerveau, le développement des villes, la variation des cours de la bourse, les mouvements de foule, etc.
Quand les théories classiques se basaient sur un petit nombre d’équations typiquement focalisées dans un petit nombre de domaines scientifiques, les modèles algorithmiques d’aujourd’hui peuvent prendre en compte des aspects très divers. Par exemple, les modèles du climat s’appuient sur des connaissances en électricité, mécanique des solides et des liquides, chimie, etc. Le modèle de développement d’une ville doit tenir compte de processus démographiques, économiques, politiques, géographiques, etc., qui interagissent. Dans un tel modèle algorithmique, certains aspects mal compris peuvent aussi être pris en charge par l’apprentissage automatique.
Les modèles algorithmiques complexes résultent de collaborations de nombreux spécialistes de disciplines diverses. Personne n’en maîtrise toutes les facettes. Surtout, on ne sait en général pas expliquer leurs résultats. Si les modèles météorologiques nous disent avec des probabilités qui ne cessent de s’améliorer quel temps il fera demain, ils n’expliquent pas pourquoi.
Quand une théorie classique se trompait, on essayait de proposer une autre théorie. Avec un modèle algorithmique, cela n’est pas nécessairement le cas. On va essayer de l’améliorer en précisant le modèle, en le complexifiant, en rajoutant des données, etc. Peut-être, seulement s’il s’avère vraiment décevant, essaiera-t-on de trouver un cadre véritablement nouveau. Mais le plus souvent on cherchera à faire évoluer le modèle algorithmique ne serait-ce que pour ne pas perdre tout le travail accumulé, les logiciels et les données amoncelées.
Est-ce satisfaisant ? Pas complètement. D’abord, on doit accepter de vivre avec des théories qui comportent des erreurs. Si ces théories s’améliorent sans cesse, même modestement, cela semble acceptable. Surtout, on doit accepter de ne pouvoir expliquer les résultats ; c’est indéniablement un aveu d’échec. Pourtant cela peut se justifier : les modèles algorithmiques nous permettent d’étudier des phénomènes beaucoup plus complexes que les théories classiques. Si nous ne pouvons présenter des explications c’est que les explications qu’on pourrait avancer seraient par nature pluridisciplinaires et extrêmement complexes, peut-être trop complexes pour qu’un humain les énonce ou les comprenne.
En ce sens, il faut plutôt voir l’utilisation de modèles algorithmiques comme une extension du domaine de la science à des champs qui nous étaient encore interdits.
En guise de conclusion
Il n’y a pas si longtemps encore, les autres sciences hésitaient entre s’enthousiasmer pour la nouvelle venue, l’informatique, et lui refuser de l’accueillir comme une science. Questionner si l’informatique est une science n’est plus à l’ordre du jour : L’informatique a ses départements dans les universités, une salle dédiée au Palais de la Découverte, ses académiciens des sciences ; elle est enseignée au Collège de France, et puis dans tous les collèges et lycées de France même si le nombre de professeurs informaticiens reste faible.
L’informatique a aligné les avancées fulgurantes : compilateurs de plus en plus efficaces, langages de programmation de plus en plus sophistiqués, internet, le web, moteurs de recherche du web, systèmes cryptographiques à clés publiques, l’apprentissage automatique, etc. Et puis, elle a transformé l’économie mondiale, la culture, la vie sociale. Surtout, elle nous a émerveillés dans des rencontres surprenantes avec les autres sciences. On peut parier que l’informatique nous réservera encore de nombreuses surprises, et de belles occasions de nous engueuler entre amis…
Les centres de sciences La Casemate (Grenoble) et le Quai des Savoirs (Toulouse) organisent du 11 au 14 mars prochain un éditathon Wikipédia intitulé « Femmes de l’Intelligence artificielle VS Femmes des sciences de la Terre : le match ». Binaire souhaite donner un coup de projecteur à cette initiative, en profitant de l’occasion pour inciter à aller enrichir l’encyclopédie libre pour mettre en lumière de manière plus large les femmes de l’informatique. Marie-Agnès Enard
Sarah Krichen WMFr CC BY-SA 4.0
Qu’est-ce qu’un éditathon Wikipédia ?
Un édithathon est un évènement organisé par des communautés pour que des contributeurs créent, modifient et améliorent des articles sur un thème, sujet ou un type spécifique de contenu. Ici, ce marathon d’édition a lieu sur Wikipédia que l’on ne présente plus. Vous n’avez jamais contribué à Wikipédia, pas de panique, les nouveaux contributeurs y reçoivent généralement une formation de base à l’édition et tout type de profils sont recherchés pour améliorer ces contenus.
Une battle dédiée au femmes
« Femmes de l’Intelligence artificielle VS Femmes des sciences de la Terre : le match ». Choisissez votre équipe et défendez-la sur Wikipédia. Pendant 4 jours, que vous soyez un.e contributeur.trice habitué.e ou débutant.e, enrichissez les biographies de femmes dans ces deux disciplines. Tous les coups (ou presque) sont permis : création d’article, traduction d’un article depuis un Wikipédia étranger, enrichissement / correction d’un article existant, ajout de sources, légende de photos… A la fin, ce sont les femmes qui gagnent ! 😉
Le programme
Cet évènement est entièrement en ligne.
A partir du 11 février 2021, début du repérage et de la collecte des ressources pour préparer l’éditathon
Jeudi 11 mars matin, initiation à la plateforme Wikipédia, en ligne
Du jeudi 11 au dimanche 14 mars : éditathon avec soutien de Wikipédiens bénévoles sur un canal de messagerie Discord
Cet éditathon s’insère dans une semaine où d’autres événements « femmes et sciences » sont programmés à Toulouse et Grenoble (dont des conférences accessibles à tous). Plus d’infos sur la page projet sur Wikipédia
Fournir des explications du fonctionnement des algorithmes compréhensibles par des profanes ? Félicien Vallet s’entretient avec Clément Henin et Daniel Le Métayer, de l’équipe Inria Privatics, sur les enjeux de l’explicabilité des algorithmes et leurs travaux de recherche sur ce sujet. Serge Abiteboul et Thierry Viéville.
Les systèmes algorithmiques prennent une place de plus en plus importante dans nos vies, ce qui représente un indéniable progrès. Toutefois, si nous leur déléguons de plus en plus de tâches, cela ne doit pas se faire au détriment de notre capacité à garder le contrôle et la compréhension de leur fonctionnement.
LINC : En premier lieu, et même si cela peut sembler évident, pouvez-vous nous rappeler pourquoi il est indispensable de se préoccuper de l’opacité des systèmes algorithmiques ?
Daniel Le Métayer : Il s’agit d’un problème majeur, notamment quand ces systèmes ont pour objet d’aider des humains à prendre des décisions qui peuvent avoir des conséquences importantes. Tout d’abord, si le décideur n’est pas en mesure de comprendre la logique à l’œuvre ou les raisons qui ont conduit à un résultat donné (prédiction, recommandation, etc.), il risque d’utiliser le système à mauvais escient. Des systèmes opaques, qui semblaient par ailleurs performants, ont été écartés de certaines applications sensibles pour cette raison précise. Le législateur l’a bien compris puisque l’obligation d’expliquer les résultats de certains types de systèmes algorithmiques a été introduite dans le droit. On peut penser notamment au RGPD en Europe, à la loi pour une République numérique en France ou encore à la Directive sur la prise de décision automatisée au Canada. On notera toutefois que ces obligations ne concernent pas tous les systèmes algorithmiques et que la définition des explications à fournir est souvent sujette à interprétation. Enfin, au-delà du droit positif, on sait que l’IA et les systèmes algorithmiques en général, posent de nombreuses questions d’ordre éthique (biais, perte d’autonomie, impacts sur la société, la démocratie, etc.). Or, comme l’a justement affirmé le rapport Villani en 2017, « une grande partie des considérations éthiques soulevées par l’IA tiennent à l’opacité de ces technologies ». Dans le même esprit, la CNIL a recommandé de « rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs » dans son rapport de synthèse « Comment permettre à l’homme de garder la main ».
Transparence, loyauté, explicabilité, redevabilité, etc. De nombreux termes sont fréquemment utilisés lorsqu’on évoque la compréhension du fonctionnement des systèmes algorithmiques. Pouvez-vous nous rappeler de quoi il est question ?
Clément Hénin : En effet, il existe dans ce domaine une profusion de termes qui ne sont pas toujours bien définis, ni utilisés dans le même sens par différents auteurs. Pour notre part, nous pensons qu’il est utile de distinguer au moins quatre concepts essentiels que nous appelons respectivement transparence, explication, justification et contestation. Tout d’abord l’objectif de la transparence est de rendre visible. On rend transparent quand on montre, on expose. On pense généralement au code du système, mais ce peut être également le texte de l’algorithme, les documents de conception, ou encore les données d’apprentissage. Une explication a un but différent : il s’agit de rendre compréhensible. On distingue généralement les explications locales, qui consistent à expliquer une décision ou un résultat particulier, des explications globales, qui portent sur la logique générale du système. La justification est encore d’une autre nature : il ne s’agit pas de rendre compréhensible mais de rendre acceptable, de convaincre qu’une décision est « bonne ». Enfin, la contestation peut être vue comme l’opposée de la justification : son but est de convaincre qu’une décision est mauvaise.
Daniel Le Métayer : Les termes « explication » et « justification » sont parfois utilisés de manière indifférenciée dans la littérature. Pourtant, ils recouvrent des concepts tout à fait différents : une explication est endogène, dans le sens où elle constitue une information sur l’algorithme qui ne dépend que de celui-ci ; inversement, une justification est exogène, dans le sens où elle doit faire référence à un élément extérieur, qu’on peut appeler une norme, pour justifier le système (ou un de ses résultats). Prenons à titre d’illustration un système d’aide à la décision pour traiter des demandes de prêt bancaire. Un exemple d’explication pourrait être « votre demande de prêt est refusée car votre taux d’endettement dépasserait le tiers de vos revenus ». Cette information explique le refus mais ne le justifie pas. Une justification pourrait être : « votre demande de prêt est refusée car la loi interdit aux banques d’octroyer des prêts conduisant à un taux d’endettement dépassant le tiers des revenus ». Cette justification fait référence à une norme juridique mais d’autres formes de normes peuvent être envisagées (règle interne ou objectif de minimiser les défauts de remboursement par exemple). Quelle que soit sa forme, une justification doit pouvoir être contestée. La contestabilité est souvent mise en avant comme un objectif important dans la littérature mais peu de travaux ont jusqu’à présent porté spécifiquement sur ce point. Pour conclure sur la terminologie, il faut souligner que, même si elles ne répondent pas aux mêmes objectifs, la transparence, les explications et les justifications ne sont évidemment pas sans rapport : la transparence peut contribuer à la compréhension et les explications peuvent fournir des informations utiles pour formuler des justifications ou des contestations.
On parle souvent de système aidant à l’explication ou à la justification, menant des analyses globales ou locales, etc. On observe depuis quelques années une augmentation très importante du nombre de recherches menées sur ces sujets. Pouvez-vous préciser quels sont les enjeux de l’explicabilité des systèmes du point de vue scientifique ?
Clément Hénin : En effet, vue l’importance du problème, de plus en plus de chercheurs s’intéressent aux différents moyens de s’attaquer à l’opacité des systèmes algorithmiques. Une nouvelle communauté de recherche s’est d’ailleurs développée ces dernières années autour de ce qu’on appelle parfois XAI (pour « explainable AI »). De nombreuses méthodes ont été proposées, certaines fonctionnant « en boîte noire », c’est à dire sans connaissance du code du système, alors que d’autres, dites en « boîte blanche », interviennent sur ce code. Certaines ont pour but de rendre les systèmes interprétables (ou parle alors de système « intelligible ») alors que d’autres produisent des explications a posteriori de systèmes opaques. Chaque approche comporte des avantages et des inconvénients mais on peut identifier, de manière générale, plusieurs défis qui n’ont pas encore été relevés. Tout d’abord, celui de fournir des explications ou des justifications véritablement compréhensibles par des utilisateurs profanes (médecin, juriste ou personne affectée par les résultats des systèmes, par exemple). Ce domaine souffre encore beaucoup de ce que le chercheur Tim Miller et ses collègues ont appelé le syndrome des détenus qui veulent diriger l’asile (« beware of inmates running the asylum »), en l’occurrence des experts d’IA expliquant leurs propres productions. Les explications fournies par les méthodes existantes sont généralement unilatérales (non interactives) et fournies sous une forme fixe, décidée au préalable (par exemple des arbres de décision ou des listes de facteurs prépondérants) alors que les besoins des utilisateurs peuvent être variés et dépendants de leurs motivations et de leur degré de compétence. Par ailleurs, les justifications et les contestations n’ont pas fait l’objet de nombreux travaux de recherche jusqu’à ce jour. Pour conclure sur ce point, un aspect qui mérite également plus d’attention est aussi celui de l’évaluation expérimentale des résultats : on sait qu’il n’est pas simple de mesurer la qualité d’une explication ou d’une justification.
Plus spécifiquement pouvez-vous décrire les travaux que vous menez ?
Daniel Le Métayer : Nos travaux, qui se focalisent sur les méthodes « en boîte noire », portent sur deux aspects : les explications interactives et les justifications. Pour ce qui est des explications, nous partons du constat que les besoins diffèrent beaucoup d’une situation à une autre. Un employé de la banque qui cherche à comprendre les grandes lignes du système d’attribution de crédits n’a pas les mêmes besoins qu’un client qui souhaite contester une décision de refus ou un auditeur en charge de vérifier la conformité du système. Nous avons proposé un outil d’explications (appelé IBEX) qui repose sur une architecture à plusieurs couches permettant d’interagir avec chaque type d’utilisateur au niveau d’abstraction qui lui convient. Ses demandes sont traduites automatiquement en exigences sur les explications à générer (simple ou complexe, générale ou spécifique, etc.), puis en paramètres du système de génération d’explications. Celui-ci comporte deux phases principales : la sélection des données à fournir en entrée de l’algorithme et l’analyse des résultats produits par celui-ci.
Clément Hénin : Le deuxième volet concerne les justifications. Comme nous l’avons déjà mentionné, celles-ci font référence à des normes extérieures pour convaincre qu’une décision est bonne. Le système de justification que nous avons conçu (appelé Algocate) inclut trois types de normes (des règles explicites, des objectifs et des données de référence) qu’il peut employer pour appuyer des justifications ou des contestations de décisions particulières. Les justifications (ou les contestations, selon la situation) donnent lieu à un dialogue entre Algocate et l’utilisateur. Dans la première étape, un utilisateur peut fournir ses raisons de penser que la décision est mauvaise. Ces raisons sont analysées par Algocate en regard des normes disponibles. La réponse d’Algocate peut conforter l’utilisateur dans ses raisons ou au contraire contrer ses arguments. À l’issue du dialogue, l’utilisateur a collecté des arguments suffisants pour contester la décision ou pour l’accepter s’il juge que les normes employées sont légitimes et qu’elles s’appliquent effectivement dans ce cas.
Sonia Desmoulin-Canselier, Daniel Le Métayer, Décider avec les algorithmes – Quelle place pour l’Homme, quelle place pour le droit ?, Dalloz, Les Sens du Droit, février 2020.
Claude Castelluccia, Daniel Le Métayer, Understanding algorithmic decision-making: Opportunities and challenges, Rapport pour le Parlement Européen, mars 2019.
Un nouvel « Entretien autour de l’informatique ». Christophe Lazaro est Professeur au Centre de Philosophie du Droit, à l’Université de Louvain, et membre du Comité National Pilote d’Éthique du Numérique (France). Nous poursuivons avec lui le voyage commencé avec Célia Zolynski sur le droit du numérique. Christophe nous amène aux frontières du droit, de la philosophie et de l’anthropologie.
Cet article est publié en collaboration avec theconversation.fr.
Christophe Lazaro, UCLouvain
B : Tu es juriste. Mais en préparant l’entretien, nous avons découvert que tu étais aussi spécialiste d’autres domaines. Peut-être pourrais-tu commencer par nous dire d’où tu viens.
TL : Je suis au départ juriste, en effet. Au début de ma carrière, j’ai été avocat pendant une courte période. J’’ai également étudié en parallèle la philosophie et l’anthropologie. Puis j’ai fait une thèse de droit assez tardivement, à 33 ans, à l’Institut Universitaire Européen de Florence sur les enjeux juridiques et philosophiques des rapports entre corps et prothèses. Je suis passionné par la question de la technique et du corps. Je pratique d’ailleurs le Tai Chi depuis des années. Ce qui me passionne, c’est surtout la rencontre entre l’être humain et les nouvelles technologies, d’un point de vue juridique bien sûr mais aussi anthropologique et philosophique.
B : Un de tes premiers travaux a porté sur les communautés de logiciel libre, plus particulièrement Debian.
TL : Oui. Ce travail reflète d’ailleurs bien la rencontre de mes intérêts croisés pour le droit et l’anthropologie. J’ai fait une étude anthropologique de la communauté dite virtuelle Debian. C’est une communauté très démocratique qui développe des systèmes d’exploitation basés exclusivement sur des logiciels libres. Elle est virtuelle parce que ses membres se rencontrent principalement sur Internet. C’était la première fois que j’avais vraiment l’occasion d’échanger avec des informaticiens. Dans mon labo d’alors, on travaillait sur le droit du numérique mais on ne parlait pas trop avec eux.
B : Tu as des compétences en informatique ?
TL : Je me vois un peu comme un « handicapé des machines » avec une grande soif de savoir parce que je n’y comprends pas grand-chose. Cela me pousse à poser des questions aux spécialistes. J’ai été bluffé par l’hyper-structure sociale et politique de la communauté Debian. J’ai d’ailleurs pu participer à cette communauté. C’était passionnant ! J’ai voulu comprendre comment ils fonctionnaient.
Ça a donné un livre. Ce genre d’études d’une communauté virtuelle était original pour l’époque. Avec le regain d’intérêt actuel pour les communs, cela vaut la peine d’aller regarder des communautés fondées sur cette notion de commun. Par exemple, à côté des communautés de logiciels libres, il y a des collectifs d’habitat groupé, des coopératives d’agriculture alternative ou des communautés d’éditeurs de Wikipédia. D’un point de vue anthropologique, ces initiatives interrogent l’essence même du concept de communauté. Comment peut fonctionner une communauté avec le don comme seule modalité d’échange et de coopération entre ses membres ?
B : Tu as aussi beaucoup réfléchi à l’ « augmentation » de l’humain avec la technique, et aux questions que cela pose en terme de justice ?
TL : D’abord, pour moi, une technologie n’augmente pas, elle transforme. Une simple note adhésive que nous utilisons au bureau n’ « augmente » pas la mémoire à proprement parler. Il permet d’organiser les tâches différemment, en transformant les actions à accomplir. Un sujet, par exemple, me passionne depuis ma thèse sur les prothèses : une fois la personne « transformée » par la technologie, que devient l’égalité ? Comment doit-on la traiter ? La technologie bouleverse les notions d’égalité et de mérite qui sont au cœur de nombreuses activités humaines. On peut parler d’Oscar Pistorius ou plus récemment de Blake Leeper, deux athlètes amputés équipés de prothèses souhaitant concourir au plus haut niveau aux côtés des « valides ». Mon ouvrage La prothèse et le droit (vous excuserez l’autopromotion) qui a remporté en France le prix du livre juridique en 2016, aborde ce type de questions. Maintenant, avec l’IA, on va de plus en plus loin et cela questionne radicalement la nature de certaines activités qui étaient autrefois l’apanage exclusif des humains.
Surveillance numérique @serab
B : Pour prendre un exemple concret de question que cela pose, des outils informatiques notamment basés sur l’IA aident les employés des entreprises. Mais ils posent aussi des problèmes en termes de surveillance excessive des employés. Comment gérer cela ?
TL : Dans l’entreprise, on propose des outils pour organiser et faciliter le travail, pour optimiser la coordination et l’effectuation des tâches. Mais ces outils peuvent aussi servir à de la surveillance. Est-ce que les avantages apportés par cette transformation du travail et du rôle de l’employé compensent les risques de surveillance qu’ils introduisent ? La loi devrait être là pour dissuader de certaines formes disproportionnées de contrôle des employés, mais le juriste d’aujourd’hui doit aussi être conscient des limites du droit face à l’ambivalence intrinsèque des technologies,. Je n’ai pas de solution pour empêcher les abus de ces technologies parce que celles-ci sont si géniales qu’on ne les voit pas, qu’elles opèrent en toute discrétion, et qu’on ne sait pas comment elles fonctionnent. J’ajouterais même que plus grand est leur confort d’utilisation, plus elles « disparaissent ». Cette invisibilité rend les modes de résistances juridiques ou autres difficiles à mettre en œuvre.
B : Cette invisibilité est quand même relative. Avec le numérique, on peut garder des traces de tous les traitements. On pourrait argumenter que le numérique est au contraire beaucoup plus transparent.
CL : C’est là que ça devient intéressant. Il faudrait distinguer des régimes suivant la visibilité d’un processus. Du point de vue de l’employé, s’il ne peut pas voir la surveillance, le processus de surveillance est transparent. C’est en cela que je parle d’invisibilité car les effets de la technologie ne s’éprouvent plus, à travers le corps et les sens. Et avec l’IA, on ira vers encore plus d’invisibilité en ce qu’on ne sait souvent même pas expliquer les choix des logiciels. Je pense que c’est un sujet à étudier.
B : Qu’est ce qui pourrait débloquer la situation ?
TL : L’anthropologie. (rire) Une alliance entre des informaticiens, des philosophes, des juristes… On est par essence en pleine interdisciplinarité. Les questions ne sont pas philosophiquement nouvelles. Mais, plutôt que d’en parler abstraitement, il faut s’attaquer à des questions précises sur des pratiques, dans des situations d’usage. Pour moi, la recherche a aujourd’hui atteint un seuil. D’un point de vue juridique ou éthique, elle tourne en rond en ressassant les mêmes questions et principes. Plutôt que de disserter sur l’éthique de l’IA d’une manière désincarnée, plutôt que de proposer un énième réflexion sur le dilemme du tramway et les véhicules autonomes… il faut envisager les choses de manière empirique et poser des questions en situation.
Par ailleurs, pour développer une éthique de l’IA, il faudrait se mettre d’accord d’abord sur une véritable méthodologie et l’appliquer ensuite en faisant collaborer des points de vue interdisciplinaires. Comme toute discipline, l’éthique ça ne s’improvise pas et, dans l’histoire récente, nous ne sommes qu’aux premiers balbutiements d’une coopération entre sciences humaines et sciences dures.
B : Qu’est-ce que le juriste peut nous dire sur le contentement éclairé et libre ?
TL : C’est un des points les plus problématiques à la fois d’un point de vue juridique et philosophique pour les technologies du 21e siècle. Le problème
Contentement totem @serab
c’est l’idée même que l’être humain pourrait exprimer un choix éclairé et libre dans ces nouveaux contextes ; les deux adjectifs étant essentiels.
Comment le consentement peut-il être « éclairé » ? L’utilisateur ne s’intéresse pas vraiment au fonctionnement des technologies qu’il utilise quotidiennement et on ne l’encourage pas à comprendre ce qu’elles font ou ce qu’elles lui font faire. On lui propose des services user-friendly et cette amitié « machinique » implique des routines incorporées, un aspect prothétique fort, une forme d’hybridation. Dans ce contexte, il est difficilement envisageable d’interrompre le cours de l’action pour demander à chaque fois un consentement, en espérant en plus que ce consentement ait un sens.
Il faudrait aussi parler du caractère « libre » du consentement. Avec les GAFAM, quelle est la liberté de choix face à un tel déséquilibre de pouvoir et d’information ? Avec Facebook, par exemple, vous devez accepter des CGU qui peuvent changer par simple notification. Et quel adolescent a vraiment le choix d’aller ou non sur Facebook ? Le choix n’existe plus d’un point de vue sociologique car se passer de Facebook pour un jeune c’est synonyme de mort sociale.
Si le RGPD a fait un peu avancer les choses, l’accent qui continue d’être mis sur la notion de consentement éclairé et libre est problématique. Avec la complexité de l’informatique, c’est la fiction du sujet rationnel, autonome, capable de consentir qui s’effondre. Depuis toujours, le droit est friand de fictions ; elles lui permettent d’appréhender la complexité du réel et de gérer les litiges qui en résultent. Aujourd’hui, il faudrait sans doute en inventer d’autres, car la magie du consentement dans l’univers numérique n’opère plus.
« Vous avez consenti, alors c’est bon ». Vous acceptez de vous livrer gracieusement à la bienveillance des plateformes qui prennent les décisions à votre place. C’est peu satisfaisant. Vous pouvez aussi attendre de l’informatique qu’elle vous aide. Oui, mais ça n’existe pas encore.
Antoinette Rouvroy parle de « fétichisation des données personnelles ». On devrait aussi parler de fétichisation du consentement. On ne peut continuer à mettre autant de poids dans le consentement. Il faut imposer des contraintes beaucoup plus fortes aux plateformes.
B : Tu as parlé d’aide apportée par l’informatique. Peut-on imaginer des systèmes informatiques, des assistants personnels, des systèmes d’information personnelle, qui nous aident à exprimer nos choix ?
TL : Bien sûr, on peut imaginer une collaboration entre les machines et l’utilisateur. Mais il faudrait déjà que l’utilisateur ait les capacités de spécifier ce qu’il veut. Ce n’est pas évident. Qu’est-ce que cela représenterait pour un jeune, par exemple, de spécifier sa politique d’autorisation de cookies ?
B : Est-ce qu’on peut parler de personnalité juridique du robot ?
TL : C’est compliqué. La question fondamentale c’est de savoir si la notion de personnalité en droit procède de la simple pragmatique juridique, ou si c’est plus, si cela inclut une véritable valeur philosophique. Pour prendre un exemple, un chien d’aveugle est blessé par une voiture. Le juge a considéré ce chien comme une « prothèse vivante », une extension de la personnalité de l’aveugle. Cette construction lui a permis de donner une meilleure compensation car les régimes d’indemnisation diffèrent selon qu’il s’agisse d’une atteinte à l’intégrité physique d’un individu ou d’un dommage aux biens qu’il possède. Le droit ne dit pas ontologiquement si ce chien d’aveugle est une personne ou pas. C’est le contexte et la visée de justice qui ont conduit le juge à créer cette chimère. Pour ce qui est des robots, je pense, avec les pragmatistes, que l’on pourrait accorder une forme de personnalité aux robots. Il ne s’agit pas de dire qu’un robot est comme une « personne physique » et qu’il peut jouir de droits fondamentaux, par exemple. Non, c’est une autre forme de personne, un peu comme on l’a fait avec les « personnes morales ». Cela permettrait de résoudre des problèmes en matière de responsabilité.
B : Quelle est le sujet de recherche qui te passionne en ce moment ?
CL : Je travaille sur la notion de prédiction algorithmique ; ce qui va me donner beaucoup d’occasions de travailler avec des informaticiens. Il y a aujourd’hui une véritable obsession autour des vertus prédictives de l’intelligence artificielle. Je trouve dingue l’expression « prédiction en temps réel » (nowcasting en anglais) ; une prédiction, c’est pour le futur. Comme anthropologue, je suis passionné par l’idée de comparer la prédiction algorithmique avec les pratiques divinatoires, qui restent encore très répandues. Dans son ouvrage « De divinatione », Cicéron s’attaquait à la question de l’irrationalité de la divination. C’est fascinant de voir qu’on rejoue au 21e siècle cette même question de la rationalité scientifique avec l’intelligence artificielle. C’est ça que j’essaie de comprendre. Comment est-ce qu’on part de résultats d’IA pour établir des savoirs prédictifs quasiment indiscutables ? Bien sûr, on peut comprendre la prédiction algorithmique quand elle s’appuie sur des validations expérimentales, qu’elle établit des taux de confiance dans les résultats. Mais on voit aussi se développer des prédictions algorithmiques qui par certains aspects rejoignent plus les pratiques magiques que scientifiques.
En raison de la situation sanitaire, Inria a fait vivre aux petit·e·s et grand·e·s une Fête de la Science 100% … dématérialisée début octobre 2020. Comment s’est déroulée cette suite d’échanges en ligne ? Même si beaucoup d’entre nous sont devenu.e.s utilisateurs de solutions largement répandues comme Zoom, Teams, GoToMeeting… comment les met-on en œuvre ? Comment respectent-elles la souveraineté ou la maîtrise de nos données ? Comment minimiser leur impact environnemental ? Benjamin Ninassi, qui était aux manettes de cet événement, nous raconte les coulisses et apporte des éléments de réponse à ces questions importantes. Pascal Guitton & Thierry Viéville.
Au fait, qu’est ce que la fête de la science ?
Tous les ans, les établissements de recherche français ouvrent leurs portes au grand public (ou vont à la rencontre du public) pendant quelques jours pour échanger sur leurs travaux sous forme de partages scientifiques ou d’activités ludiques. Cette année, le contexte sanitaire a rendu difficile voire impossible la tenue de ces événements dans les laboratoires et les universités. Ce fut alors l’opportunité de proposer pour la première fois au sein d’Inria une coordination nationale de l’événement, transverse à l’ensemble des huits centres de recherche, en offrant un contenu 100% dématérialisé et néanmoins 100% en direct live !
En effet, l’un des aspects très apprécié par le public de la fête de la science est la possibilité de dialoguer, de questionner en direct les scientifiques. Nous souhaitions conserver cette richesse malgré la distance imposée par l’utilisation d’outils numériques. Pas juste pré-enregistrer des vidéos, donc, mais bien produire en direct du contenu de qualité, permettant des interactions avec le public. Nous nous sommes alors penchés sur la question … car il y avait plusieurs défis techniques à relever !
Concrètement, en quoi consistait ces défis ?
Pour produire ces événements en direct, nous avions trois besoins essentiels :
– Permettre aux intervenant·e·s, et aux animateur·e·s, réparti·e·s sur tout le territoire, d’échanger comme s’illes étaient dans une seule et même pièce.
– Réaliser le montage vidéo en direct de l’intervention, à l‘image d’une régie de télévision.
– Offrir la possibilité au grand public d’échanger avec les scientifiques, en toute simplicité et en respectant la conformité avec les règles de protection de notre vie privée inscrites dans le RGPD.
Pour y répondre, nous avons pu nous appuyer sur les outils que nous avions mis en place pour nous adapter au contexte sanitaire depuis le mois de mars, dans la continuité de l’action du projet “Parlons Math”.
Vous avez donc réuni les intervenants dans une pièce virtuelle ?
Oui, pour relever ce défi, nous avons effectivement mis en place un “salon virtuel” : un outil de visioconférence permettant ainsi aux différentes intervenant.e.s d’interagir entre eux comme si elles étaient sur un plateau de télévision. Nous souhaitions également privilégier une solution open source et hébergée sur des serveurs français, dans une logique de souveraineté et de sobriété.
Nous avons eu la chance de pouvoir bénéficier de l’étude comparative de différentes solutions, réalisée quelques semaines avant par l’association Animath qui nous a été d’une grande aide par ses retours d’expériences très riches. C’est donc vers le logiciel open sourceBigBlueButton, initialement développé par des universitaires canadiens pour la formation à distance, que nous nous sommes tournés. Il offre à la fois les meilleures performances, une simplicité d’installation et d’administration, et un plus grand panel de fonctionnalités que ses concurrents actuels.
Le logiciel lui-même est une chose, mais nous voulions également une solution d’hébergement qui soit fiable, robuste, adaptable à l’évolution de nos besoins et localisée en France. Ce dernier point est non seulement important une logique de souveraineté, mais également de privacy by design, c’est-à-dire de veiller dès la conception d’une plateforme au respect de la vie privée des utilisateurs par exemple en conservant leurs données sur le territoire national.
Il est hélas communément admis que le numérique est “juste” virtuel, mais la réalité est tout autre : le numérique repose sur des infrastructures physiques et toute action réalisée dans un logiciel a directement un impact matériel. Ces infrastructures possèdent naturellement des limites qui, une fois dépassées, rendent les logiciels inutilisables. Dans le cas de la visioconférence, la principale ressource limitante est le temps de calcul disponible sur les processeurs du serveur . Une fois la saturation atteinte, l’utilisation est dégradée pour tous les utilisateurs de la plateforme (déconnexion, perte de stabilité, vidéo figée et/ou pixelisée ou son haché).
Notre besoin étant lié à de l’événementiel, il est très fluctuant : il était essentiel que nous puissions redimensionner notre infrastructure rapidement et en toute autonomie. Nous avons donc sélectionné un hébergeur professionnel (Scaleway) avec des serveurs localisés en France, capable de nous fournir la fiabilité, la sécurité, ainsi qu’une très grande souplesse et autonomie dans notre utilisation, le tout à des prix très compétitifs.
Après avoir affiné les procédures d’installation et d’intégration au contexte de l’hébergeur, il est devenu assez simple de déployer en quelques minutes notre propre serveur de visioconférence. Une première étape de franchie, notre salon virtuel dédié était opérationnel !
Une seconde difficulté est très vite apparue : les micros intégrés des équipements informatiques sont de qualités très inégales, de même que les connexions internet des différents intervenants. Il a ainsi fallu faire un certain nombre de tests techniques préparatoires individuels avec chacun d’entre eux, afin de déterminer les conditions idéales de connexion. Nous avons également eu recours, quand c’était nécessaire, à des hauts parleurs de conférence permettant de capter un son de bonne qualité tout en limitant l’écho. Ce type de matériel est largement démocratisé aujourd’hui, et en y ajoutant une bonne webcam il est possible d’équiper un espace dédié aux visioconférences avec une prise de son et d’image de bonne qualité pour un peu plus d’une centaine d’euros .
Le salon virtuel bigbluebutton juste avant le direct d’Hélène Barucq
Un peu comme à la télévision ?
Oui, il ne fallait donc pas juste diffuser un salon de visioconférence ; l’objectif était de produire un contenu qui soit agréable à regarder et à écouter. Il nous semblait important de travailler sur les médias de diffusion autant que sur le contenu des échanges. Pour autant, il était impensable d’imaginer réunir les personnes en charge du montage et de la diffusion sur un plateau : nous avons donc également virtualisé la régie.
Là encore nous avons privilégié la piste d’une solution open source (OBS Studio) disponible sur tous les systèmes d’exploitation. Ce logiciel offre, de manière intuitive, un grand nombre de fonctionnalités de montage vidéo. Il permet par exemple d’assembler sur une même scène une image de fond, sur laquelle on vient superposer les flux vidéos et audios des caméras des différents protagonistes. L’utilisateur peut également préparer plusieurs scènes à l’avance : la mire de début d’une émission, le lancement du jingle, une scène d’introduction avec les caméras des protagonistes affichées sur un infodécor, une autre scène présentant une caméra mobile ou des planches d’une présentation, une illustration ou une démonstration logicielle, etc.
Grâce à cet outil, nous avons ainsi pu créer un contenu dynamique, c’est-à-dire avec des plans de vue qui évoluent en fonction du déroulé, des changements de lieux, etc. Par exemple lors des deux interventions sur la robotique, nous alternons des scènes très diverses comme l’affichage ponctuel de la caméra mobile utilisée dans la vidéo de Serena Ivaldi sur les cobots, ces robots qui interagissent avec nous au quotidien, pour nous faire visiter la hall de robotique dans laquelle elle travaille, ou bien comme les déplacements réels du robot de la démonstration dans la vidéo de Jean-Pierre Merlet, sur les robots parallèles à câbles, juxtaposés à sa trajectoire théorique.
L’une des 3 “régies” en pleine diffusion
Serena Ivaldi nous fait visiter la halle de robotique du centre Inria – Nancy Grand Est à l’aide d’une simple caméra USB
Le logiciel intègre toutes les fonctionnalités permettant la diffusion en direct du flux vidéo ainsi généré, sur différentes plateformes de diffusions comme Youtube ou Twitch. Nous avons aussi prévu un diffuseur de secours, avec OBS Studio et les scènes préparées sur son poste de travail, prêt à prendre la relève en cas de soucis de connexion ou de matériel avec le diffuseur initial.
Mais nous pouvons aussi nous passer de plateforme propriétaires comme Youtube ou Twitch. À cette fin, nous avions déployé un second serveur dédié à la réception et à la diffusion du flux vidéo qui offre une alternative. Diffuser les vidéos sur la chaîne Youtube InriaChannel, n’est donc pas une contrainte technique, mais un choix éditorial.
Et comment le public pouvait-il participer ?
Pour reproduire toute la saveur du présentiel, le public était en mesure de poser des questions aux scientifiques de manière simple, sans nécessiter une connexion à un média quelconque. Être le plus inclusif possible faisait partie de nos priorités. Nous avons donc mis au point une page web adaptative, accessible à la fois sur un ordinateur, une tablette ou un smartphone, agrégeant le flux vidéo et un canal de discussion léger et ouvert à tou·te·s. Ainsi, tout spectateur pouvait interagir simplement en un clic. Un modérateur animait les discussions textuelles, et relayait oralement les questions aux intervenants, afin que l’enregistrement du direct contienne bien les questions et les réponses pour un visionnage ultérieur.
Nous avons également expérimenté l’usage d’un outil libre de quizz externe, mis à disposition par Framasoft qui rassemble les acteurs du libre en France, afin d’augmenter l’implication du public.
La page web dédiée au direct d’Antoine Rousseau, “Immersion au cœur d’un Tsunami”, où le public pouvait interagir pendant l’intervention, sur la simulation et la visualisation de tsunamis à partir de modèles géophysiques
Finalement, quelles étaient les ressources humaines impliquées ?
Sur les aspects techniques, une fois les plateformes logicielles en place, nous nous sommes relayés à trois pour assurer l’ensemble des tests techniques et des quatorze diffusions. Les animateur·e·s, modérateur·e·s et intervenant·e·s étaient propres à chaque intervention avec une coordinatrice nationale et un relais local.
Le coût matériel de l’ensemble de l’opération est également très léger, à peine quelques centaines d’euros en incluant la location des serveurs. Toutes les technologies open source mises en œuvre sont bien documentées et largement accessibles à qui voudrait se lancer dans l’aventure de la dématérialisation d’événements, de conférences, de formation. …
A vous de jouer !
Benjamin Ninassi (ingénieur de recherche au sein de la direction générale déléguée à la science d’Inria)
Vous pouvez retrouver l’ensemble des vidéos produites sur la playlist dédiée sur la chaîne youtube InriaChannel.
ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ici le 3ème volet de ses recommandations, celles qui concernent la formation au numérique en education. Serge Abiteboul
Dans le cadre des Etats généraux du numérique pour l’Éducation, Inria a émis plusieurs recommandations et a choisi ToutEduc pour leur présentation. Nous avons publié le premier volet sur la recherche (ici) et le second volet sur l’action publique (ici). Voici le troisième volet, relatif à la formation aux compétences de base du numérique ainsi qu’aux usages du numérique tant pour les enseignants que les citoyens. A venir une présentation du « Livre blanc » d’Inria sur les enjeux et défis du numérique pour l’éducation.
La formation au numérique : un enjeu fondamental, un défi colossal.
Il est urgent de ne plus attendre (1) pour initier nos enfants aux fondements du numérique afin qu’ils puissent appréhender au mieux le monde d’aujourd’hui sans uniquement être dans une posture de consommateurs, voire y être aliénés. Ce travail a commencé : introduit progressivement (2) dans l’enseignement secondaire (et aussi primaire), tous·tes les élèves en classe de seconde des lycées généraux et technologiques sont maintenant initié·e·s à la science informatique et aux technologies du numérique, abordant aussi les aspects sociétaux, tandis qu’une vraie formation à l’informatique est proposée parmi les spécialités de fin de lycée. Mais la maîtrise des usages des outils numériques s’est révélée primordiale pendant la crise sanitaire et le travail à distance qui s’est imposé continuera à être utilisé dans la durée. De plus, les différences dans les usages développés par les enseignant·e·s peuvent également être un facteur d’inégalité. Des élèves n’ont pas le même accès aux mêmes types d’activités selon le degré d’accessibilité et d’intégration du numérique de leurs enseignant·e·s. On voit donc combien il est urgent et essentiel d’accompagner l’ensemble des enseignant·e·s dans leurs compétences numériques et dans leur capacité à faire un usage raisonné et éclairé du numérique pour soutenir les apprentissages notamment dans une optique de réduction des inégalités.
Les besoins sont immenses et au-delà des enseignant.e.s, ils nous concernent toutes et tous. Il est urgent de considérer la maîtrise des fondamentaux du numérique comme faisant partie de la culture du citoyen du XXIème siècle. Qu’est-ce qu’une donnée ? Un algorithme ? À quoi sert la programmation ? Comment une machine calcule ? en sont des éléments essentiels. Il s’agit de réaliser une alphabétisation au numérique en contribuant au développement des compétences transversales comme la pensée informatique ou les compétences numériques auprès du plus grand nombre.
La formation au numérique est un enjeu citoyen qui doit donner lieu à des actions visant à développer la culture numérique et les compétences numériques des différentes catégories d’âges et de métiers. Cette formation est particulièrement critique pour les décideurs et décideuses dans les choix d’investissement notamment liés au numérique éducatif dans les collectivités territoriales et à l’échelle nationale. Il s’agit donc de nous former, tous et toutes, en commençant par nos enfants. Et pour cela, il faut commencer par les professionnels de l’éducation (enseignant·e·s et les cadres de l’éducation).
Une première priorité : la formation des professionnel·le·s de l’éducation.
Au-delà de la nécessaire formation aux fondamentaux de l’informatique, les professionnel·le·s de l’éducation doivent développer leur capacité à analyser les différents usages du numérique dans le contexte des différentes tâches de leur métier. Ils doivent également savoir intégrer différents types d’outils numériques (3) afin de les utiliser de manière la plus pertinente possible et créative dans leur activité pédagogique, comme une analyse au niveau européen (4) le recommande très justement. La formation aux usages du numérique doit tenir compte tant des usages numériques déjà pressentis d’un point de vue éducatif (par exemple. les jeux sérieux ou éducatifs ayant été conçus avec une intention à la fois ludique et éducative), que des usages numériques généraux (p. ex. les tendances à utiliser les jeux numériques afin de permettre aux enseignants d’exploiter leur usage ludique pour en faire un usage pédagogique).
À ce titre, l’intégration au sein des INSPÉ (Instituts nationaux supérieurs du professorat et de l’éducation) de formations plus approfondies en informatique est essentielle, en particulier pour les futur·e·s professeur·e·s de la spécialité NSI (Numérique et sciences informatiques). Cela l’est aussi pour des formations plus larges en lien avec l’enseignement de SNT (Sciences numériques et technologie), et cela concerne tous les enseignant.e.s au sein de leurs différentes spécialisations. En effet, comment concevoir d’être face à des élèves ayant acquis des compétences et un usage éclairé du numérique, par des savoirs et savoir-faire au niveau de ses fondements, sans avoir reçu soi-même cette formation minimale ?
Nous recommandons des formations aux SNT pour tous et toutes, apprenants de tous niveaux et de toutes spécialités, ainsi que pour tous les formateurs, enseignant·e·s et cadres d’éducation. Cela n’est pas encore acquis, car cet enseignement sur le numérique n’est pas explicitement prévu dans les heures de formation de la nouvelle maquette du Master MEÉF (Métiers de l’enseignement, de l’éducation, et de la formation). Il faudrait également créer un RAP (réseau d’apprentissage personnel) pour développer une entraide et tirer profit des communautés de pratiques, pour soutenir le développement professionnel des personnels enseignants. Sur un autre plan, pour les personnels d’encadrement de l’Éducation nationale, une formation au management du numérique éducatif existe, incluant la mise en place d’une offre pédagogique numérique à destination de l’ensemble de la communauté éducative.
Ceci nécessite une augmentation importante du nombre d’heures consacrées à la formation des enseignant·e·s en exercice, avec une reconnaissance des heures de formation en ligne et de la participation aux communautés de pratiques. On notera que, dans le cadre de la réorganisation annoncée de Réseau Canopé, la formation continue des enseignants sera l’une de ses missions principales.
Par ailleurs, le besoin de formation en pédagogie des ingénieures et ingénieurs pédagogiques produisant des ressources éducatives, est également important. En effet, la création de ressources numériques interactives, parfois utilisées en autonomie ou en semi-autonomie, déporte la création pédagogique beaucoup plus dans la phase de développement de la ressource (conception amont) que sur son utilisation (usage aval). Il est donc essentiel de former ces professionnel·le·s à la fois à la didactique des disciplines enseignées et aux leviers pédagogiques, en les rendant capables de scénariser et de faire un usage critique et éclairé du numérique. Des actions de formation innovantes de type SmartEdTech (6) permettent, tant à des professionnel·le·s issu·e·s du monde de l’éducation qu’à ceux venant du monde industriel du numérique, de développer collectivement une approche interdisciplinaire dans les projets EdTechs, intégrant de manière opérationnelle les savoir-faire des deux communautés.
Une seconde priorité : faire « université » de manière citoyenne autour du numérique.
Ce sera dans plusieurs années qu’une génération d’élèves aura progressivement acquis les compétences nécessaires pour maîtriser collectivement le numérique, au fil des formations de leurs enseignant·e·s. Il faut agir aussi dès maintenant au niveau de la formation tout au long de la vie. Bien sûr, il faut construire des formations adaptées selon les branches professionnelles et les besoins générationnels mais surtout, il faut envisager des formations de base pour les citoyens et les citoyennes de notre pays.
Il est important que ces formations citoyennes se fassent en regard d’un référentiel de compétences indépendant des certifications liées à des produits commerciaux eu égard à des questions de souveraineté. Aussi, nous proposons que la certification PIX (5) soit la référence française en matière de compétences culturelles de base en informatique.
Pour illustrer la stratégie que nous proposons, citons un pays, la Finlande qui a mis en place une formation en ligne de 50 heures à destination privilégiée des cadres du pays (1% de la population), mais accessible à l’ensemble de la population, afin de comprendre les bases de l’intelligence artificielle et des enjeux sociétaux induits par ces technologies disruptives (cette formation est également disponible en français (7)).
En France, la formation https://classcode.fr/iai, qui met l’accent sur des activités ludiques, concrètes et faciles à partager, devrait permettre d’inclure le plus grand nombre et pourrait servir de base à une formation plus large en complément d’autres formations moins techniques comme Objectif IA venant offrir une première entrée culturelle sur ces sujets.
Au-delà de ces ressources, il faut créer un espace de partage et de réflexion collective sur ces sujets. Dans cette optique, la notion d’ ‘université citoyenne et populaire du numérique en ligne’ adossée à un maillage d’initiatives territoriales, pourrait s’appuyer sur les succès d’initiatives déjà déployées en France, par exemple, Class’Code (8), engagée par Inria et ses partenaires en 2016 ou encore mobilisant les entreprises du numérique pour engager leur personnel dans des actions et en prenant appui sur celles qui le font déjà, Concrètement, il s’agit de passer de la formation des enseignant·e·s à la formation de toutes les citoyennes et tous les citoyens, labellisée et attestée, pour couvrir un besoin de formation à la pensée informatique tout au long de la vie, à travers une démarche partenariale et collective implémentée par l’action collaborative de ses partenaires. De façon hybride (en ligne et sur les territoires) on vient y satisfaire sa curiosité, discuter des questionnements posés par ces sujets, et surtout relier à son quotidien – p. ex. à l’aide de démarches de maker ou d’autres dans des tiers lieux – ces techniques pour les apprivoiser, cette offre se mettant au service des structures existantes comme détaillé par l’association EPI (9).
Conclusion
Selon une étude France Digitale-Roland Berger (10), la France était en 2019 en tête des investissements dans l’Intelligence Artificielle – levier du numérique de demain – en Europe avec un doublement des fonds levés par rapport à 2018, et l’Europe elle-même se positionne très fortement sur ces sujets. Notre pays a aussi fait le choix crucial de ne pas s’en remettre aux grands acteurs industriels du numérique, mais de former ses jeunes générations, de gagner son indépendance pour choisir son avenir en ce ‘temps des algorithmes’ (11). Nous voilà en bonne voie de réussite et finalisons le travail commencé afin de relever ce défi.
Gérard Giraudon (Inria) Pascal Guitton (Université de Bordeaux & Inria), Margarida Romero (Université Côte d’Azur), Didier Roy (Inria & LEARN EPFL) et Thierry Viéville (Inria) se sont associés pour la rédaction de cette tribune.
NOTES
(1) L’enseignement de l’informatique en France – Il est urgent de ne plus attendre, rapport de l’Académie des Sciences, 2013 ici
(2) Le numérique pour apprendre le numérique ? Blog binaire de LeMonde.fr, 2020 (ici)
(3) Le référentiel de compétences des métiers du professorat et de l’éducation, 2013 (ici)
(4) Recommandation du conseil de l’Euope relative à des systèmes de qualité pour l’éducation et l’accueil de la petite enfance, 2019 (ici)
(7) Un cours en ligne gratuit – Elements of AI (ici)
(8) Cette action de formation hybride offre un maillage du territoire au sein de tiers-lieux permettant de faire coopérer les acteurs de terrain. Après quatre ans de déploiement, plus de 80 000 personnes ont été formées, plus de 70 partenaires dans 10 régions métropolitaines et en outre-mer participent à des niveaux divers et plus de 430 000 internautes ont accédé aux ressources – librement réutilisables – proposées (ici)
(9) Apprentissage de la pensée informatique : de la formation des enseignant·e·s à la formation de tou·te·s les citoyen.ne.s, EPI, 2019 (ici)
(10) La France en tête des investissements européens dans l’IA en 2019, maddyness.com 2019 (ici)
Victor Storchan (VS): Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?
L’équipe de Class´Code (CC): Il s’agit d’offrir une initiation à l’Intelligence Artificielle via une formation citoyenne, gratuite et attestée https://classcode.fr/iai, dans le cadre d’une perspective « d’Université Citoyenne et Populaire en Sciences et Culture du Numérique » où chacune et chacun de la chercheuse au politique en passant par l’ingénieure ou l’étudiant venons avec nos questionnements, nos savoirs et savoir-faire à partager.
Très concrètement on y explique ce qu’est l’IA et ce qu’elle n’est pas, comment ça marche, et quoi faire ou pas avec. On découvre les concepts de l’IA en pratiquant des activités concrètes, on y joue par exemple avec un réseau de neurones pour en démystifier le fonctionnement. On réfléchit aussi, ensemble, à ce que le développement de l’IA peut soulever comme questions vis-à-vis de l’intelligence humaine.
CC: La cible primaire est l’ensemble des personnes en situation d’éducation : enseignant·e, animateur·e et parents, qui doivent comprendre pour re-partager ce qu’est l’IA. C’est —par exemple— abordé au lycée dans les cours de sciences de 1ère et terminale, c’est abordé de manière transversale dans les enseignements d’informatique et présent dans de nombreux ateliers extra-scolaires.
Par extension, toutes les personnes qui veulent découvrir ce qu’est l’IA et se faire une vision claire des défis et enjeux posés, ceci en “soulevant le capot”, c’est-à-dire en comprenant comment ça marche, sont bienvenues. Et c’est de fait une vraie formation citoyenne.
VS: Quels sont les apports de votre cours pour ce public ?
Ce qui rend ce cours attrayant est une approche ludique et pratique avec une diversité de ses supports – vidéos conçues avec humour, tutos et activités pour manipuler (y compris avec des objets du quotidien) les mécanismes sous-jacents, des ressources textuelles pour aller plus loin, et des exercices pour s’évaluer. Toutes ces ressources sont réutilisables.
Ce qui rend ce cours unique, par rapport aux autres offres connues, est un forum pour échanger et des webinaires et rencontres en ligne ou en présentiel sur ces sujets, à la demande des personnes participantes : la formation sert de support pour des rencontres avec le monde de la recherche. Cette possibilité de dialogue direct entre personnes participantes, de proposer des ressources ou des liens en fonction des besoins est vécu comme un point majeur de cette formation.
VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?
CC: Ouvert en avril 2020, le MOOC Class’Code IAI “Intelligence Artificielle avec Intelligence” a attiré jusqu’à présent (mi-novembre) plus de 18800 personnes, dont beaucoup ont effectivement profité d’au moins un élément de la formation et délivré 1038 attestations de suivi. Il y a plus de 5300 personnes sur le forum et près de 600 messages échangés, beaucoup entre l’équipe pédagogique et les personnes participantes, mais aussi entre elles. Nos mooqueurs et mooqueuses se disent satisfaits à plus de 94%. Les rencontres en ligne attirent entre 50 et 100 personnes et sont vues par plusieurs centaines en replay. Les vidéos sont réutilisées au sein de plusieurs ressources numériques en lien avec les manuels d’apprentissage des sciences en première et terminale qui inclut le sujet de l’IA ou sur le sitelumni.fr de France Télévision (qq milliers de vues, mais pas de comptage précis).
Au niveau des perspectives, nous invitons les personnes à suivre ensuite par exemple Elements Of AI course.elementsofai.com/fr-be dans sa version francophone, pour se renforcer sur des éléments plus techniques, tandis que notre action s’inscrit dans la perspective de cette université citoyenne déjà citée.
VS: Comment vos ressources participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?
Nous avons deux leviers principaux. Le premier est de dépasser les idées reçues (les “pourquoi-pas”) sur ce sujet et d’inviter à distinguer les croyances, les hypothèses scientifiques (qui pourront être infirmées, contrairement aux croyances qui ne seront jamais ni fausses, ni vraies), des faits avérés. Pour développer l’esprit scientifique il est particulièrement intéressant de montrer que, à l’instar de l’astrologie par exemple, il y a dans le domaine de l’IA l’émergence d’une pseudo-science qu’il faut expliciter et dépasser. Le second est de “comprendre pour pouvoir en juger”. Nous voulons aider les personnes à avoir une vision opérationnelle de ce qu’est l’IA, pas uniquement des mots pour en parler, de façon à réfléchir en profondeur sur ce qu’elle peut apporter.
Motivé par ladéclaration commune franco-finlandaise de “promouvoir une vision de l’intelligence artificielle juste, solidaire et centrée sur l’humain” nous pensons que la première étape est d’instruire et donner les moyens de s’éduquer.
VS: Quelles difficultés surmonte-t-on pour déployer un projet comme celui-ci ?
CC: Au niveau des moyens, forts de la réussite du projet Class´Code nous avons été soutenus sans souci par des fonds publics et avons eu les moyens des objectifs choisis.
Au niveau de la diffusion, il est moins facile de faire connaître notre offre qui est peu relayée médiatiquement, car le message est moins “sensationnel” que d’autres, nous construisons notre notoriété principalement sur les retours des personnes qui ont pu en bénéficier.
Au niveau des personnes, le principal défi est d’apaiser les peurs et d’aider à dépasser les idées reçues, parfois les fantasmes sur ces sujets : l’idée d’une intelligence qui émergerait d’un dispositif inanimé de la légende de Pinocchioau mythe du Golem est ancrée dans nos inconscients et c’est un obstacle à lever.
VS: Quels sont les bénéfices de la coopération entre partenaires de votre initiative, en particulier pour la réalisation d’un cours sur l’IA par nature interdisciplinaire ?
CC: Ils sont triples.
D’une part en associant des compétences académiques en sciences du numérique, neurosciences cognitives et sciences de l’éducation on se donne vraiment les moyens de bien faire comprendre les liens entre intelligence artificielle et naturelle, et d’avoir les bons leviers pour permettre d’apprendre à apprendre.
Par ailleurs, à travers Class´Code et plus de 70 de ses partenaires, on donne les moyens aux initiatives locales, associatives ou structurelles de disposer de ressources de qualité et de les co-construire avec elles et eux, pour être au plus près du terrain. Notre collaboration avec des entreprises d’éducation populaire de droit public comme La Ligue de l’Enseignement ou de droit privé comme Magic Maker, ou des clusters d’entreprise EdTech comme celles d’EducAzur montre aussi que les différents modèles économiques ne s’excluent pas mais se renforcent sur un sujet qui est l’affaire de toutes et tous.
VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ?
CC: Il y a de multiples facteurs qui dépassent notre action. Mais relevons en un qui nous concerne directement : celui d’éduquer au numérique et ses fondements, que nous discutons ci-dessous.
VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation (par exemple apprentissage de l’IA dans le secondaire) et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?
CC: Les liens entre IA et éducation sont doubles : éduquer par et au numérique comme on le discute ici en explicitant les liens entre IA et éducation au-delà des idées reçues qui sont bien décryptées montrant les limites de l’idée que le numérique va révolutionner l’éducation. Nous nous donnons avec ce MOOC IAI les moyens pour que nos forces citoyennes soient vraiment prêtes à relever ces défis. L’apprentissage scolaire de l’informatique est un vrai levier et un immense investissement pour notre avenir, et la France a fait ce choix d’enseigner les fondements du numérique pour maîtriser le numérique.
VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?
CC: Pouvoir se construire une éthique, c’est-à-dire se forger un jugement moral sur ce qu’il convient de faire ou pas avec l’IA, est en quelque sorte l’aboutissement de cette formation. Là encore cela passe par la compréhension de notions fines comme interprétabilité et explicabilité ou les causes des biais dans les mécanismes d’IA venant des données ou des algorithmes pour ne pas juste émettre des opinions superficielles à ce sujet. Aucun sujet technique n’est abordé sans que ces aspects éthiques ou sociétaux le soient comme c’est le cas en robotique.
D’un point de vue éthique, la responsabilité est toujours “humaine”, par exemple si on laisse l’algorithme décider, c’est notre décision de le faire : de déléguer la décision à un algorithme au lieu de la prendre soi-même, c’est un choix et c’est un humain qui doit faire ce choix. Si vous choisissez de “faire confiance” à une machine avec un algorithme d’IA, vous faites surtout confiance en votre propre jugement quant aux performances de ce mécanisme.
VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce que cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?
CC: C’est tout à fait le cas. On se pose souvent la question « symétrique » de savoir si une machine peut être ou devenir intelligente : le débat est interminable, car -en gros- il suffit de changer la définition de ce que l’on appelle intelligence pour répondre “oui, pourquoi-pas” ou au contraire “non, jamais”. La vraie définition de l’IA est de “faire faire à une machine ce qui aurait été intelligent si réalisé par un humain”, ce qui évite de considérer cette question mal posée.
En revanche, avec la mécanisation de processus cognitifs, ce qui paraissait “intelligent” il y a des années par exemple, le calcul mental devient moins intéressant avec l’apparition -dans ce cas- de calculettes. De même l’intelligence artificielle soulage les humains de travaux intellectuels que l’on peut rendre automatiques. Du coup, cela oblige à réfléchir à l’intelligence humaine en fonction et au-delà de ce que nous appelons la pensée informatique.
Par exemple, nous savons que plus le problème à résoudre est spécifique, plus une méthode algorithmique sera efficace, possiblement plus que la cognition humaine, tandis qu’à l’inverse plus le problème à résoudre est général, moins un algorithme ne pourra intrinsèquement être performant, quelle que soit la solution (no free lunch theorem). Il se trouve que les systèmes biologiques eux aussi ont cette restriction, l’intelligence humaine n’est donc peut-être pas aussi “générale” qu’on ne le pense.
VS: Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain ?
CC: En formant en profondeur les citoyennes et citoyens, nous nous donnerons « les moyens de construire un outil qui rend possible la construction d’un monde meilleur, d’un monde plus libre, d’un monde plus juste … » écrivent Gilles Dowek et Serge Abiteboul en conclusion du “temps des algorithmes”.
Que des robots assistent des personnes âgées pour reprendre leur exemple, sera un progrès, permettant de les maintenir chez eux, à leur domicile et dans l’intimité de leur dignité, mais si cela est vu uniquement comme un levier de réduction des coûts de prise en charge, ou un moyen de nous désengager d’une tâche parmi les plus humaines qui soit à savoir s’occuper des autres, alors la machine nous déshumanisera.
Cet exemple nous montre surtout, comme la crise sanitaire le fait aussi depuis quelques mois, que des circonstances exceptionnelles nous obligent à revoir en profondeur les équilibres que nous pensions acquis pour notre société. Quand, et cela est en train d’advenir, nous aurons mécanisé la plupart des tâches professionnelles qui sont les nôtres aujourd’hui, nous allons devoir organiser autrement la société.
Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse.
Grand merci à Inria Learning Lab pour avoir porté et adapté le MOOC sur FUN ainsi que pour le forum.
ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ici la suite de ses recommandations, celles qui concernent les EdTechs. Serge Abiteboul
Dans le cadre des Etats généraux du numérique pour l’Éducation, Inria a émis plusieurs recommandations et a choisi ToutEduc pour leur présentation. Nous avons publié le premier volet sur la recherche (ici). En voici un second relatif à l’action publique.
Les auteurs* de cette tribune veulent « mettre en exergue la nécessité d’engager l’Etat et ses opérateurs dans la création de cadre permettant à des écosystèmes de se développer et de créer des dynamiques collectives au bénéfice de tous les acteurs qu’ils soient publics ou privés en favorisant la mise en commun des forces et en favorisant la dynamique économique ». Il s’agit de « créer les conditions du développement et de la mise à jour de ressources éducatives numériques », celles-ci étant conçues comme des « biens communs ». Toutefois, les auteurs que cette notion n’exclut pas l’intervention d’opérateurs privés, puisque, aujourd’hui des structures qui n’ont pas de statut « public » diffusent en ligne du contenu éducatif librement accessible et ouvert au plus grand nombre sur la planète à l’instar de ce que ferait un « Etat planétaire ». La question ne porte donc pas tant sur l’opposition « public-privé » que sur la restriction (au sens « réserver à un petit nombre ») de l’éducation et surtout des contenus pédagogiques. Le « Savoir » a vocation à être à libre disposition de tous, et le contenu pédagogique qui permet d’enseigner ce savoir doit être accessible au plus grand nombre. La question est surtout « Qui doit garantir le respect de la qualité scientifique des contenus et des valeurs culturelles de la société des matières enseignées ? ». Qui maîtrise le contenu enseigné maîtrise en effet la culture de la société et ses valeurs. Plus qu’une opposition « public-privé » il s’agit donc surtout de souveraineté, estiment les auteurs.
La tribune
« Inria a beaucoup œuvré depuis la fin des années 1990 au développement du logiciel ‘open source’, notamment pour le développement d’infrastructures sur lesquelles la société numérique se construit et où l’on retrouve la question de biens communs (voir ici). Mais le développement de logiciels open source au sein de communautés de personnes n’empêche pas la création d’activités économiques autour de ces logiciels et même la création d’entreprises privées (dont les plus emblématiques travaillent autour de Linux) qui contribuent à un bien commun.
Il semble ‘évident’ qu’il soit nécessaire de créer des biens communs en éducation.
Mais, d’une part il faut que ces bien communs soient évolutifs et basés sur des ressources libres et éditables par les acteurs éducatifs ce qui n’empêche pas que ces acteurs puissent être des entreprises privées aptes à assurer au mieux la maintenabilité des solutions et leur pérennité si cela garantit la meilleure efficience avec le modèle économique qu’il convient de trouver dans les meilleurs équilibres ; l’innovation réside en grand partie sur ce point.
D’autre part, ces ressources doivent pouvoir être indexées de manière à faciliter leur usage par les enseignants. Actuellement, malgré l’existence d’une quantité très importante de ressources, la localisation de celles-ci et la capacité à trouver facilement les ressources nécessaires pour les différentes disciplines et niveaux éducatifs reste un défi.
Par ailleurs, certaines ressources sont limitées dans leur diffusion parce qu’elles ont été développées par peu de personnes et que, pour de multiples raison les mises à jour s’arrêtent, voire quelques unes disparaissent ou parce qu’elles ont été développées avec des technologies propriétaires qui n’interopèrent pas. L’accessibilité de toutes les REN (ressources éducatives numériques) relève d’un enjeu éducatif majeur pour s’assurer que les inégalités éducatives ne s’accentuent pas du fait des limites d’accessibilité des ressources. Il faut souligner que les situations de handicap aggravent ce problème d’accès aux ressources. Dans ce contexte, on parle alors de l’absence d’accessibilité numérique qui exclut de facto des personnes du droit élémentaire de tous les citoyens à la formation. Cette remarque peut être étendue à l’accès à l’information, au divertissement, à l’emploi via les outils numériques devenus incontournables aujourd’hui. Enfin, nous pouvons rappeler que cette exclusion est d’autant plus douloureuse à vivre et à constater que le numérique offre des solutions bénéfiques potentielles aux personnes en situation de handicap.
Garantir la portabilité des données personnelles éducatives et développer l’interopérabilité des solutions logicielles
Le règlement général sur la protection des données (RGPD) a été un acte fondateur en définissant le cadre juridique pour les données à caractère personnel des citoyens de l’Union Européenne. Ce règlement, construit sur les principes de ‘privacy by design’ (c’est à dire la prise en compte de la gestion de la confidentialité en amont, dès la conception du système, et non pas en aval une fois le logiciel développé) et de consentement individuel, garantit la portabilité des données pour chaque résident de l’UE qui est donc un droit exécutoire. À ce jour, aucun système, y compris au sein de l’Éducation nationale ou de l’Enseignement supérieur ne garantit cette portabilité. En effet, au motif que le cadre juridique autorise une exception à ce droit individuel dans le cadre de l’exercice du service public d’éducation, peu d’efforts sont faits pour permettre aux données personnelles d’éducation de circuler.
Difficile donc de concevoir qu’à l’âge où la plupart des productions individuelles des élèves se font par le numérique, on s’interdise de leur permettre de les conserver et réutiliser facilement ; chose qui paradoxalement, à l’âge du cahier papier semblait une évidence et était encouragée ! On se coupe ainsi d’une formidable opportunité de développement individuel et économique, pour le bénéfice de chacun des acteurs : élèves, enseignants, parents, chercheurs, et entreprises du secteur. Sans rentrer dans les débats techniques, des principes techniques existent en particulier via les systèmes de gestion des informations personnelles (PIMS) (1). Les PIMS permettent aux personnes de gérer leurs données à caractère personnel dans des systèmes de stockage sécurisés locaux ou en ligne et de les partager au moment et avec les personnes de leur choix. La start-up Inrupt, co-fondée par l’inventeur du Web, Tim Bernes-Lee, a été créée avec pour objectif de redonner aux internautes un plein contrôle sur leurs données et elle vient d’annoncer le lancement de son produit entreprise Solid (ici). Le cœur de l’action publique est alors de favoriser et de garantir la portabilité des données personnelles éducatives et nous recommandons la création du dossier de formation personnalisé permettant à tout apprenant de se réapproprier ses données d’éducation dans le contexte de société apprenante (2) (3) et qui s’inscrit pleinement dans la réforme du compte personnel de formation. Mais cela ne suffit pas car il faut aussi encourager voire imposer des standards pour l’interopérabilité des solutions logicielles, seule apte à garantir que toute solution technique ne tombe pas dans une escarcelle monopolistique quelle qu’elle soit dont on sait que c’est un frein à toute évolution, à toute innovation y compris dans le cadre d’une vision de ‘bien public’ (4).
Créer un observatoire des EdTechs
Nous proposons d’ailleurs de re-créer un observatoire des Edtechs. Une première initiative avait vu le jour en mars 2017 avec la création d’un Observatoire EdTechs porté par Cap Digital avec le soutien de la Caisse des dépôts et de la MAIF. Cet observatoire a permis de mettre en avant la dynamique des startups EdTechs mais n’a pas réussi, peut-être par manque de moyens et de maturité du secteur, à créer un observatoire des pratiques, des usages, de l’offre et de la demande dans le vaste champ de la formation (formation initiale et continue, etc.). Cet observatoire a été fermé en 2019.
Néanmoins, le besoin existe et va au-delà de la première version qui était essentiellement une liste statique d’entreprises des EdTechs. Actuellement, de très nombreux sites web fournissent des informations relatives au numérique éducatif : le très riche site Eduscol de l’Éducation nationale, le site de la DNE pour la veille et la diffusion des travaux de recherche sur le numérique dans l’éducation, les ressources pédagogiques développées par le CNED, les ressources de Canal U, l’initiative HUBBLE déjà citée, l’observatoire eCarto des territoires porté par la Banque des territoires, des observatoires d’académies (Paris, La Réunion, etc.), des sites d’associations d’entreprises (Afinef, EdTech France, EducAzur, etc.) Mais il n’y a pas à ce jour un observatoire qui permette d’agréger des informations, d’observer à l’échelle nationale des tendances et de mettre à disposition des données consolidées du numérique éducatif et encore moins d’avoir un travail de synthèse de référence et de parangonnage français et international (a minima dans l’espace francophone).
Aujourd’hui l’information sur le numérique éducatif est donc fragmentée et mélange contenus, solutions, informations, etc.
Aussi, nous recommandons de mettre en place un observatoire (français) des EdTechs pérenne sous la forme d’une plateforme web recensant les dispositifs utilisés dans l’enseignement et la formation, avec des évaluations quand elles existent, une cartographie des équipes de recherche travaillant sur le numérique pour l’éducation, une cartographie des entreprises du secteur et de leurs solutions, un blog listant les innovations du moment, etc.
Un tel observatoire doit être le reflet de l’écosystème français de l’usage des EdTechs et à ce titre il doit être construit en partenariat avec les associations d’entreprises et les clusters EdTechs régionaux mais aussi avec l’implication forte des acteurs de la formation (Éducation nationale, universités, écoles, etc.), du monde de la recherche et des collectivités territoriales. Cet observatoire devrait pouvoir jouer un rôle majeur de mise en relation avec des alter ego en Europe mais aussi dans ceux de l’espace francophone.
Pour porter une telle ambition, des moyens seront nécessaires mais il nous semble que pour garantir la neutralité et la pertinence de cet observatoire, il doit être porté par l’action publique à l’instar de ce qu’elle a réussi à faire avec PIX ; on pourrait par exemple réfléchir à le structurer avec les nouvelles missions actuellement envisagées pour le réseau Canopé et certainement avec la collaboration des ministères les plus concernés (MENJ, MESRI, MEIN).
* Les auteurs :
Gérard Giraudon (Inria). Pascal Guitton (Université de Bordeaux & Inria, Jean-Baptiste Piacentino (Edtech One), Margarida Romero (Université Côte d’Azur), Didier Roy (Inria & LEARN EPFL) et Thierry Viéville (INRIA) se sont associés pour la rédaction de cette tribune.
Notes
(1) « Managing your digital life with a Personal information management system », Serge Abiteboul, Benjamin André et Daniel Kaplan, Communications of the ACM, ACM, 2015, 58 (5), pp.32-35. hal-01068006
(2) « L’école dans la société du numérique », rapport n°1296 de la commission parlementaire des affaires culturelles et de l’éducation, rapporteur Bruno Studer, octobre 2018 (92 pages).
http://www.assemblee-nationale.fr/15/rap-info/i1296.asp
(3) « Un plan pour co-construire une société apprenante », François Taddei, Catherine Becchetti-Bizot, Guillaume Houzel, avril 2018 (88 pages).https://cri-paris.org/wp-content/uploads/2018/04/Un-plan-pour-co-contruire-une-societe-apprenante.pdf
(4) Les standards pour le numérique éducatif se sont développés au cours des dernières décennies, notamment en lien avec des plates-formes de formation (Learning Management Systems) par le biais des normes comme SCORM, AICC ou xAPI. Le standard Learning Technology Standards, IEEE-LTSC-LOM, permet également de décrire des objets d’apprentissage. Malgré le développement initial de SCORM, les standards restent encore trop peu intégrés dans de nombreuses ressources éducatives. Ces standards ne tiennent pas suffisamment compte des aspects pédagogiques et didactiques, bien que la LOM ou sa forme plus moderne la MLR (compatible avec le Web sémantique) intègre des éléments pédagogiques, sans vraiment faire office de standard. La plateforme edX y réfléchit car il est nécessaire de développer un standard si l’on veut disposer de normes plus largement utilisées. Le développement d’une terminologie commune en sciences de l’éducation comme le propose le « Lexicon project » est également un enjeu tant pour la recherche en sciences de l’éducation que pour le développement de solutions éducatives interopérables.
Nous vous l’avions annoncé ici, Victor Storchan va nous présenter trois initiatives de formation à l’intelligence artificielle (IA). Après « Elements Of AI« , c’est au tour de Théophile Lenoir, Responsable du programme Numérique et Milo Rignell, Chargé de l’innovation à l’Institut Montaigne de nous parler d’Objectif IA. Serge Abiteboul et Thierry Viéville.
Victor Storchan (VS): Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?
Théophile Lenoir et Milo Rignell (TL&ML): L’initiative Objectif IA a été lancée, d’une part, afin de déconstruire un certain nombre d’idées reçues tout en recentrant le débat sur les vrais enjeux de société et, d’autre part, pour permettre à notre pays et à nos entreprises d’être en mesure de se saisir des opportunités de l’intelligence artificielle (IA) et d’être compétitives à l’avenir.
C’est pour rendre l’IA accessible au plus grand nombre que nous avons développé une formation en ligne, gratuite, et qui ne prend que quelques heures à compléter.
Cette volonté s’accompagne d’un objectif concret : permettre à 1 % des Français de se former à l’IA grâce à Objectif IA.
VS: Quel est le public que vous visez ? Quels sont les apports de votre cours pour ce public ?
TL&ML: Objectif IA s’adresse à tous ceux qui souhaitent, en quelques heures, mieux comprendre cette technologie afin de participer activement à son développement au sein de notre société et dans notre quotidien.
Nous constatons néanmoins que la formation est particulièrement utile pour deux types de publics. Elle permet aux jeunes et aux personnes en reconversion professionnelle de découvrir les nombreux métiers de l’IA et de la donnée avant de s’y lancer ; et elle permet aux dirigeants et aux collaborateurs d’entreprises et de structures publiques de se saisir de cette technologie, à tous les niveaux.
VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?
TL&ML: En décembre 2020, 90 000 personnes avaient commencé la formation et 50 000 personnes, soit plus de la moitié, avaient complété l’ensemble des chapitres du cours et ainsi obtenu leur certificat de réussite.
Plus de 80 structures se sont par ailleurs engagées à former leurs collaborateurs – des entreprises de tous les secteurs, des régions, des acteurs publics comme Pôle emploi et la Gendarmerie nationale, des universités, des associations et d’autres acteurs de la société civile.
Fort de ce premier succèsen France, nous envisageons de proposer l’initiative à de nouveaux publics. La version anglaise du cours sera disponible à partir de février 2021 et permettra à Objectif IA d’élargir sa formation à l’échelle européenne, aux côtés d’autres initiatives existantes, mais aussi sur le continent africain, où plusieurs acteurs ont déjà exprimé un intérêt fort.
VS: Comment vos ressources participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?
TL&ML: Plusieurs sondages (Ifop, 2018 ; Ipsos, 2018) révèlent clairement la corrélation entre une meilleure connaissance et compréhension de l’IA d’une part, et la confiance envers elle d’autre part. La formation Objectif IA permet non seulement de mieux se rendre compte du potentiel de cette technologie pour la santé, l’environnement, le transport et bien d’autres secteurs, mais aussi de replacer les vraies questions sociétales au centre du débat public en démystifiant un certain nombre d’idées reçues. Trois chapitres sont ainsi expressément consacrés à resituer le potentiel de l’IA au-délà des mythes, à identifier ses enjeux éthiques et à évaluer son impact sur le travail.
Le projet entrepreneurial
VS: Quelles difficultés surmonte-t-on pour déployer un projet comme celui-ci?
TL&ML: A la différence de nombreux MOOCs, qui affichent des taux de complétion entre 5 % et 15 %, plus de la moitié des apprenants qui débutent Objectif IA complètent le cours, souvent en quelques heures seulement. L’enjeu est donc de convaincre de plus en plus de personnes de débuter le tout premier chapitre ! Cela se fait du bouche à oreille, mais aussi avec des soutiens et une mobilisation institutionnels.
VS: Quels sont les bénéfices de la coopération entre partenaires de votre initiative, en particulier pour la réalisation d’un cours sur l’IA par nature interdisciplinaire ?
TL&ML: Objectif IA a été développé au sein d’un partenariat, à première vue hétéroclite, inédit entre l’Institut Montaigne, la startup OpenClassrooms et la Fondation Abeona.
L’Institut Montaigne et la Fondation Abeona s’intéressent tous deux depuis longtemps aux enjeux de l’IA et nous avons travaillé ensemble à la production d’un rapport sur les biais algorithmiques, Algorithmes : contrôle des biais S.V.P. L’une des propositions fortes de ce rapport est notamment une sensibilisation large aux enjeux de l’IA. En tant que leader français de la formation en ligne et ayant déjà une offre conséquente de formations en ligne aux métiers du numérique, OpenClassrooms apporte une expertise pédagogique très riche et une plateforme qui recense plus de trois millions de visiteurs par mois.
Cette co-construction, à laquelle ont également participé des utilisateurs et des experts de l’IA, a permis de développer un contenu dont la qualité et l’accessibilité se retrouvent dans le pourcentage de personnes terminant le cours.
Les modèles d’écosystèmes
VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ? La dynamique européenne sur l’IA actuelle est-elle suffisamment ambitieuse ?
TL&ML: Disposant d’un précieux savoir-faire dans plusieurs secteurs industriels, les entreprises européennes ont de nombreux atouts pour prendre de l’avance – à condition de comprendre les enjeux numériques et d’IA et de développer des nouveaux usages dont dépendra leur compétitivité. C’est pourquoi il faut non seulement plus de personnes formées aux métiers de la donnée et de l’IA, aujourd’hui déjà en tension, mais aussi la mobilisation de l’ensemble des collaborateurs de ces groupes, en allant des instances dirigeantes aux collaborateurs qui interagiront avec ces nouvelles technologies, sans nécessairement qu’elles en constituent le métier.
Objectif IA met ces compétences en situation, en suivant pas à pas les étapes d’un projet d’intelligence artificielle et en passant par les différents métiers impliqués.
VS: Selon uneétude France Digitale-Roland Berger, la France était en tête des investissements dans l’IA en Europe avec un doublement des fonds levés en 2019 par rapport à 2018. Quelles sont les spécificités du modèle français ?
TL&ML: Il est difficile de tirer des conclusions des niveaux d’investissement en capital risque, qui dépendent des levées de fonds d’un petit nombre d’entreprises. 2019 a par exemple été l’année de la levée record de 230 millions de dollars par Meero, qui automatise l’édition de photos grâce à l’intelligence artificielle, soit 20 % des fonds levés en 2019.
Comparé à d’autres marchés, comme celui des Etats-Unis, en Europe la part d’investissements publics est plus importante et certains financeurs tels que les fonds de pensions et d’universités jouent un rôle considérablement réduit. En France par exemple, la Banque publique d’investissement (Bpifrance) joue un rôle particulièrement important.
Enfin, l’innovation en IA ne provient pas uniquement des levées de fonds de start ups. Le gouvernement a investi une somme non négligeable, 1,5 milliards d’euros sur cinq ans. Dans plusieurs secteurs, par exemple médicaux et industriels, la France dispose déjà d’acteurs qui investissent fortement en IA, bénéficiant en outre d’avantages fiscaux compétitifs.
VS: Votre initiative crée donc un lienéducation et IA, quels sont les liens à renforcer entre IA et éducation (par exemple apprentissage de l’IA dans le secondaire) et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?
TL&ML: Concernant l’éducation à l’IA, les niveaux de compréhension nécessaires varient considérablement selon les publics. Pour la majorité de la population, il est utile de comprendre les principaux enjeux, sans prendre plus de temps que les quelques heures de formation proposées par Objectif IA.
Dans le domaine de l’éducation, les professeurs doivent garder un rôle central. Des outils d’IA peuvent néanmoins soutenir leur travail en permettant un enseignement adapté aux besoins individuels de l’élève et en soulageant leur charge de travail. Dans le domaine de l’apprentissage de la lecture par exemple, des associations comme Agir pour l’école utilisent la reconnaissance vocale des sons que lit un élève pour permettre un apprentissage plus autonome et des exercices adaptés à son niveau de lecture.
VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière dejustice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?
TL&ML: Face aux risques de discrimination des algorithmes à fort impact, deux considérations importantes entrent en jeu : le point de départ auquel nous nous comparons, c’est à dire les biais humains déjà présents, et la possibilité de mesurer les résultats finaux pour détecter, et ainsi corriger, d’éventuels biais.
La formation Objectif IA consacre plusieurs chapitres de son cours à restituer les enjeux éthiques, non seulement en démystifiant certaines idées reçues, mais également en précisant les points de vigilance et en proposant des solutions concrètes aux enjeux d’utilisation des données, d’information, de décisions algorithmiques et de biais.
VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?
TL&ML: Les systèmes d’intelligence artificielle sont très performants lorsqu’il s’agit de certaines tâches précises. Cela peut donner l’illusion que l’IA évolue rapidement vers le niveau d’intelligence humaine, et ainsi développer une vision négative et menaçante de l’IA.
Si les résultats de systèmes d’IA continuent à s’améliorer à grands pas, dans la plupart des cas ces avancées sont liées aux progrès en matière de puissance de calcul, qui ne sont pas toujours synonymes d’une plus grande intelligence, au sens de l’intelligence générale.
Comprendre la différence entre les atouts de l’intelligence étroite des systèmes d’IA largement utilisés dans notre société, et ceux de l’intelligence générale, le “sens commun”, dont disposent les humains, est essentiel pour articuler au mieux les deux.
VS: Nous vivons autemps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain
Le recours de plus en plus massif aux algorithmes pour répondre à certains besoins quotidiens, tant au niveau individuel que collectif, est inévitable et doit être encouragé. Il existe néanmoins en France une défiance particulièrement forte envers les outils numériques – les difficultés du gouvernement à déployer l’application StopCovid (renommée TousAntiCovid) en est un exemple. Ces contestations mêlent parfois une variété d’enjeux posés par les outils numériques au sens large (protection des données personnelles, surveillance, transparence). Tout l’objectif d’Objectif IA est d’aider à démêler ces enjeux dans le cas de l’IA.
Théophile Lenoir, Responsable du programme Numérique, Institut Montaigne.
Milo Rignell, Chargé de l’innovation, Institut Montaigne.
ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ses premières recommandations, celles qui concernent la recherche. Serge Abiteboul
La clôture le 5 novembre dernier des EGNE, États généraux du numérique pour l’Éducation terminait un cycle de débats où de nombreux contributeurs ont pu exprimer leurs idées et leurs propositions notamment sur le site web participatif des EGNE.
Inria a publié fin 2020 un livre blanc sur les enjeux et défis du numérique pour l’éducation, a saisi l’occasion pour proposer sept recommandations (voir ToutEduc ici) que l’institut a regroupées en trois grandes thématiques : la recherche, la formation au et par le numérique et l’action publique. Nous avons jugé important qu’Inria, en tant qu’institut national de recherche en sciences et technologies du numérique, apporte sa contribution aux débats.
La synthèse des EGNE peut se résumer avec les 40 propositions réparties dans les cinq grands chapitres qui organisaient les débats (téléchargez le PDF). De nombreuses propositions font écho aux recommandations que Inria avait proposées et cette première tribune revient sur la thématique recherche et évaluation, qui correspond aux propositions 10 (1) et 32 (2).
Le numérique : science et technologie, industrie et culture.
Le numérique transforme le monde car comme toute « technique révolutionnaire » inventée par l’Humain, il transforme la société dans laquelle il a été inventé et intégré (3). Il est donc important de comprendre et d’anticiper cette transformation pour, a minima, tenter d’en éviter les inconvénients et surtout en tirer le plus grand bénéfice pour nous tous. En effet, la technique est a priori « neutre » ; cependant, un mauvais usage par l’Humain peut amener à de graves déconvenues. Le numérique – et en son cœur l’informatique – n’est pas qu’une technologie, c’est aussi une science, une industrie et maintenant une culture. C’est pour cette raison que nous cherchons à permettre à chacun de devenir acteur et non simple consommateur de cette transformation, pour permettre à chaque citoyen d’exercer ses droits et devoirs démocratiques. Pour cela il est indispensable d’aider chacun à acquérir un niveau minimal d’acculturation au numérique afin qu’il n’y soit pas aliéné.
C’est dans cette intention que Inria propose sa contribution sur la formation au numérique et par le numérique, face aux enjeux et défis éducatifs actuels. La recherche en sciences du numérique, en collaboration avec d’autres disciplines dans des approches transdisciplinaires, et au premier chef les sciences de l’éducation, les sciences cognitives et les neurosciences, doit contribuer à développer des travaux scientifiques où l’enjeu est de savoir travailler ensemble au-delà des silos disciplinaires, en se focalisant sur quelques défis majeurs et en sachant définir des méthodologies d’évaluation des résultats de ces travaux, évaluation sans laquelle il ne peut y avoir de progrès solide au bénéfice des apprenants.
Un enjeu central et prioritaire : la réussite scolaire.
Parmi les très nombreux sujets d’études sur l’Éducation, ceux autour de la réussite scolaire sont la clé de voûte de l’enjeu sociétal de l’éducation. Ce sujet de recherche pose la question d’aider à engager pleinement les élèves dans les activités pédagogiques grâce à des approches exploitant l’informatique, que ce soit comme support aux processus d’enseignement et d’apprentissage (Technology Enhanced Learning) ou en utilisant le numérique pour étudier ces processus (comme le font les approches Computational Learning Sciences).
La première question est de s’interroger sur comment favoriser la réussite scolaire. Il convient d’y répondre en élaborant des programmes de recherche conjoints avec les sciences cognitives, les sciences de l’éducation et les sciences du numérique fondées notamment sur l’IA, le traitement automatique des langues, la robotique, la réalité virtuelle/augmentée. Cette synergie scientifique doit permettre d’élaborer des environnements d’apprentissage adaptés aux caractéristiques individuelles, et encore plus nettement aux personnes en besoin d’adaptation scolaire, en particulier en situation de handicap. Cette démarche s’inscrit dans un vaste programme scientifique autour de la modélisation de l’apprenant en questionnant l’émergence d’une « science computationnelle de l’apprentissage ».
Passer des opinions à une étude rigoureuse des actions éducatives.
Il est également nécessaire de s’interroger sur la façon de mesurer précisément les effets induits. Parmi les voies à suivre, nous pouvons mentionner le développement d’études expérimentales rigoureuses menées avec des enseignants ainsi qu’avec des dispositifs numériques de mesure de l’attention et d’états cognitifs/conatifs (motivationnels) (voir ici). Ces mesures s’effectuent à partir d’analyses de traces d’utilisations de logiciels (learning analytics), d’analyses de captations vidéo cherchant à identifier le comportement d’un utilisateur mais également, à terme, avec des interfaces cerveau-ordinateur (BCI, Brain Computer Interface) ou bien avec d’autres signaux physiologiques que ceux liés à l’activité cérébrale. Par exemple, on peut mentionner l’utilisation de mesures biométriques comme la pupillométrie ou encore les électroencéphalogrammes (EEG) utilisés dans l’analyse de l’activité de l’apprenant dans des environnements numériques d’apprentissage comme NetMaths (Ghali&al-2018, note 4 et ici). Il s’agit de développer la théorie en même temps qu’on met en œuvre les approches opérationnelles qui en découlent.
Parmi ces sujets de recherche, il nous semble particulièrement pertinent d’étudier, en intégrant aussi le point de vue des sciences du numérique, la question de l’amotivation (Sander-2018, note 5), qui est l’une des causes de l’échec scolaire. Une telle initiative permettrait de construire un programme de recherche abordant les volets suivants :
● De quoi s’agit-il ? Quels facteurs psychologiques sont engagés ? En se rapprochant notamment de spécialistes en sciences cognitives et de psychologues de l’éducation qui travaillent sur ce sujet depuis des décennies ;
● De quoi résulte-t-elle ? Identification des facteurs de l’individu et des facteurs contextuels des « conditions extérieures » (milieu social, conditions familiales, etc.).
Inria souhaite améliorer la structuration et la visibilité de ses recherches fortement pluridisciplinaires (par exempple ici) sur ce sujet, notamment en développant des partenariats avec des acteurs académiques et économiques, à travers des équipes-projets communes afin de pouvoir construire dans des cycles courts des cadres théoriques, des conditions d’expérimentation pertinentes et de garantir leur diffusion effective et opérationnelle.
Quelques équipes de recherche Inria ont déjà ouvert la voie comme l’équipe-projet Flowers, et d’autres encore que l’on peut découvrir sur le site web de l’INRIA (ici), sans oublier d’autres équipes de recherche par exemple à Sorbonne Université (Mocah du LIP6) ou à l’université de Lorraine (Kiwi du Loria).
Avoir un impact réel et objectivé nécessite d’avoir une évaluation indiscutable et pour cela de développer des méthodologies rigoureuses d’évaluation du numérique éducatif. Comme l’a rappelé Stanislas Dehaene dans son intervention du 4 novembre lors des EGNE où il a évoqué l’analogie avec l’évaluation dans le domaine de la santé avec les essais cliniques, certaines intégrations passées du numérique ont été réalisées sans évaluation de leurs impacts sur les apprentissages ou bien alors analysées dans le cadre d’expérimentations à portée trop limitée. Face aux défis de la complexité des causes, il est nécessaire de développer des recherches transdisciplinaires aboutissant à des études rigoureuses, produisant des résultats solides sur les effets du numérique éducatif.
Les équipes de développement de solutions d’envergure telles que Sesamath (ici), ViaScola (ici), Léa (ici) (liste non exhaustive) fonctionnent le plus souvent avec des enseignants chevronnés et entretiennent parfois des collaborations de recherche, tant dans la phase de conception que dans l’évaluation des résultats. Comme exemple caractéristique, citons NetMaths (ici), plateforme interactive québécoise d’apprentissage des mathématiques particulièrement réussie, tant du point de vue des contenus que de celui des collaborations avec la recherche.
Cette démarche de conception collaborative n’est pas toujours adoptée dès l’analyse des besoins et durant l’élaboration de la solution. Cela empêche par exemple de proposer dans les solutions développées des indicateurs et des traces d’apprentissage (logs) selon un modèle de traces adapté à l’évaluation.
Pour dépasser les limites actuelles, nous recommandons l’intégration d’une démarche d’évaluation dès la phase de conception. Ces évaluations doivent pouvoir décrire de manière claire et détaillée les usages et la situation d’apprentissage concernés.
Dans la prise de décision en lien avec le numérique éducatif, il est important de pouvoir apporter des indicateurs en lien avec les résultats de recherche. Comme dans le cas du Nutri-Score, le développement d’indicateurs compréhensibles faciliterait la prise de décision sur les outils EdTechs et leurs contextes d’utilisation.
Gérard Giraudon (*). Pascal Guitton, (***) Margarida Romero (**), Didier Roy (****) et Thierry Viéville (*) se sont associés pour la rédaction de cette tribune.
(*) Inria
(**) Université Côte d’Azur
(***) Université de Bordeaux & Inria
(****) Inria & LEARN EPFL
(1) Proposition n° 10 : Favoriser les projets associant chercheurs et enseignants pour une conception collaborative d’outils adaptés aux besoins de la communauté éducative et une analyse de leurs usages pour mettre à disposition des logiciels dont l’efficacité pour les apprentissages peut être mesurée
(2) Proposition n° 32 : Aider les laboratoires de recherche et assurer le transfert des innovations dans l’éducation pour développer des solutions numériques en pointe et transférer dans l’éducation les derniers résultats de la recherche académique
(3) « Du mode d’existence des objets techniques », Gilbert Simondon, collection Analyse et Raisons Aubier éditions Montaigne, 1958 ; à noter qu’il y a eu 3 autres éditions augmentées aux éditions Aubier (1969, 1989, 2012).
(4) Ghali&al-2018] « Identifying brain characteristics of bright students », Ghali, Ramla, et al. Journal of Intelligent Learning Systems and Applications 10.03 (2018) : 93.
(5) Sander-2018] : « Les neurosciences en éducation – Mythes et réalité », E. Sander, H. Gros, K. Gvozdic, C. Scheibling-Sève, Edition Retz, 2018″
Nous vous l’avions annoncé ici, Victor Storchan va nous présenter trois initiatives de formation à l’intelligence artificielle (IA).
Il s’entretient aujourd’hui avec Temuu Roos, Professeur d’IA et de Data Science à l’Université d’Helsinki, sur le MOOC « Elements Of AI” déployé en Finlande. Serge Abiteboul et Thierry Viéville.
Victor Storchan (VS) : Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?
Teemu Roos (TR): D’une certaine façon, nous voulons permettre aux gens de se lancer dans la technologie de la manière qu’ils jugent la plus appropriée pour eux-même. Certains voudront peut-être commencer à acquérir des compétences qui leur permettront d’évoluer et commencer à résoudre des problèmes par l’IA dans leur travail. Mais plus que cela, nous espérons que les gens pourront se forger leur opinion sur le type de technologie que nous devrions développer et comment cela devrait être réglementé.
VS: Quel est le public que vous visez ? Quels sont les apports de votre cours pour ce public ?
TR: En bref, notre cours s’adresse à tout le monde sauf ceux qui travaillent dans la technologie. Cependant, nous avons eu des retours indiquant que même pour ce type de personnes certaines parties du cours couvrant les implications sociétales leurs sont utiles.
Pour le grand public, le cours propose une introduction en douceur sans nécessiter aucune connaissances techniques a priori.
VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?
Sur les modèles d’écosystèmes français, finlandais et européen, questions spécifiques selon les partenaires
TR: Nous avons maintenant plus d’un demi-million d’inscriptions dans plus de 170 pays, et le cours est actuellement classé premier parmi tous les cours d’informatique ou d’IA sur Class Central. Nous venons de lancer le cours de suivi “Building AI”. Notre perspective d’avenir consiste à viser l’objectif de formation de 1% de la population européenne et à terme le monde entier.
VS: Comment vos ressources participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?
Lors d’une déclaration commune en Août 2018, la France et la Finlande ont affirmé leur volonté partagée de “jouer un rôle actif pour promouvoir une vision de l’intelligence artificielle juste, solidaire et centrée sur l’humain, à la fois fondée sur la confiance et facteur de confiance”.
TR: Nous sommes pleinement attachés à la vision centrée sur l’humain d’une IA européenne digne de confiance : le cours invite le participant à se forger une opinion personnelle, éduquée et critique sur l’IA dès le début. Par exemple, le quatrième exercice demande au participant de critiquer les définitions existantes de l’IA et de proposer une définition qui lui est propre et qu’il juge plus pertinente. Un autre exercice lui demande de trouver des solutions au phénomène dit de « bulle de filtre » sur les réseaux sociaux. Le fait est qu’il n’y a aucune bonne ou mauvaise réponse à ces questions, et qu’aucune de leurs questions n’est notée automatiquement sous forme de questions à choix multiples, contrairement à ce qui est courant dans les MOOC. Au lieu de cela, les participants sont notés par d’autres participants dans un processus d’évaluation par les pairs, afin que chaque participant soit exposé aux pensées et aux arguments des autres.
Le projet entrepreneurial
VS: Quelles difficultés surmonte-t-on pour déployer un projet comme celui-ci ?
TR: Étant donné que le projet n’est pas seulement un cours en ligne mais une initiative plus large, il implique un réseau de collaboration étendu avec plusieurs partenaires dans chaque pays. Cela vient avec des frais généraux de coordination qui sont importants et nécessite des levées de fonds. Le projet, qui est un mélange de politiques éducatives, scientifiques, industrielles, publiques, et de communication est tout à fait unique dans son genre. Ceci rend difficile de le placer dans les catégories de projets déjà existantes.
VS: Pour “Elements of AI” qui est en train d’être déployé en Europe, quelles sont les difficultés spécifiques que l’on rencontre lors du passage à l’échelle européenne ?
TR: Le projet a reçu un énorme soutien de la Commission européenne et d’autres acteurs ainsi que de nos partenaires locaux dans chaque pays de l’UE, donc d’une certaine manière cela a peut-être été moins douloureux que prévu. Bien entendu, coordonner le projet est une tâche colossale. Il y a eu des problèmes mineurs liés à l’appariement de notre « marque » avec diverses organisations nationales et initiatives – par exemple, nous voulons garder le contrôle de toute publication dans le cadre de la marque “Elements of AI”. Cela signifie que nous ne pouvons pas systématiquement accepter les contenus que nous suggèrent nos partenaires dans les différents pays. À terme, nous aimerions bien sûr poursuivre la co-création de contenus éventuellement sous une marque commune avec nos merveilleux partenaires nationaux. Mais le l’ampleur et l’urgence du projet ont jusqu’à présent mis ces plans en suspens.
Note: Elements Of AI a reçu des fonds européens pour être traduit dans toutes les langues européennes.
Les modèles d’écosystèmes
VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ? La dynamique européenne sur l’IA actuelle est-elle suffisamment ambitieuse ?
TR: La fragmentation de l’industrie est probablement le facteur le plus important. Il a des retombées sur la capacité de retenir les talents et les investissements en Europe. Au lieu de ça, on observe un mouvement des experts vers les États-Unis, notamment lors de montées en puissance appuyées par des fonds de capital-risque américains. L’Europe peut faire beaucoup mieux en tirant parti d’une main-d’œuvre qualifiée et d’institutions de recherche de qualité.
VS: Une récenteétude McKinsey a identifié la Finlande (avec 8 autres pays nordiques) comme pouvant prendre le leadership sur le numérique européen. Comment décririez-vous les spécificités de l’écosystème finlandais ?
TR: L’écosystème finlandais a récemment investi considérablement dans la numérisation à tous les étages. Les investissements en IA commencent peut-être seulement maintenant à augmenter en volume, mais le bon positionnement stratégique sur le numérique offre un environnement fertile pour un bon retour sur investissement de l’IA. Il convient de noter que ce ne sont pas seulement les industries des TIC (Technologies de l’information et de la communication) et des jeux qui sont manifestement « nées du numérique », les piliers traditionnels de l’industrie finlandaise (foresterie, industrie, maritime, construction) sont également bien préparés.
VS: Votre initiative crée donc un lienéducation et IA, quels sont les liens à renforcer entre IA et éducation (par exemple apprentissage de l’IA dans le secondaire) et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?
TR: Je crois qu’il est le plus important d’apprendre les bases au secondaire : les mathématiques, le numérique, et peut-être la programmation. Si l’IA peut être introduite à ce niveau dans une certaine mesure, elle devrait l’être sous l’angle de la “littératie numérique” plutôt que par la dimension technique. Personnellement, je suis assez vieille école quand on parle d’éducation. Je vois une certaine valeur à appliquer l’IA dans l’éducation personnalisée. Par exemple, les applications d’apprentissage des langues telles que Duolingo sont bonnes parce que l’apprentissage de la langue exige la répétition, la répétition, et encore la répétition. Mais je pense toujours que dans l’ensemble, l’éducation nécessite une interaction interhumaine.
VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière dejustice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?
TR: L’IA centrée sur l’humain est le concept clé ici. Nous devons toujours évaluer les conséquences du déploiement des systèmes d’IA d’une manière qui englobe l’ensemble du système : comment s’opère l’interaction souvent complexe et dynamique entre le système, ses opérateurs et ses utilisateurs. Il ne suffit pas de tester le logiciel indépendamment de son contexte.
VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?
TR: Je considère toujours l’IA comme un outil. L’utilisation de l’outil libère les humains pour faire plus de tâches « humaines ».
VS: Nous vivons autemps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain?
TR: Comme je l’ai dit, je considère l’IA et les algorithmes comme des outils (certes complexes) et leur place devrait se limiter à celle qu’ont les outils dans notre société.
La formation des Européens aux enjeux technologiques et en particulier leur acculturation aux défis transverses de l’intelligence artificielle (IA) sont devenus des éléments incontournables des différentes stratégies IA présentées ces dernières années par les États membres de l’Union. Les défis sont de taille. Victor Storchan devient journaliste pour nous et nous propose une série d’articles pour nous présenter plusieurs initiatives. Serge Abiteboul et Thierry Viéville.
Oui, les défis sont de taille. Il s’agit d’abord de garantir que chacun pourra, dans sa vie professionnelle, maîtriser les connaissances indispensables pour travailler dans un environnement de travail où l’IA sera omniprésente. Chacun aura aussi à comprendre le monde dans lequel il vit pour être un citoyen pleinement éclairé. Pour ce qui est de l’IA, les approches participatives et inclusives entre les utilisateurs avertis et les concepteurs des modèles d’IA sont indispensables au développement d’une IA de confiance, respectueuse de la vie privée, transparente et non-discriminante. La formation en IA a donc un rôle considérable à jouer.
Mais quelle formation ? Nous présentons un regard croisé entre trois telles formations. Le but est de partager les motivations, les premiers résultats, les visions de trois écosystèmes :
– Temuu Roos, le créateur du MOOC « Elements Of AI”, parle de la genèse de ce cours en Finlande, puis sur son déploiement dans toute l’Europe et son ambition de former 1% de la population de l’Union.
– Théophile Lenoir et Milo Rignell partagent leur objectif de former le plus grand nombre de français aux fondamentaux de l’IA avec le MOOC “Objectif IA”.
– Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse, décrivent la plateforme de formation ``IAI´´ de ClassCode du Inria Learning Lab.
Ces regards croisés permettent de saisir les enjeux, et de comprendre la complémentarité de ces trois approches. Ils permettent également de questionner les parcours entrepreneuriaux de chacun et le rôle des écosystèmes finlandais, français et européens dans le processus de déploiement d’un contenu pédagogique qui bénéficie au plus grand nombre.
Un nouvel « Entretien autour de l’informatique ». L’informatique joue un rôle essentiel en climatologie comme l’ont déjà expliqué à binaire Valérie Masson-Delmotte (Les yeux dans les nuages) et Olivier Marti (Le climat dans un programme informatique). Mais l’étude du climat est si essentielle qu’il mérite qu’on s’attarde sur le sujet. Dans un entretien réalisé par Serge Abiteboul et Claire Mathieu, Agnès Ducharne, Directrice de recherche au CNRS nous parle d’une autre facette de la climatologie. Elle est spécialiste de la modélisation de l’hydrologie des surfaces continentales et des interactions climat-végétation-sol. Elle nous raconte les liens intenses entre climat et hydrologie qu’elle étudie avec le numérique.
Agnès Ducharne, CNRS
B – Pouvez-vous nous raconter brièvement votre carrière ?
AD – J’étais une enfant curieuse, dans une famille pas du tout tournée vers les études. J’ai pu profiter de l’enseignement de la République, à l’école et au lycée. J’étais intéressée par les sciences, en particulier la biologie, et j’ai eu la chance de pouvoir entrer à l’École Normale Supérieure en biologie. J’y ai découvert l’écologie scientifique, ce qui a été une révélation pour moi. J’ai été emballée par la vision systémique des choses et une forme de syncrétisme entre des disciplines variées qu’apportent l’écologie.
Au moment de choisir un sujet de thèse, je m’intéressais aux liens entre déforestation et climat. J’ai rencontré Katia Laval, professeur de climatologie. Elle est devenue ma directrice de thèse et m’a orientée vers le climat et l’hydrologie continentale. Je m’y suis lancée à l’aveugle. J’ai appris en lisant et en parlant avec des gens. Ce qui caractérise mon parcours, c’est la curiosité et l’envie de comprendre les liens de la nature avec les sociétés humaines, le climat n’en étant qu’une composante. Je suis hydrologue, mais également climatologue. Tout le monde voit bien ce qu’est la climatologie, l’étude du climat. L’hydrologie, quant à elle, s’intéresse à l’eau, et plus précisément à l’eau continentale, à sa répartition spatiale et à sa dynamique temporelle. L’hydrologie dépend bien sûr du climat, par exemple les quantités de pluie. Mais, dans l’autre direction, la disponibilité en eau influence la végétation et le climat. La présence humaine est impactée par ce système hydro-climatique, mais elle le perturbe également, et c’est l’étude de ces interactions qui me motive depuis plus de 20 ans.
L’hydrologue, Saint Oma
B – Vous vous intéressez à l’évolution de l’hydrologie, sa situation dans le passé et les projections sur l’avenir ?
AD – C’est au cœur de ce que je fais. J’utilise des modèles numériques qui décrivent les propriétés physiques et biophysiques des bassins versants, dans le but de comprendre l’évolution de l’hydrologie. Pour certains usages, on peut se contenter de modèles du transfert de l’eau. Par exemple, pour dimensionner des ponts, des ouvrages, dans le cadre de plan de prévention des inondations, on s’intéresse à des événements extrêmes issus du passé. On utilise des observations du climat, de la topographie, de l’occupation des sols, pour reconstituer l’hydrologie correspondante et vérifier qu’une installation ne sera pas inondée trop souvent. On peut aussi tester avec ce genre de modélisation l’intérêt de mesures de prévention, par exemple de digues, en modifiant la topographie exploitée par le modèle, ou la position de l’installation.
Ce qui est essentiel dans la modélisation numérique de l’environnement, c’est qu’elle nous permet d’interpoler des observations incomplètes dans l’espace et le temps, sur la base de règles physiques et rationnelles. On essaie ainsi de reconstruire les évolutions du passé, mais aussi de quantifier l’importance relative des facteurs qui contrôlent les changements hydrologiques. Un de ces facteurs est le climat, qui change en ce moment, et parmi les questions que l’on se pose, il y a celle de savoir si d’autres facteurs peuvent amplifier les changements induits par le climat, ou au contraire les atténuer.
Si l’on prend l’occupation des sols par exemple : une forêt renvoie davantage d’eau de pluie sous forme d’évapotranspiration qu’une culture et encore plus qu’un parking, qui génère en contrepartie plus de ruissellement qu’une forêt. Si donc on combine imperméabilisation et intensification des pluies extrêmes, qui constitue une des signatures du réchauffement climatique, on augmente « doublement » les risques d’inondations. L’irrigation peut aussi modifier substantiellement l’hydrologie régionale. L’eau nécessaire pour irriguer les cultures est habituellement prise dans des cours d’eau à proximité ou dans des nappes souterraines. Il faut souligner que l’eau des nappes n’est pas statique, elle coule, en général vers les cours d’eau, donc quand on prend de l’eau, on détourne cette eau de sa destinée naturelle, les cours d’eau. Du coup, l’irrigation modifie considérablement le régime des cours d’eau. Dans le monde, les 3/4 des prélèvements d’eau dans les rivières et les nappes sont effectués pour l’irrigation. S’y ajoutent les prélèvements pour l’eau potable, ainsi que pour les activités industrielles, par exemple pour le refroidissement des centrales électriques ou des usines métallurgiques. On peut observer tous ces prélèvements d’eau quand on regarde l’évolution long-terme des débits des cours d’eau, qui diminuent dans de nombreux endroits de la planète. Dans les zones très irriguées comme l’Inde ou la Californie, la baisse des ressources en eau souterraine est même détectable depuis l’espace, par gravimétrie satellitaire.
Lit d’un cours d’eau intermittent, Ile de Naxos (Grèce), Avril 2019. Agnès Ducharne.
On peut aussi observer l’effet des barrages artificiels, qui réduisent la variabilité saisonnière des débits entre saison des pluies et saison sèche. Mais de nombreux barrages servent aussi pour l’irrigation, ce qui rajoute comme impact de diminuer le débit aval du cours d’eau. Un exemple archétypique est celui d’Assouan sur le Nil, qui a entrainé une baisse de débit d’un facteur 5 environ entre le début et la fin des années 1960, c’est-à-dire la période de construction du barrage. Croisée avec la croissance démographique dans la basse vallée du Nil, cette baisse pose désormais des problèmes d’accès à l’eau. Mais il faut garder en tête que cette croissance démographique a été permise par l’intensification de l’agriculture, elle-même permise par la possibilité d’irriguer en dehors des périodes de crue du Nil grâce au barrage. Cet exemple montre la multi-factorialité des problèmes liés à l’eau, pour lesquels il est rarement possible de trouver une solution optimale.
Dans ce cadre, les simulations numériques sont donc très utiles pour explorer toute une gamme de solutions. Le principe est d’informer et calibrer un modèle hydrologique avec l’ensemble des observations disponibles sur une période donnée, puis de s’en servir pour projeter des situations différentes, y compris dans le futur : Que se passerait-il si on accélérait la déforestation ? Voire si on supprimait toutes les forêts de la Terre entière ? Quelle différence de débits entre le climat actuel et le climat de 2100 ? Pour répondre à cette dernière question, les modèles hydrologiques doivent s’articuler avec des estimations du climat futur, fournies par des modèles climatiques.
B – Nous sommes de plus en plus conscients, collectivement, des problèmes soulevés par le dérèglement climatique. Avons-nous des raisons de nous inquiéter aussi pour l’eau ?
AD – Bien sûr. Climat et hydrologie sont très intimement liés. Regardons l’évolution du cycle de l’eau. La Terre se réchauffe, à cause de l’augmentation des gaz à effet de serre dans l’atmosphère, qui augmente le rayonnement infra-rouge renvoyé à la surface de la terre. Cette énergie supplémentaire favorise l’évaporation par les surfaces terrestres, tout comme le fait qu’une atmosphère plus chaude peut contenir plus de vapeur d’eau. Au contraire, l’augmentation CO2 a tendance à réduire l’évapotranspiration, car les plantes peuvent assimiler la même quantité de carbone par photosynthèse en ouvrant moins leurs stomates. Ces changements modifient la teneur en eau de l’atmosphère, ainsi que la répartition des précipitations et leur régime. Mais les processus impliqués sont complexes, variables dans le temps et l’espace, et il serait impossible d’estimer comment ils vont se manifester sans l’apport des modèles climatiques.
Grâce à ces outils, les climatologues ont trouvé que le cycle de l’eau s’intensifie à l’heure actuelle, si bien que dans les zones et périodes où il pleut beaucoup, il pleuvra encore plus avec le réchauffement. Par exemple, les crues cévenoles, ou les cyclones, sont appelés à devenir plus intenses ou plus fréquents. En parallèle, les zones et périodes sèches vont s’accroître en intensité et durée de sécheresse. En articulant modèles climatiques et hydrologiques, on retrouve ces tendances dans les cours d’eau et nappes souterraines, avec quelques modulations liées notamment aux temps de résidence plus importants dans les bassins versants que dans l’atmosphère.
B – A quelle échelle de temps ces changements vont-ils se réaliser ?
AD – Les échelles de temps sont les mêmes que celles qui sont explorées par les climatologues, avec des changements importants d’ici la fin du XXIe siècle, typiquement, mais qui sont déjà en cours.
B – Et pour ce qui est de la situation particulière de la France ?
AD – Tous les exercices prospectifs auxquels j’ai participé montrent malheureusement que pour le pourtour méditerranéen, qui fait notoirement partie des zones sèches de la planète, les choses vont empirer, c’est une quasi-certitude. De plus, ces zones sont en été largement alimentées par la fonte de la neige qui stocke l’eau temporairement à l’échelle d’une saison. À l’heure actuelle, cette fonte est plus forte qu’elle n’a été il y a 50 ans, ce qui compense les baisses de précipitation en cours qui sont encore assez faibles. Mais le réchauffement va se poursuivre, la quantité de neige va diminuer, et viendra un temps où cet effet de stockage saisonnier de précipitations hivernales pour être rendu en été aura disparu. Quand les glaciers auront fondu, l’absence de leur apport se rajoutera à l’effet direct sur les précipitations et augmentera la sécheresse hydrologique de ces zones méditerranéennes.
Ça c’est pour le sud. Quand j’ai commencé à travailler sur les impacts hydrologiques du changement climatique, au début des années 2000, on pensait par contre qu’en France, les zones plus au nord allaient être préservées. Ce sont des zones plutôt humides et les modèles climatiques indiquent qu’il y aura un accroissement des précipitations dans les zones les plus humides, mais malheureusement pas à l’échelle de la France. Ainsi, même au nord de la France, il faut s’attendre à une baisse sensible des précipitations, en tout cas l’été, et cela pose des questions d’adaptation pour l’agriculture et les écosystèmes, ainsi que les activités qui exploitent les cours d’eau et les nappes.
B – Est-ce que cela suggère des politiques publiques ? Peut-être des constructions de nouveaux barrages ?
AD – Oui. Mais les constructions de barrages sont contestées car quand on construit un barrage, on ne crée pas d’eau. En fait, un barrage joue un peu le même rôle que la neige : retenir de l’eau quand il y en a beaucoup, pour la redistribuer à d’autres moments. Remplacer les neiges qui disparaissent par des barrages ? Pourquoi pas, mais les barrages posent aussi des problèmes d’autre nature que purement hydriques, en altérant le transport sédimentaire dans les cours d’eau, et les conditions de vie des espèces aquatiques.
Surtout, pour quels usages est-ce qu’on réserverait ainsi cette eau ? C’est un problème qui n’est pas résolu. Quand une ressource est limitée, quelle qu’elle soit, c’est compliqué de l’attribuer de manière équitable à tous les gens qui en ont besoin, et qui prétendent tous en avoir besoin plus que leur voisin, sans compter les usagers muets comme les poissons. Il y a des gens qui travaillent sur ces questions, avec de la théorie des jeux par exemple. Mais actuellement, dans la pratique, c’est l’agriculture qui gagne. Et c’est vrai qu’on a besoin de manger. Néanmoins, quand les agriculteurs captent cette ressource, ils en privent tous les usagers aval. On le voit très nettement en France dans le sud-ouest, où il y a énormément de petites retenues, y compris des retenues sauvages. Quand on met une retenue à un endroit, on peut s’en servir à proximité, mais les usagers aval sont pénalisés. Cela peut être des écosystèmes naturels, mais aussi d’autres agriculteurs, ou les urbains, car les villes sont souvent en aval des bassins versants. On ne peut pas imaginer de généraliser ça sans mieux gérer la pénurie. Car comme les barrages ne créent pas d’eau, ils resteront désespérément vides en cas de sécheresses prolongées, comme on peut déjà le constater en Californie.
B – Cela milite pour une réflexion publique et le choix de critères pour gérer l’eau ?
AD – Oui. Il faut bien sûr garantir à l’agriculture un certain accès à l’eau mais en réfléchissant à la bonne façon d’utiliser cette eau. Il y a actuellement des aides pour l’agriculture irriguée. Ce n’est pas toujours une bonne idée. Par exemple, le maïs a besoin d’eau pendant la saison sèche en France : est-il raisonnable de continuer à le cultiver de manière intensive en France ?
Nos simulations mettent en évidence le problème des ressources en eau au cours du prochain siècle. Nous travaillons sur plusieurs scénarios de réchauffement, qui sont eux-mêmes contraints par plusieurs scénarios d’émission de gaz à effet de serre. Nos résultats montrent ainsi que pour éviter des conséquences désastreuses, il est indispensable de limiter les émissions de gaz à effet de serre dans l’atmosphère. Si on ne tient pas les engagements de l’accord de Paris, on aura un réchauffement supérieur à deux degrés. Il faut en tirer les conséquences. Cela risque de générer des conflits d’usage de l’eau. On parle souvent de tels conflits en Afrique ou au Moyen-Orient. Mais en France, aussi ! Et ce type de conflits ne se résout pas de manière pacifique, même en France. Le barrage de Sivens (*) n’en est qu’un avant-goût.
B – Quelle est la place de l’informatique dans votre travail ?
AD – L’informatique est au cœur de tout ce que je fais. Pour ce qui est du climat, les entretiens pour binaire de Valérie Masson-Delmotte et Olivier Marti insistent déjà sur l’utilisation de l’informatique. Je ne peux que confirmer cela dans le cadre de l’hydrologie. Nos modèles combinent la connaissance théorique que nous avons de l’environnement avec les observations variées qui sont collectées in situ et par satellite. Les équations se traduisent en un système complexe de lignes de code informatique qui, alimentés par des données, permet d’approcher le fonctionnement qu’on peut observer. Pour moi, la principale vertu d’un modèle numérique est de réaliser une synthèse intelligente des connaissances théoriques et des observations. Cela permet de comprendre ce qui se passe et mais aussi de réaliser des projections robustes d’évolutions futures sous différents scénarios. On peut ainsi contraster les conséquences hydrologiques de deux scénarios d’émission de gaz à effet de serre de manière quantitative.
B – Quelle confiance peut-on avoir dans les résultats ?
AD – La modélisation numérique présente évidemment des incertitudes mais on peut les quantifier. Comment s’y prend-t-on ? On travaille sur ce qui a été observé dans le passé. On vérifie si les modèles reproduisent correctement, par exemple, les débits observés. Typiquement, on calibre le modèle (on choisit ses paramètres) sur une partie des données et on valide avec les autres la robustesse du modèle et de ses paramètres. Cette étape de validation permet d’estimer une incertitude, une marge d’erreur, laquelle sert à proposer une marge d’erreur dans nos projections du futur. Si on est pointilleux, il faut ajouter que cette marge d’erreur est elle-même incertaine, car elle suppose que les erreurs du modèle seront les mêmes dans le climat futur que dans le climat passé, ce que rien ne garantit. Mais c’est une malédiction universelle quand on essaie d’imaginer ce qu’on ne peut pas observer. Et la confiance est renforcée par l’assise théorique des modèles.
Et puis, nous nous plaçons vraiment dans l’esprit des travaux du GIEC (**). Nous ne faisons pas des prévisions car nous ne savons pas quelles seront les émissions de gaz à effet de serre dans le futur. Nous réalisons des projections selon certains scénarios, qui correspondent à des hypothèses sur les facteurs d’évolution du climat ou de l’hydrologie. Ce qui est intéressant dans ce cadre, c’est de comparer deux scénarios, car on peut souvent conclure avec une bonne confiance que « celui-ci va être pire que l’autre » même en présence d’incertitude.
B – Est-ce que vous travaillez avec des informaticiens ?
AD – L’Institut Pierre-Simon Laplace où je travaille a développé son propre modèle du climat, qui intègre un modèle « des surfaces continentales », au sein duquel je travaille sur la composante hydrologique. Au total, une centaine de personnes travaillent sur le modèle de climat, dont des informaticiens. D’une part, ils nous aident avec les techniques numériques que nous utilisons. D’autre part, ils gèrent les logiciels ; ils définissent les environnements de développement logiciel et organisent les différentes composantes pour que le modèle soit plus performant, bien adapté aux calculateurs à notre disposition. Olivier Boucher pilote le développement scientifique et technique.
B – Qu’attendez-vous de vos doctorants, en termes de formation ? Et de formation en informatique ?
AD – On peut dire que, souvent, je forme d’autres moi-même. Comme moi, ce sont des spécialistes en environnement, des spécialistes en géologie, génie civil, ou agronomie. Quand ils arrivent, ils ne sont pas du tout aguerris en techniques numériques et n’ont pas de compétence particulière en programmation. Les étudiants d’aujourd’hui n’en connaissent pas plus en informatique que mes premiers étudiants. Je leur fais suivre des formations. Les outils que nous utilisons sont codés en Fortran, donc ils suivent des cours de programmation en Fortran. Il faut aussi qu’ils s’habituent à l’environnement logiciel mis en place par l’équipe technique. C’est indispensable pour la reproductibilité et la fiabilité des simulations. Et puis, quand ils arrivent, ils connaissent Windows. On les forme à l’operating system Unix. Ils apprennent à programmer en shell. C’est très formateur, cela leur permet de mieux comprendre ce qu’ils font. En général, ils aiment beaucoup ça. Ce qui a beaucoup changé pour la formation en informatique, ce sont les ressources en ligne. Ils se forment beaucoup tout seuls.
Mais il ne suffit de savoir réaliser ces simulations. Un grand pan de notre travail, c’est d’analyser leurs résultats, des fichiers avec des masses de données. Il y a des librairies spécialisées pour travailler ces données, en Python, Matlab, R, pour faire des statistiques, visualiser les données. Car une carte pour représenter des évolutions dans le temps sur des régions particulières, c’est plus parlant que des tableaux de chiffres !
B – Fortran, Unix, des environnements logiciels, Python, Matlab, analyse de données, visualisation. Pour des étudiants qui ne connaissaient pas a priori grand-chose en informatique… Et vous personnellement, est-ce que vous ne finissez pas par passer beaucoup de temps sur de l’informatique ?
AD – Comme je ne fais pas de terrain, oui, je passe beaucoup de temps devant un écran. Mes outils de travail favoris, ce sont ces modèles numériques de l’hydrologie. Au fond, je fais des expériences numériques.
Mais je participe aussi à des projets collaboratifs. J’ai des échanges par exemple avec des gestionnaires de l’eau. Ce sont des démarches itératives. Nous proposons des simulations et nous confrontons nos résultats avec leurs observations sur le terrain. Leurs opinions nous permettent de modifier nos modèles pour mieux décrire la réalité des choses. Par exemple, mon modèle actuel ne décrit pas l’irrigation comme on le souhaiterait et on a démarré actuellement une thèse sur ce sujet. Nos outils sont toujours des simplifications de la réalité. Par exemple, au début, on ignore des phénomènes du second ordre. Et puis, quand on est satisfait de notre capture du premier ordre, on essaie de modéliser le second ordre. Les observations de terrain, les spécialistes de terrain, nous aident à choisir nos pistes de recherche.
B – Y a-t-il une question que vous auriez aimé qu’on vous pose et qu’on n’a pas posée ?
AD – J’aurais aimé vous parler de modélisation spatiale du réseau hydrographique. Il s’agit d’utiliser des données et des méthodes numériques pour reconstituer les lignes bleues des cartes, y compris dans des zones où elles sont mal connues. Or c’est le cas un peu partout quand on remonte un fleuve vers ses sources. La source officielle de la Seine est sur le plateau de Langres, mais il y en a en fait une multitude d’autres : où sont-elles ?
Avec mon équipe, nous sommes partis de données topographiques de très haute résolution qui permettent de reconstituer numériquement les directions d’écoulement, donc les lignes bleues potentielles depuis toutes les crêtes. Puis nous avons proposé un modèle empirique pour raccourcir ces lignes potentielles, en fonction d’informations sur la géologie, la pente, et le climat. Nous avons calibré ce modèle dans des pays où les données hydrographiques sont précises comme la France ou l’Australie, avant de l’appliquer au monde entier. Et nous avons obtenu une densité de cours d’eau 10 fois supérieure à ce qui était connu. Grâce à ce travail, on connait beaucoup mieux les petits cours d’eau, qui sont souvent les plus sensibles au réchauffement climatique.
(*) Le barrage de Sivens est un projet abandonné de barrage sur le cours du Tescou, un affluent du Tarn dans le bassin de la Garonne (France). Après des affrontements violents en 2014, qui ont vu la mort de Rémi Fraisse, le projet initial a été abandonné en 2015 par arrêté préfectoral.
(**) GIEC : Le Groupe d’experts intergouvernemental sur l’évolution du climat, organisme intergouvernemental ouvert à tous les pays membres de l’Organisation des Nations unies (ONU).
Quel est le point commun entre Grace Hopper, Linus Torvalds et Tim Berners-Lee ? Ce sont trois géant.e.s des communs du numérique que nous célèbrerons cette année. Grace Hopper ne se voyait sûrement pas comme une pionnière des communs du numérique. Vous ne la voyiez probablement pas comme cela. Pourtant, son premier compilateur était bel et bien un extraordinaire bien commun. Et puis, surtout, nous sommes fanas de Grace dans binaire, alors nous nous sommes permis de l’associer à l’année des communs du numérique.
L’équipe de binaire vous souhaite une bonne année 2021
🥰🥰🥰
Nous sommes confrontés à la désinformation sur les réseaux sociaux. Le sujet est tout sauf simple : qu’on modère trop et on porte atteinte à la liberté d’expression ; pas assez, et on laisseles fakenews se propager et mettre en cause les valeurs de notre société. Alors, qui doit dire le vrai du faux et selon quels principes ? Emmanuel Didier, Serena Villata, et Célia Zolynski nous expliquent comment concilier liberté et responsabilité des plateformes.Serge Abiteboul & Antoine Rousseau Cet article est publié en collaboration avec theconversation.fr.
@SabrinaVillata
L’élection présidentielle aux États-Unis a encore une fois mis la question des fausses nouvelles au cœur du débat public. La puissance des plateformes et notamment celle des réseaux sociaux est devenue telle que chaque événement d’importance engendre depuis quelques temps des discussions sur ce problème. Pourtant, il semble que les analyses produites à chacune de ces occasions ne sont pas capitalisées, comme s’il n’y avait eu ni réflexions, ni avancées au préalable. Nous voudrions montrer ici la pérennité de certaines conclusions auxquelles nous étions parvenues concernant la modération de la désinformation pendant le premier confinement.
Photo Markus Winkler – Pexels
En effet, durant la crise sanitaire engendrée par l’épidémie de SARS-CoV-2, l’isolement des individus en raison du confinement, l’anxiété suscitée par la gravité de la situation ou encore les incertitudes et les controverses liées au manque de connaissance sur ce nouveau virus ont exacerbé à la fois le besoin d’informations fiables et la circulation de contenus relevant de la désinformation (émis avec une claire intention de nuire) ou de la mésinformation (propagation de données à la validité douteuse, souvent à l’insu du propagateur). Les plateformes ont alors très vite accepté le principe qu’il leur fallait modérer un certain nombre de contenus, mais elles ont été confrontées à deux difficultés liées qui étaient déjà connues. Premièrement, ce travail est complexe car toute information, selon le cadre dans lequel elle est présentée, la manière dont elle est formulée ou le point de vue de son destinataire, est susceptible de relever finalement de la mésinformation ou de la désinformation. Deuxièmement, le fait de sélectionner, de promouvoir ou de réduire la visibilité de certaines informations échangées sur les plateformes numériques entre en tension avec le respect des libertés d’information et d’expression qu’elles promeuvent par ailleurs.
Quelles sont donc les contraintes qui s’imposent aux plateformes ? Quelles sont les mesures qu’elles ont effectivement prises dans ces conditions ? Le présent texte s’appuie sur le bulletin de veille rédigé dans le cadre d’un groupe de travail du Comité national pilote d’éthique du numérique (CNPEN)[1] qui nous a permis de mener une dizaine d’auditions (par visioconférence) avec, entre autres, les représentants de Facebook, Twitter et Qwant ainsi que le directeur des Décodeurs du Monde. Il est apparu que les difficultés posées par la modération des fausses nouvelles pouvaient être regroupées en trois catégories. D’une part, celles qui sont associées aux algorithmes, d’autre part celles qui relèvent du phénomène de la viralité et, enfin, celles posées par l’identification et les relations avec des autorités légitimes.
Les algorithmes en question
Bien sûr, les mécanismes de lutte contre la désinformation et la mésinformation développés par les plateformes reposent en partie sur des outils automatisés, compte tenu du volume considérable d’informations à analyser. Ils sont néanmoins supervisés par des modérateurs humains et chaque crise interroge le degré de cette supervision. Durant le confinement, celle-ci a été largement réduite car les conditions de télétravail, souvent non anticipées, pouvaient amener à utiliser des réseaux non sécurisés pour transférer de tels contenus, potentiellement délictueux, ou à devoir les modérer dans un contexte privé difficilement maîtrisable. Or les risques d’atteintes disproportionnées à la liberté d’expression se sont avérés plus importants en l’absence de médiation et de validation humaines, seules à même d’identifier voire de corriger les erreurs de classification ou les biais algorithmiques. En outre, l’absence de vérificateurs humains a compliqué la possibilité de recours normalement offerte à l’auteur d’un contenu ayant été retiré par la plateforme. Ces difficultés montrent clairement l’importance pour la société civile que les plateformes fassent plus de transparence sur les critères algorithmiques de classification de la désinformation ainsi que sur les critères qu’elles retiennent pour définir leur politique de modération, qu’ils soient d’ordre économique ou relèvent d’obligations légales. Ces politiques de modération doivent être mieux explicitées et factuellement renseignées dans les rapports d’activité périodique qu’elles sont tenues de publier depuis la loi Infox de décembre 2018 (v. le bilan d’activité pour 2019 publié par le CSA le 30 juillet 2020[2] et sa recommandation du 15 mai 2019[3]). Plus généralement, il apparait qu’une réflexion d’ampleur sur la constitution de bases de données communes pour améliorer les outils numériques de lutte contre la désinformation et la mésinformation devrait être menée et devrait aboutir à un partage des métadonnées associées aux données qu’elles collectent à cette fin (voir dans le même sens le bilan d’activité du CSA préc.)
La responsabilité de la viralité
Pexels
L’ampleur prise à ce jour par les phénomènes de désinformation et de mésinformation tient à l’accroissement de mécanismes de viralité qui se déploient à partir des outils offerts par les plateformes. La viralité est d’abord l’effet du modèle économique de certains de ces opérateurs, qui sont rémunérés par les publicitaires en fonction des interactions avec les utilisateurs qu’ils obtiennent et ont donc intérêt à générer des clics ou toute autre réaction aux contenus. Elle relève ensuite du rôle joué par leurs utilisateurs eux-mêmes dans la propagation virale de la désinformation et de la mésinformation (que ces derniers y contribuent délibérément ou par simple négligence ou ignorance). La lutte contre la désinformation doit donc nécessairement être l’affaire de tous les utilisateurs, responsables de devenir plus scrupuleux avant de décider de partager des informations et ainsi de contribuer à leur propagation virale. Cette remarque va d’ailleurs dans le même sens que le programme #MarquonsUnePause désormais promu par l’ONU[4]. Mais ceci n’est possible que si les plateformes mettent à disposition de leurs utilisateurs un certain nombre d’informations et d’outils afin de les mettre en mesure de prendre conscience, voire de maîtriser, le rôle qu’ils jouent dans la chaîne de viralité de l’information (voir également sur ce point les recommandations du CSA formulées dans le bilan d’activité préc.). En ce sens, les plateformes ont commencé à indiquer explicitement qu’une information reçue a été massivement partagée et invite leurs utilisateurs à être vigilants avant de repartager des contenus ayant fait l’objet de signalement. Mais il serait possible d’aller plus loin. Plus fondamentalement, il est important que les pouvoirs publics prennent des mesures permettant de renforcer l’esprit critique des utilisateurs, ce qui suppose tout particulièrement que ceux-ci puissent être sensibilisés aux sciences et technologies du numérique afin de mieux maîtriser le fonctionnement de ces plateformes et les effets induits par ces mécanismes de viralité. La création d’un cours de « Science numérique et technologie » obligatoire pour toutes les classes de seconde va dans ce sens[5].
La légitimité
Enfin, troisièmement, si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations ne peuvent, in fine, être accomplies sans référence à des autorités indépendantes établissant, ne serait-ce que temporairement, la validité des arguments échangés dans l’espace public. Sous ce rapport, une grande difficulté provient du fait que les plateformes elles-mêmes sont parfois devenues de telles autorités, en vertu de l’adage bien plus puissant qu’on pourrait le croire selon lequel « si beaucoup de monde le dit, c’est que cela doit être vrai ». Pourtant, les plateformes n’ont bien sûr aucune qualité ni compétence pour déterminer, par exemple, l’efficacité d’un vaccin ou le bienfondé d’une mesure de santé publique. Elles sont donc contraintes de se fier à d’autres autorités comme l’État, la justice, la science ou la presse. Depuis le début de la crise sanitaire, de nombreuses plateformes se sont ainsi rapprochées, en France, de différents services gouvernementaux (en particulier du Secrétariat d’État au numérique ou du Service d’information du gouvernement). Pourtant, dans le même temps, elles se sont éloignées d’autres gouvernements, comme en atteste leur modération des contenus publiés par Jamir Bolsonaro ou Donald Trump. En l’occurrence, on peut légitimement se réjouir de ces choix. Ils n’en restent pas moins arbitraires dans la mesure où ils ne reposent pas sur des principes explicites régulant les relations entre les plateformes et les gouvernements. À cet égard, une réflexion d’ensemble sur la responsabilité des plateformes ainsi que sur le contrôle à exercer s’agissant de leur politique de modération de contenus semble devoir être menée. À notre sens, ce contrôle ne peut être dévolu à l’État seul et devrait relever d’une autorité indépendante, incluant les représentants de diverses associations, scientifiques et acteurs de la société civile dans l’établissement des procédures de sélection d’informations à promouvoir, tout particulièrement en période de crise sanitaire.
Emmanuel Didier, Centre Maurice Halbwachs, CNRS, ENS et EHESS Serena Villata, Université Côte d’Azur, CNRS, Inria, I3S
& Célia Zolynski Université Paris 1 Panthéon-Sorbonne, IRJS DReDIS
Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association Le Mouton Numérique, viennent de publier leur premier ouvrage “Technologies partout, démocratie nulle part : Plaidoyer pour que les choix technologiques deviennent l’affaire de tous”, (Fyp éditions, octobre 2020). Leur livre, très documenté, réhabilite la pensée techno-critique pour passer au crible le développement du secteur numérique, en identifier les défaillances et proposer de nouvelles pistes pour aligner le progrès technique aux enjeux écologiques et sociaux de notre temps. Toujours prudents devant des critiques radicales de la technique qui peuvent parfois tourner à la technophobie, nous avons invité Yaël Benayoun à en discuter avec un de nos éditeurs, Serge Abiteboul. Les éditeurs de binaire.
Serge : Si je partage de nombreux constats de ton essai avec Irénée Régnauld, le ton très critique m’a par moments gêné. Pour planter le décor, dirais-tu que pour vous, il s’agit de mettre le numérique au service de la société ? Ou s’agit-il juste d’arrêter le numérique, source de tous les maux de la société ?
Yaël : (rire) Bien évidemment, il ne s’agit pas de dire que le numérique serait la cause de tous nos maux ; cela n’aurait aucun sens ! En revanche, il est symptomatique que dans le langage courant on parle toujours « du » numérique au singulier, comme si l’ensemble des terminaux, des logiciels, des réseaux formaient un tout monolithique dont les caractéristiques techniques et les modes de production n’avaient pas à être questionnés. Pourtant, suivant les acteurs impliqués, les modèles économiques retenus, les objectifs poursuivis ou les valeurs défendues, on va se retrouver avec des dispositifs techniques radicalement différents. L’exemple le plus frappant est sans doute l’application de livraison CoopCycle, éditée par la coopérative du même nom. Ici, pas question comme chez la plupart des grandes plateformes qu’un algorithme décide seul du prix ou de la durée des courses. Pas question non plus de tracer les livreurs ou de les fliquer ! Et pour cause, CoopCycle a été conçue comme un moyen de garantir des conditions de travail décentes pour les livreurs ; c’est un bien commun et cela se retrouve dans les caractéristiques techniques de l’application.
Dans le livre, nous nous sommes attachés à décortiquer les jeux d’acteurs et les idéologies qui aujourd’hui dominent le secteur du numérique, centralisent les sources de financement et nous orientent vers une société toujours plus numérisée sans que les conséquences environnementales, sociales ou politiques ne soient réellement prises en considération. Cette analyse critique nous amène non pas à rejeter toute technique, mais bien à identifier les défaillances structurelles (sur-exploitation de ressources non renouvelables, précarisation de certaines catégories de travailleurs, renforcement des discriminations et inégalités déjà existantes, insuffisance des garde-fous juridiques et institutionnels) pour mieux pouvoir y répondre.
Serge : Votre livre met bien en évidence tous ces problèmes soulevés par le numérique. Mais, et c’était peut-être difficile à éviter dans un tel exercice, à force de lister ad nauseam les problèmes, on finit par voir se dessiner la thèse que c’est le numérique, le problème. Pourtant, on pourrait aussi lister les trucs géniaux apportés par le numérique, ce que vous ne faites pas. Un point sur lequel nous serons peut-être en désaccord : je crois dans le progrès scientifique même si c’est un peu ringard. Je crois qu’on vit plus longtemps et mieux qu’avant et que si ce n’est pas vrai pour tout le monde, ce n’est pas la faute de la techno mais de l’égoïsme de certains. Par contre, je ne crois pas au déterminisme technologique ou à la neutralité technologique. Je crois qu’on a un vrai risque de régression non pas à cause de la technologie mais à cause de choix sociétaux. La techno des smartphones ne dit pas qu’on doit en changer tous les dix-huit mois. Un tel gaspillage extravagant devrait nous forcer à ne pas changer de smartphone si souvent, pas à remettre en question la techno des smartphones.
Yaël : Encore une fois, le problème n’est pas « le » numérique, mais bien la manière dont le développement technologique est confisqué par un certain nombre d’acteurs qui orientent ce « progrès scientifique » vers leurs propres intérêts. Il faut regarder comment la recherche publique devient de plus en plus subordonnée aux financements et logiques entrepreneuriales de groupes privés, au risque de porter atteinte aux libertés académiques et à l’indépendance des chercheurs.
C’est en ce sens que choix technologiques et choix de société sont indissociables. C’est d’ailleurs le titre d’un des ouvrages qui nous a servi de référence pendant l’écriture : Choix technologiques, choix de société de Richard Sclove (Descartes & Cie/ECLM, 2003). Le fait est que, quand on parle de dispositifs techniques, on ne peut pas faire abstraction de leur contexte de production. Malgré les apparences, depuis les années 2000 le but premier d’un moteur de recherche comme Google Search n’est plus de nous permettre d’effectuer une recherche sur internet, mais bien de capter les données et méta-données que nous produisons pour les monétiser. Cet objectif va entraîner des caractéristiques techniques bien précises qui n’auraient pas été développées si un autre modèle économique avait été choisi ou s’il avait été décidé qu’une telle technologie devait être appartenir à la catégorie des communs.
Serge : L’exemple du moteur de recherche est éclairant. Le but premier de Google Search n’était pas de vous fliquer mais de régler le problème du Web d’alors : il était impossible d’y trouver ce qu’on cherchait parce que les moteurs de recherche d’alors étaient nuls. Google Search captait au début assez peu de données. Et puis, vers 2004, le tournant. C’était pour mieux répondre aux requêtes des utilisateurs. Mais, c’était surtout pour faire encore plus de profits – quand leurs profits étaient déjà impressionnants. C’est vrai aussi. Bon. Nous sommes dans un système capitaliste et il n’est pas surprenant que les entreprises cherchent à faire toujours plus de profits. C’est aux États de définir les règles du jeu. Le RGPD est une étape. On voit bien avec toutes les poursuites contre Google Search qu’il y a encore du chemin à faire.
Yaël : Il est d’ailleurs significatif que des initiatives comme la machine à laver L’Increvable – conçue pour durée une cinquantaine d’années (soit plus de cinq fois plus longtemps qu’une machine à laver classique) – n’ait pas réussi à se développer faute de soutiens des secteurs industriels et des pouvoirs publics, mais que nous voyons en revanche fleurir depuis quelques années des machines à laver connectées toujours plus consommatrices en énergie et en métaux rares, et toujours aussi peu résistantes. La technologie incarne, dans ses caractéristiques mêmes, les choix de société et les rapports de force à l’œuvre. Une technologie ne se fait jamais « toute seule » et tant que nous n’en prendrons pas conscience et continuerons à affirmer que « la technologie est neutre, tout dépend de l’usage qu’on en fait » ou que tel progrès technique est « inéluctable », les garde-fous seront toujours insuffisants.
Serge : Bon les machines à laver ou les frigo connectés, c’est du pipeau. Mais, tu as raison, pourquoi ne pas construire des machines qui durent plus longtemps ? On a trop attendu que les industriels le fassent. C’est aux citoyens de se mobiliser pour ça et aux gouvernements de prendre leurs responsabilités. Pour rester dans le numérique, on a l’exemple des logiciels libres. C’est dingue que les États ne les soutiennent pas massivement car leur apport à la société est considérable.
Pour prendre un autre exemple, la smart city. Je pars du principe qu’on ne va pas envoyer des millions de personnes à la campagne, ce qui serait possible mais c’est un autre sujet. Alors dans une grande ville, très peuplée, le numérique me paraît un outil indispensable pour tout : le transport, la logistique des livraisons, l’énergie, la pollution, etc. Tout ça s’appuie sur le numérique, non ? Je ne parle pas de vidéosurveillance, ni de flicage de la population. C’est un peu la même techno, mais on peut dans une démocratie adopter les premiers sans accepter ces seconds. Ou faudrait-il jeter la smart-city aux ordures parce qu’on a peur de la vidéo-surveillance? Vous citez Barcelone comme une belle expérience de démocratie participative. Est-ce qu’ils sont fans de vidéo-surveillance ?
Yaël : Une chose est sûre : il y a autant de définitions de « smart city » que de projets s’en réclamant. Bien évidemment nous n’avons rien contre l’optimisation de certains services comme la gestion des eaux usées par exemple. Là n’est pas la question.
Dans le livre, nous nous sommes concentrés sur une expérience bien précise de smart city qui est le projet, aujourd’hui abandonné, de réhabilitation d’une partie du littoral de la ville de Toronto proposé par Sidewalk, filiale de Google consacrée aux projets d’urbanisme. Et cela pour deux raisons. Premièrement, c’était le premier grand projet porté par Sidewalk, ce qui signale un intérêt prononcé des grandes multinationales du secteur du numérique pour le marché des infrastructures urbaines – qui devrait représenter pas moins de 53 milliards de dollars d’ici 2030. Ce positionnement stratégique n’a pas échappé aux habitants du quartier concerné qui se sont rapidement organisés pour réclamer des précisions : comment une telle infrastructure allait-elle être rentabilisée ? (Il s’agissait d’une ville entièrement connectée avec des trottoirs chauffants, des bancs publics qui renseigneraient leur taux d’occupation, des caméras de vidéosurveillance, etc.) comment s’assurer de la non-exploitation des données personnelles des habitants, de la non-marchandisation de certains services de la ville, de la non-exclusion de certains groupes d’habitants. ? Deuxièmement, il était surprenant de voir une ville comme Toronto s’accrocher à ce projet, malgré les critiques des habitants, malgré les démissions successives des membres de la collectivité qui suivaient le projet. Il est vite apparu que la ville était en réalité en position de faiblesse par rapport à la filiale de Google qui, au fur et à mesure que la contestation montait, « achetait » l’équipe municipale en promettant toujours plus d’infrastructures qui devaient in fine créer plusieurs dizaines de milliers d’emplois directs et indirects. Cette faiblesse est d’autant plus inquiétante que le cas de Toronto n’est pas isolé et que les villes deviennent des terrains de jeu particulièrement attractifs pour les mastodontes du numérique.
Serge : Mais ne jetons pas, à cause de Sidewalk (son projet pour Toronto a été arrêté), la smart city à la poubelle. Ne nous privons pas de tout ce que le numérique pourrait apporter en termes de logistique, de gestion de la cité, etc. Vous parlez beaucoup de Toronto. Je trouve l’expérience de Barcelone beaucoup plus intéressante. Nous pouvons choisir la place du numérique collectivement dans la cité comme le fait Barcelone.
Yaël : Le cas de Barcelone est effectivement très intéressant, et il est important de souligner que la belle expérience de démocratie participative se trouve incarnée dans une plateforme conçue en licence libre et en open source que la ville a entièrement financée dans le cadre d’un partenariat Public-Commun. C’est un genre de partenariat encore trop rare aujourd’hui et il est fort à parier qu’une telle plateforme aurait eu des caractéristiques techniques toutes autres si elle avait été développée par un acteur privé comme Google.
Serge : N’évitons pas les sujets qui fâchent. Parlons du déploiement de la 5G ! Écartons les technophobes et technophiles béats. Même les modérés se partagent entre ceux qui veulent déployer la 5G et ceux qui préfèrent un moratoire. Pourquoi un moratoire ?
Yaël : Le secteur du numérique représente à lui seul 4% de la consommation d’énergie primaire au niveau mondial, consommation qui augmente chaque année de 9% alors même que nous devrions la réduire de 5% par an si nous voulons respecter nos engagements et atteindre une économie décarbonée. C’est donc un retard de 14% que nous cumulons chaque année. Quand va-t-on se donner les moyens de faire atterrir nos systèmes industriels – dont le secteur du numérique fait incontestablement partie ?
Serge : Je partage pleinement le constat de l’urgence environnementale. Mais, il faut répéter qu’un des buts premier de la 5G est de faire des économies d’énergie, par exemple, plutôt que de balancer des ondes dans toutes les directions, un émetteur 5G va viser le terminal qui reçoit le message. Si on avait choisi de retarder la 5G, on aurait assisté à une multiplication de sites 4G beaucoup plus énergivores et on se serait précipité vers une saturation des fréquences en centre ville. Le moratoire n’aurait rien réglé. La vraie question est de considérer le numérique dans sa globalité pour limiter sa consommation d’énergie, et son gaspillage de ressources naturelles. Et pour ça, la 5G peut aider car elle consomme moins d’énergie mais il faut bien sûr éviter un effet rebond.
Un moratoire n’aurait rien réglé à mon avis. On aurait juste passé notre temps à regarder les autres pays déployer la 5G et les technos qui vont avec. On aurait pris un retard industriel que je ne sais pas chiffrer en termes d’emplois perdus à termes, mais quand on voit ce que nous coûte le retard sur l’informatique de la fin du siècle dernier, on peut s’inquiéter. Au moins, si ça avait suffit à faire des économies d’énergie.
Yaël : Je pense qu’il est urgent de nous départir de cette vieille rhétorique du retard industriel qui nous éloigne toujours plus rapidement des exigences de l’accord de Paris. Tu évoques le risque de la perte d’emplois, c’est un sujet essentiel. En 2019, le cabinet B&L évolution estimait que la France avait besoin de la création de près de 2 millions d’emplois sur 5 ans pour répondre aux impératifs fixés par l’accord de Paris. Cela s’explique par un besoin de décentralisation des infrastructures, de relocalisation de certaines industries, mais aussi un besoin de réorientation massive des politiques industrielles vers les secteurs les moins carbonés. Les anticipations d’usages liées au déploiement de la 5G promettent-elles la création d’un plus grand nombre d’emplois ? Rien n’est moins sûr. L’industrie 4.0 mise sur l’automatisation industrielle, automatisation qui a toutes les chances de se doubler de la réorganisation des sites concernés et d’un nombre conséquent de licenciements.
Selon moi, l’enjeu du moratoire sur la 5G est d’une part de commencer à réfléchir collectivement à la définition du prochain réseau (sans quoi la 6G sera développée en vue de l’anticipation toujours plus pressante de l’explosion des contenus lourds et des équipements connectés), et d’autre part d’interroger en profondeur la soutenabilité, autant sociale qu’écologique, de la fuite en avant technologique que nous promet l’ensemble des études prospectives. Car ces études agissent aujourd’hui comme des prophéties auto-réalisatrices et incitent les investisseurs et les pouvoirs publics à suivre leurs prévisions et ainsi les conforter. Un grand chantier nous attend : ouvrir de nouvelles perspectives pour casser ce cercle d’investissement vicieux et réorienter les politiques industrielles en conséquence.
Serge : Si je ne vois pas en quoi un moratoire aurait pu aider, je partage totalement ton point de vue sur la nécessité d’une réflexion collective sur la définition des réseaux que nous voulons, je dirais même une réflexion est urgente dans l’objectif de l’accord de Paris. C’est d’ailleurs le sens de travaux récents de l’Arcep « Pour un numérique soutenable » avec une plateforme de travail et des ateliers d’échanges. Il est important de mettre la techno numérique au service de la société. La 5G, par exemple, a été développée avec les économies d’énergie dans ses spécifications originales. C’est une techno géniale. À nous de la mettre au service de notre société. Et tu as raison. La 6G est en préparation. On doit encore pouvoir influer sur ce qu’elle sera. Et au-delà des ondes, c’est une réflexion sur tout le numérique que nous devons engager.
Nous nous retrouvons au moins sur un point : le numérique doit être au service de la société. Et cela ne peut se limiter à des vœux pieux. Nos gouvernements, à toutes les échelles (régions, France, Europe) ont la responsabilité considérable de se donner les moyens d’une politique volontariste pour mettre le système du secteur du numérique au service de tous.
Yaël Benayoun, le Mouton Numérique, et Serge Abiteboul, Collège de l’Arcep et Inria, Paris.
Nombre d’entre nous ont dû avec les contraintes du confinement avoir recours pour la première fois de leur vie massivement au télétravail. Certains ont été émerveillés par un apport du numérique qu’ils n’attendaient pas. D’autres ont souligné des problèmes majeurs soulevés par le distanciel. Claude Terosier de Magic Maker propose son point de vue. Dans un cadre particulièrement exigeant, les ateliers avec des enfants dans le cadre d’une structure très distribuée, elle montre comment ils ont fait face et tiré le meilleur de la situation. Bon, les formateurs du numériques étaient mieux que d’autres préparés. Une morale peut-être : il est urgent de nous former tous et toutes au numérique. Serge Abiteboul et Pauline Bolignano.
Claude Terosier, crédit Géraldine Aresteanu
Cela fait 6 ans que nous faisons des ateliers de programmation créative chez Magic Makers[1], grâce auxquels des milliers d’enfants et de jeunes de 7 à 18 ans apprennent à créer avec le codage informatique. Le 14 mars 2020, suite à l’annonce par le président de la République de la fermeture de tous les établissements scolaires de France, nous avons dû mettre à l’arrêt nos 300 ateliers hebdomadaires. Le 21 mars, ces 300 ateliers reprenaient, à distance, grâce à la visioconférence. En une semaine, nous avons testé un outil de visioconférence, établi une base de bonnes pratiques d’animation, et dessiné les grandes lignes de la manière d’adapter au format visioconférence des contenus d’ateliers interactifs pour des enfants du CE1 à la terminale. Pour que cela fonctionne, nous avons accompagné nos 50 animateurs pour qu’ils puissent devenir à l’aise dans cette nouvelle manière d’animer des ateliers.
Cela a été une période de réinvention très forte, sous la contrainte. Ce qui me frappe, c’est que l’évolution de la manière de mettre en oeuvre nos ateliers a été le miroir de la manière dont nous avons transformé nos pratiques au sein des équipes pour nous adapter au mode distanciel. Car nous avons dû en même temps également adapter nos modes de fonctionnement au sein de Magic Makers. Et cette transformation, au lieu de nous fragiliser, nous a renforcé, apportant des solutions parfois plus efficaces que par le passé à des enjeux de fonctionnement auxquels nous étions déjà confrontés avant le confinement.
La chose la plus importante, en atelier avec les enfants comme au sein des équipes, a été de maintenir le lien humain. Cela a demandé un effort conscient pour transposer les pratiques non verbales et instinctives en pratiques explicites. Nous prenions déjà le temps en début de réunion de faire une “inclusion” ou chaque participant partage ce avec quoi il arrive, énergie ou préoccupations, personnelles ou professionnelles. Ce temps a encore plus d’importance dans une réunion en visioconférence, ou l’on ne peut pas saisir, par la simple présence et gestuelle, l’état d’esprit de chacun, et où l’on ne voit pas tout le monde si chacun ne fait pas l’effort de mettre sa caméra et de parler chacun à son tour.
De la même manière, en atelier, l’utilisation de la caméra pour tous les participants est indispensable. Sinon, il n’y a pas interaction. Car il ne s’agit pas de parler sans savoir si l’on est entendu, mais d’aider chaque enfant à prendre sa place. Là où l’interaction entre l’animateur et chaque enfant est implicite lorsque l’on est dans la même salle, il faut la rendre explicite dans un format distanciel, pour que le lien existe, et que la transmission puisse se faire.
Au-delà de remplacer les réunions en présentiel et les ateliers avec les enfants par des réunions en visioconférence, c’est toute notre façon d’interagir et de communiquer au sein de Magic Makers qui a évolué. La crise est arrivée à point pour nous amener à accélérer la mise en place de solutions face des problèmes que nous n’avions pas encore résolus. Un bon exemple est l’utilisation du tchat, que nous avons appris à utiliser aussi bien dans nos ateliers, qu’entre nos animateurs
Lorsque l’on est connecté en visio, l’utilisation du tchat dédié à la session permet d’échanger des informations entre participants sans perturber le flux de celui qui parle. Celui-ci jugera bon de reprendre à l’oral une question posée à l’écrit dans le tchat visible de tous, ou indiquera à ceux qui ne l’ont pas remarqué qu’un lien a été ajouté pour que tout le monde puisse consulter un document.
Il y a des règles à respecter pour que l’outil soit efficace, et en tant que collaborateurs adultes, ces règles se sont imposées rapidement et implicitement dans nos réunions. Dans le cadre des ateliers, il a fallu expliquer aux plus jeunes comment utiliser ce canal spécifique, qui remplace des signaux non verbaux en atelier : lever la main, bouger la tête et ouvrir la bouche pour signaler que l’on veut poser une question par exemple.
En dehors des réunions, c’est un serveur de discussion qui est devenu un outil de travail incontournable en interne, remplaçant la communication informelle qui ne pouvait plus se faire, et fluidifiant de fait la circulation de l’information au sein de l’organisation. Les animateurs l’utilisent notamment pour demander et donner de l’aide en permanence, puisqu’ils ne peuvent se retourner vers leur voisin qui animerait dans la salle d’à côté pour lui poser la question. Cela démultiplie de fait l’efficacité. Là où il ou elle aurait eu la réponse de celui qui est à côté face à une difficulté concrète, il ou elle a la réponse de toute l’entreprise. Les problèmes se résolvent plus vite, parce que les bonnes pratiques que l’on invente face à une situation nouvelle se diffusent quasiment immédiatement.
Il est intéressant de constater que nous n’avions jamais réussi à faire prendre ce genre d’outil en interne, et que la crise a forcé l’adhésion quasi systématique des collaborateurs, et nous a permis de résoudre une difficulté de communication qui existait déjà avant, nos animateurs étant répartis sur une cinquantaine de lieux.
C’est un exemple significatif de la contrainte qui nous pousse à utiliser un outil numérique pour pallier à un besoin concret et où, au final, l’outil structure et apporte plus d’efficacité à la pratique informelle qu’il remplace, ne serait-ce qu’en supprimant les frontières spatiales et temporelles de l’interaction.
La seconde leçon de cette crise, après l’innovation par la contrainte, c’est l’adaptation permanente. La crise sanitaire, et ses conséquences sociales et économiques, nous a projeté dans une époque où il devient difficile de faire des prévisions plus de quinze jours ou un mois à l’avance. Les solutions que l’on met en place à un instant particulier ne sont plus forcément pertinentes telles quelles un mois plus tard, et demandent une adaptation constante.
Avec le déconfinement, la configuration des réunions a de nouveau été bouleversée. Les réunions qui fonctionnaient de manière fluide lorsque tout le monde était à distance devant son ordinateur n’étaient plus aussi efficaces dans une configuration hybride, avec certaines personnes ensemble physiquement dans une même salle et les autres à distance.
Le choix que nous avons fait est de clarifier qu’il y avait 2 types de réunions, qui sont programmées et menées différemment. Lorsque le fait de se voir est important pour l’objectif recherché, la réunion est programmée en présentiel, en s’assurant que l’on respecte les contraintes sanitaires. C’est le cas pour l’accueil d’un nouveau collaborateur, une réunion de brainstorming, ou même des points de management lors desquels des sujets émotionnels devaient être traités. Concrètement, des situations qui vont contribuer à créer et à entretenir le lien humain. Sinon, la réunion se fait en distanciel. Dans ce cas, même si certains participants sont présents sur le même lieu, ils se connectent individuellement à la visioconférence et non pas depuis la même salle, car autrement la réunion ne fonctionne plus. Avoir dans une réunion distancielle plusieurs personnes en présentiel dans une même salle et les autres à distance est un élément qui empêche la réunion d’être efficace, et c’est souvent une raison pour laquelle des organisations ont arrêté le télétravail à la fin du confinement. Chez nous, dans une même journée, un collaborateur peut se rendre sur son lieu de travail, et alterner des réunions en présentiel dans la même salle, et en distanciel dans des salles distinctes, avec les mêmes personnes.
Réunion à distance avec des collaborateurs de Magic Maker
Cela nous a permis de garder les améliorations apportées par les réunions en distanciel, car malgré la perte d’information et d’échanges non verbaux, elles nous ont permis d’être plus efficaces. Sans temps de transport, et sans “small talk” avant et après, les réunions démarrent à l’heure, et nous sommes souvent plus focalisés sur l’ordre du jour . L’efficacité de l’utilisation de documents de travail collaboratifs, dans lesquels tous les participants peuvent écrire en même temps puisque tout le monde est déjà sur son ordinateur, est encore renforcée.
Les mots clé à mon sens sont bien ceux-là : adaptation permanente, et hybridation. Prendre le meilleur du présentiel et du distanciel, en adaptant le curseur à l’évolution de la situation.
Du côté de nos ateliers, la même logique a prévalu. Grâce à l’épisode du confinement, nous avons découvert que nous pouvions faire fonctionner à distance la dynamique interactive de nos ateliers, confortés par les retours extrêmement positifs des enfants et des parents. Face à l’incertitude de la rentrée, et à cette nouvelle opportunité, nous avons fait évoluer la conception de nos ateliers hebdomadaires pour ce mois de septembre. Nous les avons pensés pour qu’ils puissent être proposés aussi bien en présentiel comme avant, qu’en distanciel pour ceux qui choisiraient de suivre l’atelier en se connectant depuis chez eux chaque semaine.
La rentrée, et l’émergence d’une seconde vague nous conforte dans ce choix de la versatilité et de l’adaptation permanente, aussi bien de nos ateliers, que de nos manières de fonctionner.
Claude Terosier, Magic Maker
[1] Magic Makers organise des ateliers pour apprendre le code. L’esprit en est donné par le manifeste : Magic Makers s’engage à former une génération qui a les moyens de résoudre les problèmes auxquels elle est confrontée. Parce que chacun peut créer avec la technologie et avoir un impact sur le monde, enfant comme adulte.
Un nouvel « Entretien autour de l’informatique ». Célia Zolynski est Professeure de droit privé à l’Université Paris Panthéon-Sorbonne, co-directrice du Département de recherche en droit de l’immatériel de la Sorbonne, et membre du Comité national pilote d’éthique du numérique. Ses activités de recherche et d’enseignement portent sur le droit du numérique, le droit de la propriété intellectuelle, le droit du marché et les libertés fondamentales. Elle explique comment les utilisateurs du numérique doivent reprendre le contrôle de leurs données, et ce que la loi peut faire pour cela.
Cet article est publié en collaboration avec theconversation.fr.
Célia Zolynski, photographie Didier Goupil
B : Peux-tu nous expliquer ton parcours de recherche en droit du numérique ?
CZ : Ce qui m’a intéressée dès le début de ma carrière de chercheure a été de comprendre comment le droit pouvait se saisir de ce nouvel objet qu’était internet et comment cela conduisait à adapter un certain nombre de normes juridiques ainsi que la façon même de les concevoir. J’ai alors cherché à déterminer comment utiliser la logique de l’informatique pour poser un autre regard sur des questions juridiques. Cela m’a conduite à me rapprocher par curiosité, par intérêt et pour solidifier mes compétences, de chercheurs en informatique, et à participer à des recherches à cheval sur les deux domaines.
Mon premier poste en qualité de professeur Agrégée en droit était aux Antilles. J’ai alors beaucoup travaillé sur les notions de patrimoine immatériel chères à la culture caribéenne. Cela m’a ramené sur les questions de droit d’auteur et j’ai d’ailleurs été associée à un certain nombre de débats sur la loi Hadopi.
Rentrée en métropole, j’ai été en poste à Rennes où j’ai enseigné le droit des affaires, le droit commercial. C’est alors plutôt sous l’angle du commerce électronique que je me suis intéressée au déploiement des réseaux. J’ai également animé un groupe de chercheurs en droit dans le cadre du réseau Trans Europe Experts, qui répond aux consultations des institutions de l’Union Européenne notamment sur les révisions des directives relatives au droit d’auteur dans l’environnement numérique. C’est à ce titre-là que j’ai commencé à m’intéresser au droit des données à caractère personnel, à l’époque où l’Union européenne lançait la réforme qui a abouti à l’adoption du RGPD.
J’ai ensuite été nommée au Conseil National du Numérique (sa troisième vague) dont la doctrine me semblait fondatrice pour le développement de la stratégie numérique française et européenne. Les personnes que j’y ai côtoyées m’ont permis de mieux comprendre certains aspects du numérique, la logique sous-jacente. C’est alors que j’ai pris conscience de la place essentielle que devrait avoir l’utilisateur dans la régulation du numérique. C’est devenu un axe important de mes travaux. L’objectif est de transformer cet utilisateur en un agent actif. Cela passe par des solutions techniques mais cela demande aussi de penser différemment un cadre juridique qui lui donne les moyens d’agir sans pour autant déresponsabiliser les entreprises.
Depuis, j’ai passé 4 ans comme Professeure à l’Université de Versailles Saint-Quentin à Paris-Saclay. C’est à Saclay que j’ai pu initier des collaborations avec des informaticiens, notamment Nicolas Anciaux d’Inria. Aujourd’hui, je suis Professeure à Paris-Sorbonne 1, Université au sein de laquelle je prolonge mes travaux aux côtés de chercheurs issus des Humanités numériques philosophes, historiens et économistes.
B : Tu as insisté sur la place de l’utilisateur dans la régulation du numérique ? Tu peux nous en dire plus.
CZ : Quand on analyse, par exemple, les conséquences du RGPD ou de la loi pour une république numérique, on réalise assez vite la difficulté pour les utilisateurs de pleinement profiter des protections de leurs données personnelles et de leur vie privée. On leur propose une approche purement défensive. Au-delà, on aimerait les placer en capacité de préserver activement leur autonomie informationnelle de ne pas se contenter des murs de protection que les systèmes informatiques et la loi mettent autour de leurs données.
On peut faire une analogie avec la figure traditionnelle du consommateur. Dans le cadre d’un discours paternaliste, on cantonnait le consommateur au rôle d’un enfant à protéger. Dans une approche plus moderne, on dépasse cette vision pour en faire un véritable acteur du marché.
De la même façon, on voudrait juridiquement donner à l’utilisateur des services numériques les moyens de garantir sa pleine autonomie informationnelle. Cela peut commencer par exemple par le droit à la portabilité des données, c’est-à-dire le droit de récupérer toutes ses données personnelles d’une application numérique. Mais on voit bien déjà, à travers cet exemple, la difficulté de mettre véritablement l’utilisateur en position de maîtriser son monde numérique. Quelles données ? Sous quel format ? Pour en faire quoi ?
Très rapidement, on se rend compte que ces pouvoirs d’agir donnés aux consommateurs peuvent n’être que des faux-nez, des faux-semblants, instrumentalisant le consentement de l’utilisateur pour faciliter la récupération de ses données. Vous acceptez les cookies d’une application parce que sans, le service se détériore, parce qu’on vous redemande sans cesse de les accepter. Quelle est alors la valeur de votre consentement ?
Un autre exemple de faux-semblant va nous être proposé par une approche qui se réclame pourtant de la défense des utilisateurs. Gaspard Koening, notamment, propose de reconnaître un droit de propriété sur ses données qui s’accompagnerait du droit de vendre ses données personnelles pour en tirer bénéfice. D’abord, on peut s’interroger sur le champ d’une telle mesure car peu de données sont réellement personnelles, les données étant le plus souvent sociales. Ai-je le droit de vendre des données qui me mettent en scène avec un grand ami ? Peut-il également les vendre ? On peut également se demander si cette consécration du droit de propriété serait conforme au RGPD. Mais, surtout, on peut craindre que, à partir du moment où l’on a vendu des données personnelles, on en perde la maîtrise. En essayant de réaffirmer le droit de l’utilisateur sur ses données, on arriverait alors à lui faire perdre tout contrôle sur ce qui en serait fait ! La propriété des données personnelles serait alors une sorte de miroir aux alouettes…
A mon avis, il faut tout au contraire redonner à l’utilisateur le contrôle sur ce qui est fait de ses données personnelles. C’est sur ça que porte ma recherche, sur comment conférer un véritable pouvoir à l’utilisateur, comment lui donner vraiment les moyens d’exercer son contrôle sur ses données personnelles. Pour ce faire, on va le placer en capacité, en faire un véritable agent du système en évitant des faux-semblants de liberté que sont l’instrumentalisation du consentement de l’utilisateur ou la monétisation des données.
B : Comment peut-on réaliser cela ?
CZ : On ajoute une brique supplémentaire que nous appelons, avec Nicolas Anciaux, l’ « agentivité ». Au-delà de la possibilité de récupérer ses données avec la portabilité, l’agentivité implique de véritablement savoir ce qui est fait de ses données, et de pouvoir en décider les usages.
Nous allons un peu dans le même sens que Tim Berners-Lee dans son projet Solid (Social Linked Data, en anglais). Ses idées sont de dépasser la réalité actuelle du web et des risques qui résultent des monopoles de situation qui se sont installés en associant l’utilisateur à la régulation de ses données personnelles. Dans notre projet, nous sommes plus ambitieux encore en offrant à l’agent le contrôle de l’usage de ses données, voire la possibilité de générer lui-même de nouveaux usages, en lui permettant d’orchestrer sous son contrôle des traitements de données. Il déciderait des traitements réalisés et on lui garantirait la conformité de ces traitements aux décisions qu’il a prises. Ça c’est la partie technique. La partie juridique serait de faire une sorte de manifeste qui assure la conformité des traitements, et la possibilité de les contrôler tout du long.
B : Pourrais-tu illustrer avec un exemple comment cela peut marcher en pratique.
CZ : Prenons le cas du cloud personnel. L’utilisateur peut choisir d’auto-héberger ses données. Il en contrôle ainsi l’usage. Il choisit les algorithmes qui tournent sur ses données et protège lui-même la confidentialité de ses données. Il a une parfaite autonomie informationnelle.
Mais vous allez me dire que l’utilisateur n’a pas les compétences de faire tout cela, que même s’ils les avaient, il n’a pas forcément envie de passer son temps à gérer des données. Certes, mais il peut payer une entreprise pour le faire. Ça reste de l’auto-hébergement parce qu’il paie l’entreprise, il a un contrat avec elle qui indique que c’est à lui de décider. On est très loin du modèle classique des plateformes du web qui pour héberger vos données se rétribuent en monétisant ces données ou votre attention. Ici, vous payez pour choisir ce qui est fait de vos données.
B : Mais en devenant le gérant de ses données, un utilisateur ne risque-t-il pas de devenir également responsable, de perdre la protection de lois comme le RGPD ?
CZ : C’est un vrai sujet. Qui dit liberté et choix, dit responsabilité. Mais si la responsabilité de l’utilisateur est une chose, sa responsabilité juridique aux titres de ses actes en est une autre. Toute la difficulté est là. Reprenons le cas du cloud personnel. Si vous décidiez d’auto-héberger vos données, seriez-vous alors le responsable de ces traitements parce que vous les avez choisis ? Perdriez-vous alors la protection du RGPD ? Ce serait terrible que le prix de votre souveraineté numérique soit la perte des protections du droit des données à caractère personnel.
Nous travaillons pour essayer de dégager un équilibre. L’utilisateur doit être mis en capacité cognitive de comprendre comment le système fonctionne, de faire des choix éclairés. Mais la responsabilité juridique de la sécurité du système revient à l’opérateur du cloud. Nous réfléchissons à des régimes juridiques de répartition « raisonnable » de la responsabilité. L’utilisateur ne serait responsable que de la partie qu’il maîtrise et le fournisseur du cloud personnel du reste et en particulier de la sûreté.
Tout l’intérêt du sujet de ces systèmes d’auto-hébergement, sa difficulté, réside dans le besoin d’articulation entre les aspects techniques et juridiques. Nous étudions avec Nicolas Anciaux les promesses autour de l’empowerment de l’utilisateur dans les solutions proposées et identifions éventuellement les vraies perspectives et les fausses promesses, en particulier les risques de responsabilisation déraisonnable des utilisateurs.
De : A Manifest-Based Framework for Organizing the Management of Personal Data at the Edge of the Network », R. Ladjel, N. Anciaux, P. Pucheral, G. Scerri, proceedings of International Conference on Information Systems Development (ISD), 2019.
B : Tu fais partie du Comité national pilote d’éthique du numérique. Pourquoi est-ce important ?
CZ : Le CNPEN a été mis en place en décembre 2019 sous l’égide du Comité consultatif national d’éthique à la demande du Premier ministre. Il est constitué de 27 personnes issues du monde académique, des entreprises ou de la société civile. En abordant de manière globale les enjeux d’éthique du numérique, son rôle est à la fois d’élaborer des avis sur les saisines qui lui sont adressées et d’effectuer un travail de veille pour éclairer les prises de décision individuelles et collectives.
Je suis ravie d’en faire partie. Dans le cadre de ce comité, nous pouvons explorer différents thèmes autour d’enjeux éthiques et d’éducation. Nous avons ouvert plusieurs sujets au CNPEN sur les chatbots, les véhicules autonomes, les décisions médicales mais aussi la désinformation, la télémédecine et les algorithmes de traçage pendant la pandémie. Chacun de ces sujets interpelle, pose des questions critiques à la société. Au sein du CNPEN, nous pouvons en débattre sereinement ; nous avons souvent des spécialistes du domaine parmi les membres du comité.
Par exemple, les phénomènes de désinformation et de mésinformation ont été exacerbés à l’occasion de la crise engendrée par l’épidémie de COVID. Cela a conduit les plateformes numériques telles que les réseaux sociaux, moteurs de recherche, ou systèmes de partage de vidéos à développer encore plus leurs pratiques et leurs outils numériques pour lutter contre leurs effets délétères tant sur le plan individuel que collectif. Si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations soulèvent d’autres questionnements éthiques relatifs au rôle joué par différentes autorités dans ce processus.
Cela interroge tout d’abord l’autorité ainsi acquise par les plateformes et le contrôle qui devrait en résulter. Ensuite, il apparaît que ces opérations ne peuvent se passer d’instances qui identifient les informations acceptables et celles qui ne le sont pas. Différentes questions émergent alors s’agissant de la légitimité dont jouissent ces instances dès lors qu’elles sont considérées par les plateformes comme contribuant à établir la vérité, à définir notre société.
Il nous faut ensuite repenser, ici encore, le rôle joué par l’utilisateur. Sa liberté de s’exprimer doit être pleinement garantie comme vient de l’affirmer le Conseil constitutionnel dans sa décision du 18 juin dernier qui a jugé la Loi « Avia » en grande partie inconstitutionnelle. Mais, dans le même temps, l’utilisateur doit être mieux informé du rôle qu’il peut jouer en tant qu’ « agent de la viralité » des contenus illicites et pouvoir contribuer à la régulation des contenus circulant sur le réseau. C’est un point essentiel auquel il convient de réfléchir tant sur le plan technique que juridique.
B : Une conclusion peut-être ?
CZ : Dans les sujets que nous discutons au CNPEN, cela devient de plus en plus évident : l’heure est venue de nous interroger collectivement sur la société que nous voulons construire demain avec le numérique. Les questions sociétales que cette technologie pose sont de plus en plus essentielles. On ne peut pas les appréhender si on ne considère qu’une facette du problème, par exemple que l’aspect technique, ou que juridique, ou qu’économique, etc. Il faut mener véritablement des recherches pluridisciplinaires.
On a déjà beaucoup avancé sur la protection de données mais la question est devenue, au-delà de la protection, de contrôler les usages des données dans la société. La même donnée peut servir pour la recherche médicale, pour des intérêts commerciaux, pour la surveillance, etc. La question n’est pas uniquement de choisir qui y a accès, mais de contrôler à quoi elle va servir. Et puis, cette donnée, ma donnée, peut aussi m’être utile personnellement, je veux également pouvoir développer mes propres usages des données.
Pour arriver à cela, il va falloir imaginer de nouvelles solutions techniques, de nouveaux cadres juridiques. Pour que cela fonctionne, la confiance est fondamentale. Je dois avoir confiance dans la robustesse de la technologie mais aussi dans la solidité du cadre juridique qui protège mes données.
Serge Abiteboul, Inria et ENS, Paris, et Laurence Devillers, Professeure, Université Paris-Sorbonne