Catégorie : Informatique

  • De la littérature à la culture numérique

    Un nouvel Entretien autour de l’informatique avec Xavier de La Porte, journaliste et producteur de radio. Il s’est spécialisé (entre autres) dans les questions de société numérique avec des chroniques quotidiennes comme “Ce qui nous arrive sur la toile” ou des émissions comme “Place de la Toile” sur France Culture et aujourd’hui “Le code a changé”, podcast sur France Inter. Il a été rédacteur en chef de Rue89. Il présente pour binaire sa vision de l’informatique et du numérique, celle d’un littéraire humaniste.

    Peux-tu nous dire d’où tu viens et comment tu t’es retrouvé spécialiste du numérique ? 

    C’est accidentel et contraint. J’ai suivi une formation littéraire, Normale Sup et agrégation, parce que j’aime la littérature. Mais l’enseignement et la recherche, ce n’était pas trop pour moi. Je me suis retrouvé à France Culture à m’occuper de société, de littérature, d’art. Quand Bruno Patino est devenu directeur de la chaîne, il m’a demandé de prendre en charge “Place de la Toile”, une émission un peu pionnière sur les cultures numériques. Je lui ai dit que le numérique ne m’intéressait pas. Il m’a répondu : “tu n’as pas le choix”. Il voulait que l’émission soit moins technique, ne soit plus réservée aux spécialistes et du coup, je lui paraissais bien adapté.

    Cet été-là, j’ai beaucoup lu, en grande partie sur les conseils de Dominique Cardon. J’ai découvert que c’était hyper passionnant. Pas les aspects purement techniques que je ne maîtrisais pas, mais le prisme que le numérique procurait pour regarder tous les aspects de la société. J’ai été scotché et depuis cette passion ne m’a jamais quitté.

    La contrainte journalistique que j’avais sur France Culture, c’était de parler à des gens qui aiment réfléchir (ils écoutent France Culture) mais qui sont souvent d’un certain âge et réticents à l’innovation technologique. Et ça tombait bien. Je n’y comprends rien, et l’innovation ne m’intéresse pas pour elle-même. Ma paresse intellectuelle et les limites de mes curiosités m’ont sauvé. Je ne me suis jamais “geekisé”. Bien sûr, avec le temps, j’ai appris. Je n’ai pas de culture informatique et mathématique et je reste très naïf devant la technique. Il m’arrive souvent de ne pas comprendre, ce n’est pas juste une posture. C’est sans doute pour cela que cela marche auprès du public qui, du coup, ne se sent pas méprisé ou auprès des personnalités que j’interviewe à qui je pose des questions simples que, parfois, elles ne se posent plus.

    Quels sont tes rapports personnels avec l’informatique ?

    Mon père était informaticien. Il avait fait à Grenoble une des premières écoles d’ingénieurs informatiques, au début des années 1970. Je ne voulais pas faire comme lui. Pourtant, j’ai passé pas mal de temps sur l’ordinateur de la maison, et pas que pour des jeux, bien que ma sœur ait été beaucoup plus douée que moi. Et je fais partie de cette génération qui a eu la chance d’avoir des cours d’informatique au lycée.

    En fait, je me suis rendu compte de tout ça quand j’ai commencé à animer “Place de la toile”, je me suis rendu compte que sans le savoir j’avais accumulé une culture informatique acquise sur le tas, mais acquise tout de même. Je pense que cette culture est indispensable aujourd’hui. Il faudrait inclure du numérique dans toutes les disciplines. Et il faut également enseigner l’informatique comme enseignement spécifique. Il faudrait que tout cela imprègne plus toute notre culture, et de manière réfléchie, historicisée, problématisée.

    Es-tu un gros consommateur de numérique ?

    Non. Je reste raisonnable même si je regarde beaucoup les nouveautés, par curiosité. Mais, comme beaucoup de gens, je subis. Je mets du temps à régler des problèmes tout bêtes comme une imprimante qui ne marche pas. J’essaie de comprendre et je perds beaucoup de temps. J’ai mis longtemps à passer au smartphone. Je ne voulais pas être collé à mon écran comme les autres. Ensuite, c’est devenu une forme de dandysme de ne pas en avoir. Il faut quand même dire que je ne suis pas très à l’aise avec tous ces outils. Je constate que ma copine, qui est d’une autre génération, les manipule avec beaucoup plus d’aisance.  Je le vis comme quelque chose d’exogène. Mais je pense que si ça ne mène pas à une technophobie un peu débile, cette distance n’est pas une mauvaise chose pour essayer de comprendre ce qui se passe.

    Et les réseaux sociaux ?

    Je pense que chaque réseau social a des particularités qui font qu’on s’y sent plus ou moins bien, que ce qui s’y passe nous intéresse plus ou moins. Je n’ai jamais été trop intéressé par Facebook. C’est un gros mélange un peu archaïque. On a des gens qui se causent, et des gens qui causent au monde. Je déteste Instagram qui me met mal à l’aise. C’est bourré de gens qui ne parlent que d’eux-mêmes, qui se mettent en scène en racontant la vie qu’ils voudraient avoir. Je n’aime pas dire ça, mais j’ai l’impression qu’il y a quelque chose de néfaste dans Instagram. On a beau savoir que c’est une mise en scène, cela pousse à une constante comparaison entre notre vie et celle des autres. TikTok, c’est tout autre chose ; je trouve cela assez génial. Les gens ne racontent pas leur vie, ils performent. Mais de tous les réseaux, celui que je préfère, c’est Twitter. C’est celui qui me convient et qui continue de me fasciner malgré tous les défauts qu’on peut lui trouver par ailleurs. C’est informationnel, c’est de la pensée. On ne s’étale pas.

    Est-ce que l’informatique transforme nos vies, notre société ?

    Qu’est-ce qui change ou qui ne change pas ? C’est la question qui m’obsède, la question centrale à laquelle j’essaie depuis toujours de répondre.

    En quoi la littérature est-elle transformée ? Ce n’est pas facile de faire rentrer un objet comme un téléphone ou un ordinateur dans un roman. Pourtant certains ont ouvert le chemin. Et puis la littérature change aussi parce qu’il y a Amazon, les écrans, les livres numériques, et plein de nouveaux trucs. Mais la littérature reste la littérature.

    Est-ce que des domaines changent ? Est-ce que nous-même nous changeons ?

    J’en suis arrivé à une conclusion pas très radicale : ça change mais en même temps ça ne change pas vraiment. J’ai une fille de quinze ans. Sa sociabilité est radicalement nouvelle par beaucoup d’aspects. Mais elle fait un peu la même chose que ce que les adolescentes font depuis longtemps. Elle passe par les mêmes phases. Nous sommes très différents des Grecs de l’époque classique. Pourtant, quand tu lis le début de la république de Platon, ça parle du bonheur ou d’être vieux, bref, ça parle de nous. Et les  questionnements de Platon nous touchent toujours.

    Bien sûr, tout cela ne peut pas être un argument pour dire que les choses ne changent pas. Ce serait juste débile. On doit chercher à comprendre ce qui est comme toujours et ce qui a changé. Les questionnements fondamentaux restent les mêmes finalement, quelles que soient les mutations.

    Tu n’as pas dit si tu considérais ces changements comme positifs ou pas.

    Les technologies, comme disait Bernard Stiegler, sont à la fois des poisons et des remèdes. En même temps, et c’est souvent comme cela avec les techniques. C’est une platitude de dire que certains aspects d’une technique peuvent être bons et d’autres néfastes. Bien sûr, certains réseaux sociaux sont plus toxiques que d’autres. Mais les réseaux sociaux en général n’ont pas que des aspects toxiques. Dire qu’en général les réseaux sociaux sont asociaux parce qu’ils ont été créés par des geeks. Non ! On ne peut pas dire cela. C’est juste simpliste. Les réseaux sociaux influencent notre sociabilité en bien et en mal, ils la transforment. Il faut apprendre à vivre avec eux pour bénéficier de leurs effets positifs sans accepter les négatifs.

    Est-ce que ces technologies transforment l’espace public ? Est-ce que le numérique est devenu un sujet politique ?

    On observe une vraie reconfiguration de l’espace public. La possibilité donnée à chacun d’intervenir dans l’espace public transforme cet espace, interroge. Le fait qu’internet permette à des gens qui ont des opinions minoritaires, radicales, de s’exprimer a des conséquences sur le fonctionnement même de la démocratie. Cela repose la question de la place des interventions des citoyens dans l’espace public, la question de savoir quelle démocratie est possible. Ce sont des vieilles questions mais pour bien comprendre ce qui se joue, il faut observer ce qui a changé.

    En cela, le numérique est devenu un sujet politique au sens le plus noble de la politique, et à plein de niveaux. Il pose aussi des questions de politique publique, de diffusion du savoir, de prise de parole. Par exemple, un détail, un aspect qui change la donne de manière extraordinaire : le numérique inscrit les opinions. Avant on avait des discussions et s’il y avait bien des prises de notes c’était un peu à la marge. Le temps passait et on n’avait que le souvenir des discussions. Aujourd’hui, on discute par écrit et on laisse plein de traces. Même quand c’est à l’oral, la discussion peut être enregistrée. On a toutes les traces. On peut retrouver ce que tu as dit des années après.

    Et puis le numérique soulève de nouvelles questions politiques comme la prise de décision par des algorithmes ou la cohabitation un jour avec des machines intelligentes. Est-ce qu’on peut donner un coup de pied à un robot ? C’est une question politique et philosophique, pas uniquement juridique.

    Que penses-tu des communs numériques ?

    Je me suis intéressé aux communs via le numérique. Des gens comme Philippe Aigrain, Valérie Peugeot ou Hervé Le Crosnier, m’ont sensibilisé au sujet. J’ai lu un peu l’histoire des communs, des enclosures. La notion est hyper belle, intéressante. On voit bien théoriquement comme cela pourrait résoudre de nombreux problèmes, et permettre de penser des questions très contemporaines. Pourtant, ça n’a pas énormément pris. Je ne peux pas expliquer pourquoi. La théorie est peut-être trop compliquée. Peut-être des concepts alternatifs voisins ont-ils occupé l’espace en se développant, comme la tiers économie, l’économie du partage. Mais je crois quand même qu’on pourrait développer cette notion de commun, en tirer beaucoup plus.

    Est-ce qu’il y a une particularité française dans le numérique ?

    Je n’ai pas vraiment réfléchi au sujet. Je vois un côté très français dans le rapport entre le monde intellectuel et le monde numérique. Cela tient peut-être à une forte dissociation en France entre sciences et technique d’un côté et le littéraire et les humanités de l’autre. Nos intellectuels aiment se vanter de ne pas être scientifiques. A l’Assemblée nationale, on adore citer des philosophes mais on affiche rarement une culture scientifique. La conséquence est une vision décalée du sujet numérique. On va demander à Alain Finkielkraut ce qu’il pense d’une question autour du numérique alors qu’il n’y connaît rien. On a mis du temps à vraiment prendre en compte une culture informatique. Dans les milieux académiques des humanités, s’il y a eu assez tôt des chercheurs qui se sont emparés du numérique dans de nombreuses disciplines, j’ai l’impression que l’enthousiasme est moindre aujourd’hui.

    Quelles sont les technos informatiques que tu trouves prometteuses, qui t’intéressent ?

    Évidemment, l’intelligence artificielle est fascinante. C’est une mine de questions passionnantes. Comment ça marche ? Qu’est-ce qu’on en attend ? Qu’est-ce qu’on est en droit d’en attendre ?

    En revanche, j’ai du mal à m’intéresser au métavers. C’est un truc qui est totalement créé par les grandes marques. Je n’ai jamais rien vu, dans le numérique, d’investi aussi vite par les marques. Internet est né comme un commun. Le métavers est dès l’origine dans un délire capitaliste.

    Est-ce que, dans ta carrière, certaines interviews t’ont particulièrement marqué ?

    Je pourrais en citer plein mais je vais me contenter de trois.

    Pour Bruno Latour, je m’étais bien préparé mais pas lui. Il a débarqué au dernier moment, cinq minutes avant le direct, et il ne s’attendait pas à parler de numérique. Il m’a dit qu’il n’avait rien à raconter là-dessus. J’ai commencé par raconter un article du Guardian, et Latour n’a cessé pendant toute l’émission de relier les questions que je lui posais à cet article. C’était passionnant, une vision intelligente de quelqu’un de brillant, qui commentait les questions numériques sans être un expert, d’un peu loin.

    Stéphane Bortzmeyer était à l’autre bout du spectre, quelqu’un de très proche du sujet, de la technique. Je craignais un peu qu’on n’y comprenne rien. Je m’attendais au pire après le premier contact au téléphone où il était très très laconique. Et l’émission démarre, et le mec sait être hyper clair, je dirais même lumineux. Un passeur de science extraordinaire avec toute son histoire, notamment politique.

    Et enfin, je voudrais citer Clarisse Herrenschmidt, une spécialiste des premières écritures qui venait d’écrire un livre “les trois âges de l’écriture” : l’écriture monétaire arithmétique, l’écriture des langues, et enfin l’écriture informatique. J’ai trouvé sa démarche intellectuelle hyper intéressante. J’ai pris énormément de plaisir à l’interviewer. Elle me faisait découvrir un domaine extraordinaire. Elle m’a mis en relation avec de nombreux chercheurs qui ont conduit à plusieurs de mes émissions. Depuis quinze ans, je me suis beaucoup “servi” de mes invités : souvent ils m’ont eux-mêmes indiqué d’autres personnes passionnantes qui sont en dessous des radars journalistiques. Comme le milieu informatique n’est pas mon milieu naturel, ça m’est très utile. Clarisse a été une des ces “sources”.

    Serge Abiteboul, Marie-Agnès Enard

    https://binaire.socinfo.fr/les-entretiens-de-la-sif/

  • La NSI pour que tout le monde y arrive aussi

    L’introduction de l’enseignement de l’informatique au lycée va permettre aux prochaines générations de maîtriser et participer au développement du numérique. Le principal enjeu est alors la formation des enseignantes et des enseignants. Comment relever un tel défi ?

    « Eils ne savaient pas que c’était impossible … alors eils l’ont fait´´ Mark Twain (apocryphe).

    Les enseignant·e·s d’informatique ont d’abord fait communauté d’apprentissage et de pratique : depuis des semaines déjà, l’AEIF et le projet CAI contribuent à l’accueil et l’entraide de centaines de collègues en activité ou en formation, discutant de tous les sujets, partageant des ressources sur un forum dédié et des listes de discussions.

     Et puis avec quelques collègues de l’enseignement secondaire et supérieur eils ont tenté (et réussi) à offrir deux formations en ligne :

     

    • Une formation aux fondamentaux de l’informatique, accessible ici, avec plus d’une centaine d’heures de ressources de formation d’initiation et de perfectionnement. Plus qu’un simple « MOOC´´, ce sont les ressources d’une formation d, et un accompagnement prévu pour permettre de bien les utiliser.
    • Une formation pour apprendre à enseigner… par la pratique, accessible ici, en co-préparant les activités pédagogiques des cours à venir, en partageant des pratiques didactiques et en prenant un recul pédagogique, y compris du point de vue de la pédagogie de l’égalité.

    Ces formations permettent de commencer à se former au CAPES et les personnes désireuses de se préparer au CAPES y trouveront aussi des conseils et des pistes de travail. Elles sont particulièrement utiles pour les professionel·le·s de l’informatique qui souhaitent se réorienter vers l’enseignement.

    On peut s’inscrire gratuitement sur l’une et l’autre de ces formations sur la plateforme FUN.

    Ce fut une aventure, disons, un peu compliqué, à cause du covid-19 et de quelques autres soucis … et on peut considérer le travail des collègues du https://learninglab.inria.fr et des collègues qui ont fait front en équipe comme un exploit, en réussissant à produire un objet vraiment inédit, qui va vivre et évoluer au fil du temps.

    Le message de l’équipe :

    « Le défi était immense, bien au-delà de ce que l’on peut atteindre avec seulement un ou deux MOOCs usuels. Alors nous l’avons relevé en faisant un parcours de formation un peu gigantesque et inédit, qui sera adapté cette première année, grâce à votre participation, pour vos besoins de formation. Vous, les « profs », devenez donc co-actrice ou acteur avec nous dans la réalisation de cette formation.

    Destinés aux futur·e·s collègues, cet espace est ouvert plus largement à d’autres publics : celles et ceux qui s’intéressent à ces sujets, d’une professionnelle de l’informatique qui imagine se reconvertir ou à un parent curieux de ces sujets devenus matière scolaire : bienvenue ! »

    Anthony, Aurélie, Charles, David, Gilles, Jean-Marc, Marie-Hélène, Maxime, Mehdi, Olivier, Sébastien, Tessa, Thierry, Thierry, Vania, Violaine et toute l’équipe.

    (suite…)

  • Les cinq murs de l’IA 6/6 : des pistes de solutions

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 6: des pistes pour éviter de se fracasser sur les cinq murs

    Je ne voulais pas laisser cette série se terminer sur une note négative, il me reste donc à évoquer quelques pistes pour le futur. Amis lecteurs, je suppose que vous avez lu les cinq épisodes précédents, ils sont indispensables à la compréhension de ce qui suit.

    D’abord, sur la confiance. C’est un des sujets majeurs de recherche et développement en IA depuis quelques années, pour les systèmes dits à risques ou critiques1. Par exemple, le programme confiance.ai, qui réunit des partenaires industriels et académiques sur quatre ans pour développer un environnement d’ingénierie pour l’IA de confiance, aborde de multiples sujets: qualité et complétude des données d’apprentissage; biais et équité; robustesse et sûreté; explicabilité; normes et standards; approche système; interaction avec les humains. Et ce n’est pas le seul, de multiples initiatives traitent de ce sujet, directement ou indirectement. On peut donc espérer avoir dans quelques années un ensemble de technologies permettant d’améliorer la confiance des utilisateurs envers les systèmes d’IA. Sera-ce suffisant ? Pour ma part, je pense que faute d’avancées fondamentales sur la nature des systèmes d’IA on n’arrivera pas à des garanties suffisantes pour donner une confiance totale, et probablement des accidents, catastrophiques ou non, continueront à se produire. Mais on aura fait des avancées intéressantes et on aura amélioré les statistiques. En attendant d’avoir la possibilité de démontrer les facteurs de confiance, il faudra s’appuyer sur des quantités d’expériences : des centaines de millions de kilomètres parcourus sans encombre par des véhicules autonomes, des dizaines de milliers de décisions automatiques d’attributions de crédits non contestées, de diagnostics médicaux jugés corrects par des spécialistes etc.). On en est encore loin. Et la confiance n’est pas qu’un sujet technologique, les facteurs humains et sociaux sont prépondérants. L’étude2 – un peu ancienne mais certainement toujours pertinente – faite par les militaires américains – est éclairante.

    Sur l’énergie, plusieurs pistes sont développées, car le mur est proche de nous ! Si la croissance actuelle se poursuit, il faudra en 2027 un million de fois plus d’énergie qu’aujourd’hui pour entraîner les systèmes d’IA, à supposer que l’on continue à le faire de la même manière.

    Je vois principalement trois types de solutions, dont les performances sont très différentes: a) solutions matérielles; b) amélioration des architectures et algorithmes de réseaux neuronaux profonds: c) hybridation avec d’autres formalismes d’IA.

    Je ne m’étends pas sur a), il existe des dizaines de développements de nouveaux processeurs, architectures 3D, architectures neuro-inspirées, massivement parallèles, etc., et d’aucuns disent que l’ordinateur quantique lorsqu’il existera, résoudra la question. Lorsque Google est passé des GPU (Graphical Processing Units) de Nvidia aux TPU (Tensor Processing Units) qu’il a développé pour ses propres besoins, un saut de performance a été obtenu, pour une consommation d’énergie relativement stable. Disons que les pistes matérielles permettent des économies d’énergie intéressantes, mais ne changent pas fondamentalement les choses.

    Les recherches sur b) sont plus intéressantes: améliorer la structure des réseaux par exemple en les rendant parcimonieux par la destruction de tous les neurones et connexions qui ne sont pas indispensables; ou encore par la définition d’architectures spécifiques, à l’image des réseaux récurrents de type LSTM pour le signal temporel, ou des Transformers (BERT, Meena, GPT3 etc.) pour le langage, dont la structure permet de faire de la self-supervision et donc au moins d’économiser l’annotation des données d’entraînement3 – mais tout en restant particulièrement gourmands en temps d’apprentissage. Je pense également à l’amélioration du fonctionnement interne des réseaux comme l’ont proposé divers auteurs avec des alternatives à la rétro-propagation du gradient ou autres.

    Enfin, la troisième approche consiste à combiner les modèles neuronaux à d’autres types de modèles, essentiellement de deux natures: modèles numériques utilisés pour la simulation, l’optimisation et le contrôle de systèmes; modèles symboliques, à base de connaissances. Si on est capable de combiner l’expertise contenue dans ces modèles, basée sur la connaissance établie au cours des années par les meilleurs spécialistes humains, à celle contenue dans les données et que l’on pérennise par apprentissage, on doit pouvoir faire des économies substantielles de calcul, chacune des deux approches bénéficiant de l’autre. Le sujet est difficile car les modèles basés sur les données et ceux basés sur les connaissances ne sont pas compatibles entre eux, a priori. Quelques travaux existent sur la question, par exemple ceux de Francesco Chinesta4, ou le projet IA2 de l’IRT SystemX5.

    J’ai bien peur que le mur de la sécurité de l’IA soit très solide. Ou plutôt, il a une tendance naturelle à s’auto-réparer lorsqu’il est percé. Je m’explique (réécriture d’extraits d’un billet paru dans le journal Les Echos).

    D’une manière générale, les questions de cybersécurité sont devenues cruciales dans notre monde où le numérique instrumente une partie de plus en plus importante des activités humaines. De nouvelles failles des systèmes sont révélées chaque semaine ; des attaques contre des sites ou des systèmes critiques ont lieu en continu, qu’elles proviennent d’états mal intentionnés, de groupes terroristes ou mafieux. Les fournisseurs proposent régulièrement des mises à jour des systèmes d’exploitation et applications pour intégrer de nouvelles protections ou corrections de failles. Le marché mondial de la sécurité informatique avoisine les cent milliards d’euros, les sociétés spécialisées fleurissent. En la matière il s’agit toujours d’un jeu d’attaque et de défense. Les pirates conçoivent des attaques de plus en plus sophistiquées, l’industrie répond par des défenses encore plus sophistiquées. Les générateurs d’attaques antagonistes et de deepfakes produisent des attaques de plus en plus sournoises et des faux de plus en plus crédibles, l’industrie répond en augmentant la performance des détecteurs de faux. Les détecteurs d’intrusions illégales dans les systèmes font appel à des méthodes de plus en plus complexes, les attaquants sophistiquent encore plus leurs scénarios de pénétration. Les protocoles de chiffrement connaissent une augmentation périodique de la longueur des clés de cryptographie, qui seront ensuite cassées par des algorithmes de plus en plus gourmands en ressources de calcul. Et ainsi de suite.

    Pour les attaques adverses, une solution déjà évoquée est d’entraîner les réseaux avec de telles attaques, ce qui les rend plus robustes aux attaques connues. Mais, la course continuant, les types d’attaques continueront d’évoluer et il faudra, comme toujours, répondre avec un temps de retard. Quant aux attaques de la base d’apprentissage, leur protection se fait avec les moyens habituels de la cybersécurité, voir ci-dessus.

    Comparons au domaine militaire, qui a connu la course aux armements pendant de longues périodes : glaives, boucliers et armures il y a des milliers d’années, missiles et anti-missiles aujourd’hui. La théorie de la dissuasion nucléaire, établie il y a une soixantaine d’années, a modéré cette course, puisque la réponse potentielle d’une puissance attaquée ferait subir des dommages si graves que cela ôterait toute envie d’attaquer. Début 2018, l’État français a reconnu s’intéresser à la Lutte Informatique Offensive. Israël a déjà riposté physiquement à une cyber-attaque. Il faudrait peut-être imaginer une doctrine équivalente à la dissuasion nucléaire en matière de cybersécurité de l’IA … ou espérer que l’IA apporte suffisamment de bonheur à la population mondiale, et ce de manière équitable, pour que les causes sociales et autres (politiques, religieuses, économique etc.) de la malveillance disparaissent. Cela va prendre un peu de temps.

    J’aborde maintenant le mur de l’interaction avec les humains. On peut commencer à le fracturer en ajoutant des capacités d’explication associées à la transparence des algorithmes utilisés. La transparence est indispensable lorsqu’il s’agit de systèmes qui sont susceptibles de prendre des décisions (imposées) ayant un impact important sur notre vie personnelle et sociale. Un sujet qui a par exemple fait l’objet d’un petit rapport de l’institut AINow de Kate Crawford6, dont l’objectif est de définir un processus assurant la transparence des systèmes de décision mis en place au sein des administrations. On pense notamment aux domaines de la justice, de la police, de la santé, de l’éducation, mais le texte se veut générique sur l’ensemble des sujets d’intérêt des administrations. La démarche préconisée par les auteurs est en quatre étapes et s’accompagne d’une proposition organisationnelle. Les quatre étapes sont 1) Publication par les administrations de la liste des systèmes de décision automatisée qu’elles utilisent ; 2) auto-évaluation des impacts potentiels de ces systèmes par les administrations, notamment en phase d’appels d’offres ; 3) ouverture des systèmes au public et aux communautés – en respectant les conditions de confidentialité ou de propriété intellectuelle – pour examen et commentaires ; 4) évaluation externe par des chercheurs indépendants.

    J’ai déjà abordé, dans la section correspondante, les travaux sur l’explicabilité. Un « méta-état de l’art7 » a été produit par le programme confiance.ai, c’est-à dire une synthèse de nombreuses synthèses déjà publiées dans la communauté. Les pistes sont nombreuses, je ne les détaillerai pas plus ici. Ma faveur va à celles qui combinent apprentissage numérique et représentations à base de connaissances (logiques, symboliques, ontologiques), même si elles sont encore à l’état de promesses: le passage du numérique (massivement distribué dans des matrices de poids) au symbolique est un sujet particulièrement ardu et non résolu de manière satisfaisante pour le moment.

    Plus généralement, l’interaction entre systèmes d’IA et humains entre dans le concept général d’interaction humain-machine (IHM ou HCI, human-computer interaction en anglais). La communauté IHM travaille depuis des décennies sur le sujet général, avec des réalisations remarquables en visualisation, réalité virtuelle, réalité augmentée, interfaces haptiques etc.; on peut – et il faut – faire appel à leurs compétences pour le cas particulier des interactions avec des machines d’IA. C’est par exemple ce que propose la deuxième édition du Livre Blanc d’Inria sur l’Intelligence Artificielle8, qui consacre un chapitre au sujet en soulignant quatre orientations majeures:
    créer une meilleure division du travail entre les humains et les ordinateurs, en exploitant leurs pouvoirs et capacités respectifs tout en reconnaissant leurs limites et leurs faiblesses;
    – apporter une transparence et une explication véritables aux systèmes d’IA grâce à des interfaces utilisateur et des visualisations appropriées;
    – comment combiner les systèmes interactifs et les systèmes d’IA afin que chacun tire parti des forces de l’autre au moment opportun, tout en minimisant ses limites;
    – créer de meilleurs outils, davantage axés sur l’utilisateur, pour les experts qui créent et évaluent les systèmes d’IA

    La piste que je préconise donc (à l’image d’autres chercheurs et institutions qui l’ont également encouragé) est de resserrer les liens entre les deux communautés IA et IHM. Les chercheurs en IA y trouveront des éléments pour repousser le quatrième mur, et les chercheurs en IHM y trouveront la source de nouveaux défis pour leurs méthodes et leurs outils.

    Reste le mur de l’inhumanité: le plus éloigné, mais aussi le plus solide pour le moment. Le risque n’est pas encore très important, mais s’amplifiera au fur et à mesure de l’insertion de systèmes IA de plus en plus autonomes, intrusifs, et impactants, dans notre société. En ce qui concerne la quête du sens commun, on a vu que des millions de dollars et des années de recherche investis sur CYC n’ont pas réglé la question, loin de là. Peut-on miser sur des nouvelles architectures et organisations de réseaux neuronaux pour cela? Certains l’espèrent. Personnellement, je miserai plutôt sur une autre branche de l’IA, celle de la robotique développementale (developmental robotics) qui a pour but de faire acquérir à des robots doués de sens les notions de base du monde en interagissant avec leur environnement – peuplé d’objets et d’humains – et surtout en stimulant ce qu’on appelle la curiosité artificielle, à savoir doter les robots d’intentions et de capacités d’exploration et d’envoi de stimuli vers leur environnement afin d’en recevoir un feedback pour l’apprentissage par renforcement. Certaines expérimentations faites par l’équipe Inria FLOWERS (image ci-contre) sont assez convaincantes en ce sens.

    Image Inria, équipe-projet FLOWERS

    J’ai déjà abordé les recherches en cours sur la découverte de la causalité par apprentissage automatique. C’est un sujet de longue haleine bien identifié mais disposant de peu de résultats. Les équipes de Bernhard Schöllkopf à Tubingen9 et de Yoshua Bengio à Montréal10 ont publié des premiers résultats encore insuffisants, basés sur la notion d’intervention. L’équipe TAU d’Inria Saclay a développé des méthodes pour identifier des relations de causalité dans des tableaux de données11. Je pense que l’introduction explicite de causalité soit par conception d’architecture, soit par ajout d’une couche causale symbolique, apporteront des résultats plus rapidement et plus concrètement – modulo la difficulté de combiner symbolique et numérique, dont j’ai déjà parlé. Une piste alternative, très intéressante, est celle utilisée par la startup américaine de Pierre Haren CausalityLink12, qui se base sur le texte pour détecter automatiquement – et statistiquement – les liens de causalité entre variables d’un domaine, sujet qui intéresse beaucoup les financiers.

    Enfin, pour le passage de l’IA au niveau du Système 2, j’ai abordé les pistes dans la section correspondante. La principale question est de savoir si cela peut être atteint par apprentissage de réseaux neuronaux – après tout, c’est bien ainsi que nous fonctionnons – ou par la conjonction de réseaux avec d’autres modes de représentations des connaissances, réalisant une IA hybride conjuguant symbolique et numérique, mettant en résonance les rêves et avancées de l’IA de la fin du vingtième siècle avec les progrès remarquables de celle du début du vingt-et-unième.

    Tout ceci pour réaliser des IA faibles, spécialisées sur la résolution d’un seul ou d’un petit nombre de problèmes, bien entendu, même si certains comme DeepMind ont l’ambition de développer une IA Générale. Mais essayons déjà de ne pas nous écraser dans les murs de l’IA spécialisée.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes:

    1 Pour des applications non critiques comme la recommandation de contenu ou de chemin optimal pour aller d’un point à un autre, cette question est évidemment moins cruciale. Nous utilisons ces systèmes tous les jours sans nous poser de questions.

    2 Foundations for an Empirically Determined Scale of Trust in Automated System, Jiun-Yin Jianet aL, (2000) International Journal of Cognitive Ergonomics

    3 Attention is All you Need, Ashish Vaswani et al. (2017), ArXiv 1706.03762

    4 https://project.inria.fr/conv2019/program/#program, communication non publiée

    5 https://www.irt-systemx.fr/activites-de-recherches/programme-ia2

    6 Algorithmic Impact Assessments: a practical framework for public agency accountability, AINow Institute, 2018, https://ainowinstitute.org/aiareport2018.html

    7 Characterisation of the notion of trust, State of the art, T. Boissin et coll. , confiance.ai EC2&EC3&EC4 projects, (2021), disponible sur demande

    8 Artificial Intelligence: current challenges and Inria’s engagement, second edition, B. Braunschweig et al., 2021; https://www.inria.fr/en/white-paper-inria-artificial-intelligence

    9 Causality for Machine Learning, B. Schöllkopf, 2019, ArXiv:1911.10500v1

    10 LEARNING NEURAL CAUSAL MODELS FROM UNKNOWN INTERVENTIONS, N.R. Ke et al., 2019, ArXiv:1910.01075v1

    11 https://raweb.inria.fr/rapportsactivite/RA2020/tau/index.html

  • Le fonctionnement d’un projet de logiciel libre : Scikit-learn

    Scikit-learn est une bibliothèque libre Python destinée à l’apprentissage automatique. Elle offre des bibliothèques d’algorithmes en particulier pour les data scientists.  Elle fait partie de tout un écosystème libre avec d’autres bibliothèques libres Python comme NumPy et SciPy. Pour les spécialistes, elle comprend notamment des fonctions de classification, régression et clustering. Elle fait un tabac dans le monde de l’apprentissage automatique. Nous avons rencontré Gaël Varoquaux, directeur de recherche à Inria dans l’équipe Soda, cofondateur du projet Scikit-learn, ancien élève de l’École normale supérieure et titulaire d’un doctorat en physique quantique pour comprendre comment fonctionne un projet de logiciel libre plutôt emblématique.
    Gaël Varoquaux,  © Inria / Photo G. Scagnelli

    Binaire : Quelle est la taille de l’équipe Inria de Scikit-learn ?

    Gaël Varoquaux : Si on compte les personnes à temps plein sur le projet à Inria, il y a 5 personnes. Mais il y a beaucoup plus de personnes qui participent et qui aident, entre autres des chercheurs qui s’investissent sur des questions dans leur domaine spécifique d’expertise. Scikit-learn est plus large qu’un projet Inria standard et a de nombreux participants et contributeurs en dehors d’Inria.

    B : Comment peut-on mesurer la popularité du système et son utilisation ?

    GV : Une des façons de le faire est de regarder les statistiques d’accès à la documentation : elles montrent un million d’accès par mois. C’est une bonne mesure des participations des développeurs, mais certainement pas une mesure des participation des utilisateurs qui se servent de produits générée à partir de scikit-learn et qui sont certainement beaucoup plus nombreux. Les statistiques Kaggle (*)  par exemple montrent que plus de 80% des projets Kaggle utilisent régulièrement scikit-learn. Le deuxième plus utilisé étant Tensor Flow avec un taux de plus de 50%.

    Les développeurs Scikit-learn sont répartis un peu partout dans le monde. Le nombre d’utilisateurs aux États-Unis, en Amérique du Sud ou en Chine est proportionnel au nombre de développeurs dans ces pays.

    B : Est-ce qu’il y a des thèmes particuliers ?

    GV : C’est difficile à dire parce qu’on n’a pas toujours l’information. Parmi les thèmes, on voit clairement la science des données, des analyses socio-économiques, et tout ce qui touche aux questions médicales. Un domaine où on a eu un fort impact, c’est la banque. Par exemple sur des sujets type détection de fraude. Vous comprendrez que, vu la sensibilité des sujets, c’est difficile de rentrer dans les détails.

    B : Le projet est-il en croissance, en stabilité ou en régression ?

    GV : En nombre d’utilisateurs, il est clairement en croissance. Une des raisons est que le nombre de data scientists croit ; on est tiré par cette croissance. Est-ce qu’on croit plus que cette croissance naturelle, je ne sais pas. En moyens internes et taille du projet, on est aussi clairement en croissance.

    B : D’où vient le financement ? Quel est le budget de Scikit-learn ?

    GV : Principalement de gros contributeurs. Nous nous sommes focalisés sur eux jusqu’à présent . En particulier, nous avons une dotation d’Inria qui doit être de l’ordre de 300 000 € par an. Ensuite, nous avons beaucoup d’organisations qui contribuent financièrement, soit par des dotations financières, soit en prenant en charge tel ou tel contributeur. Donc si on voulait évaluer le montant global, il est très certainement bien en millions d’euros par an.

    B : Quelle licence avez-vous choisie et pourquoi ?

    GV : On a choisi la licence BSD (+), pour deux raisons. D’abord, c’est une licence avec laquelle les gros utilisateurs sont relativement confortable (en tout cas plus confortable qu’avec la GPL). Par ailleurs, c’est une licence du monde Python, qui est notre monde.

    B : Quelle place le projet a-t-il dans Inria ? Y a t-il d’autres projets similaires dans l’institut ?

    GV : Le projet est hébergé par la Fondation Inria. Nous avons une convention de mécénat qui réunit les partenaires du projet et qui définit comment nous travaillons ensemble. Le projet est vu à l’intérieur d’Inria comme un succès et il est souvent mis en avant.

    Il y a  d’autres projets un peu comme nous, par exemple OCaml. OCaml a une organisation différente de la nôtre, beaucoup plus verticale, et fonctionne sur un ADN différent. Mais les deux approches ont du sens.

    B : Comment êtes-vous organisés ? Et comment vous avez choisi votre gouvernance  ?

    GV :  A l’origine, les premières idées pour la gouvernance nous sont venues de la communauté Apache et c’est sa gouvernance qui a servi d’inspiration. La gouvernance a d’abord été surtout informelle et puis on a commencé à la formaliser. La description de la gouvernance est ici. Cette formalisation a été développée notamment à la demande d’un de nos sponsors qui voulait mieux comprendre comment on fonctionnait. Il y a deux éléments dans nos règles de fonctionnement :  il y a une gouvernance écrite et puis il y a quelque chose qu’on considère comme les us et coutumes, la culture de notre communauté. La gouvernance continue à changer notamment probablement la prochaine étape sera de mettre en place la notion de sous-groupe, qui permettra de fonctionner sur une plus petite échelle.

    De manière générale, on veut être très transparent, en particulier, sur les décisions prises. En revanche, de temps en temps on considère qu’il doit y avoir des discussions privées et ces discussions ont lieu.

    B : Tu crois à l’idée du dictateur bienveillant ?

    GV : Pas du tout ! On refuse ça complètement. Notre mode de décision est par consensus : on fonctionne en réseau et pas du tout de façon hiérarchique. Ça marche, mais le problème du consensus c’est que ça induit une certaine lenteur, lenteur qui peut aussi causer une certaine frustration auprès des contributeurs. Donc on essaie d’améliorer le processus de gestion des conflits.

    B : Quel type de conflits ?

    GV : Il y a 2 types soit des conflits : les complètement triviaux, par exemple quelle est la couleur qui faut donner à tel ou tel objet. Et puis on a des conflits de fond, des choix essentiels qu’il faut régler en prenant son temps.

    B : Tu contribues au code ?

    GV : Je code encore, mais pas énormément. L’essentiel de mon activité est l’animation du projet et de la communauté.

    B : Est-ce qu’il y a des spin-off de Scikit-learn aujourd’hui  ? 

    GV : Il n’y en a pas aujourd’hui, mais ça pourrait se produire. On est sorti des années difficiles, celles pendant lesquelles on se battait pour avoir des moyens, pendant lesquelles les profils de l’équipe étaient essentiellement scientifiques. Maintenant on est un peu plus confortable donc la communauté s’est diversifiée, il y a des profils différents, et  éventuellement certains pourraient être intéressés par la création de start-up.

    B : Des forces d’un tel projet tiennent de sa documentation et de ses tutoriels.  Les vôtres sont excellents. Vous avez un secret ?

    GV : C’est parce que nous sommes pour la plupart chercheurs ou enseignants-chercheurs. Nous avons l’habitude d’enseigner ces sujets, et nous le faisons avec Scikit-learn. Et puis, nous aimons expliquer. Nous avons établi assez tôt des normes et nous nous y tenons : par exemple, une méthode ne peut être ajoutée au projet sans venir avec des exemples et une documentation qui explique son utilité.

    B : Quel est l’intérêt commun qui réunit la communauté ?

    GV : On peut dire que notre objectif, c’est de rendre la science des données plus facile pour tous. Ça, c’est l’objectif global. Les motivations individuelles des contributeurs peuvent être différentes. Certains, par exemple, sont là parce qu’ils veulent participer à rendre le monde meilleur.

    B : C’est bon pour la carrière d’un chercheur de travailler à Scikit-learn ?

    GV : Le projet offre clairement un boost de carrière pour les chercheurs Inria.

    Serge Abiteboul, François Bancilhon

     

    Choisir le bon estimateur avec scikit-learn : le site propose un guide pour s’orienter parmi tous les algorithmes ©scikit-learn

    Références :

    (*) Kaggle est une plateforme web organisant des compétitions en science des données appartenant à Google. Sur cette plateforme, les entreprises proposent des problèmes en science des données et offrent un prix aux datalogistes obtenant les meilleures performances. Wikipédia 2022. (Note des éditeurs : c’est une plateforme très populaire.)

    (+) La licence BSD (Berkeley Software Distribution License) est une licence libre utilisée pour la distribution de logiciels. Elle permet de réutiliser tout ou une partie du logiciel sans restriction, qu’il soit intégré dans un logiciel libre ou propriétaire.

    Et pour en savoir plus :

    – Le site avec le logiciel téléchargeable https://scikit-learn.org/stable.

    – Un MOOC gratuit et accessible pour se former à utiliser Scikit-learn https://www.fun-mooc.fr/en/courses/machine-learning-python-scikit-learn.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Les cinq murs de l’IA 5/6 : l’inhumanité

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 5: le mur de l’inhumanité

    Cet épisode s’intéresse à des capacités intellectuelles qui distinguent fortement les humains des machines, en tous cas pour le moment. Le paragraphe sur Système 2 reprend principalement un billet paru dans le journal Les Échos courant 2021.

    Je range plusieurs composantes dans ce cinquième mur que j’appelle globalement celui de l’humanité des machines, ou plutôt celui de leur inhumanité : acquisition du sens commun; raisonnement causal; passage au système 2 (au sens de Kahneman1). Toutes composantes que nous, humains, possédons naturellement et que les systèmes d’intelligence artificielle n’ont pas – et n’auront pas à court ou moyen terme.

    Le sens commun, c’est ce qui nous permet de vivre au quotidien. Nous savons qu’un objet posé sur une table ne va pas tomber par terre de lui-même. Nous savons qu’il ne faut pas mettre les doigts dans une prise électrique. Nous savons que s’il pleut, nous serons mouillés. Dans les années 80-90, un grand projet de modélisation des connaissances, CYC2, initié par Doug Lenat, a tenté de développer une base de connaissances du sens commun, en stockant des millions de faits et règles élémentaires sur le monde. Ce projet n’a pas abouti, les systèmes d’IA actuels ne sont capables que de résoudre des problèmes très précis dans un contexte limité, ils ne savent pas sortir de leur domaine de compétence. Sans aller jusqu’à parler d’Intelligence Artificielle Générale (celle qui fait peur et qu’aucun spécialiste du domaine n’envisage réellement à un futur atteignable), faute de disposer de bases élémentaires faisant sens, les systèmes d’IA seront toujours susceptibles de faire des erreurs monumentales aux conséquences potentielles dommageables.

    Il est très largement connu que les systèmes d’IA entraînés par apprentissage établissent des corrélations entre variables sans se soucier de causalité. Dans l’exemple référence du classement d’images de chats, le réseau établit une corrélation – complexe certes – sans lien de causalité entre les données d’entrées (les pixels de l’image) et la donnée de sortie (la catégorie). Il existe de nombreux exemples de corrélations « fallacieuses » (spurious correlations) comme dans celui-ci, tiré du site du même nom3 qui établit une corrélation à 79% entre le nombre de lancers de navettes spatiales et celui de doctorants en sociologie.

    Un exemple de corrélation fallacieuse issues de https://www.tylervigen.com/spurious-correlations

    Autrement dit, un système d’IA entraîne par apprentissage sera capable de reproduire cette relation et de prédire très correctement l’un à partir de l’autre. De même, on doit pouvoir décider si un jour est pluvieux à partir des ventes de parapluies, mais la causalité est évidemment dans l’autre sens. L’absence de prise en compte de la causalité dans les systèmes d’IA est une grande faiblesse: globalement, les systèmes d’apprentissage automatique se basent sur le passé pour faire des prédictions sur le futur, faisant implicitement l’hypothèse que la structure causale du système ne changera pas. On a vu les limites de cette hypothèse suite à la pandémie de Covid-19 qui a changé le comportement des populations: les outils d’IA intégrés dans les chaînes de décision des grandes entreprises, notamment financières, n‘étaient plus capables de représenter la réalité et ont dû être ré-entraînés sur des données plus récentes.

    Il y a principalement deux manières de prendre en compte la causalité dans un système d’apprentissage automatique: le faire en injectant manuellement des connaissances sur le domaine d’intérêt, ou faire découvrir les liaisons causales à partir de données d’apprentissage4. Mais c’est très difficile: dans le premier cas, on revient aux problèmes des systèmes experts, avec les questions de cohérence des connaissances, de l’effort nécessaire pour les acquérir, et cela demande beaucoup de travail de configuration manuelle, à l’opposé de ce que l’on espère de l’apprentissage automatique; dans le deuxième cas, on ne sait traiter aujourd’hui que des exemples « jouets » à très peu de variables, en utilisant des « interventions », c’est à dire des actions connues qui font évoluer le système de l’extérieur. Lors de mon dernier échange à ce sujet avec Yoshua Bengio, dont c’est un des thèmes de recherche, il a parlé de quelques dizaines de variables, ce qui est déjà très encourageant. Mais si l’on ajoute les phénomènes de feedback, forcément présents dans les systèmes complexes, matérialisés par des boucles causales avec un contenu temporel, on ne sait plus le faire du tout.

    Enfin, la troisième composante du mur de l’inhumanité est le passage au niveau du système 2. La très grande majorité des applications de l’IA consiste à (très bien) traiter un signal en entrée et à produire une réponse quasiment instantanée : reconnaissance d’objets ou de personnes dans des images et des vidéos ; reconnaissance de la parole ; association d’une réponse à une question, ou une traduction à une phrase ; estimation du risque financier associé à un client d’après ses données, etc. Dans son livre « Thinking, fast and slow », déjà cité, Daniel Kahneman s‘appuie sur des travaux en psychologie qui schématisent le fonctionnement de notre cerveau de deux manières différentes, qu’il nomme « Système 1 » et « Système 2 ». Système 1 est le mode rapide, proche de la perception : il ne vous faut qu’un instant pour reconnaître une émotion sur une photo, pour comprendre un mot ou une courte phrase. C’est Système 1 qui vous donne ces capacités. Par contre, si vous devez faire une multiplication compliquée et si vous n’êtes pas un calculateur prodige, vous devrez faire appel à du raisonnement pour donner le résultat. Les processus mentaux plus lents sont de la responsabilité de Système 2. Et les deux modes sont en permanente interaction, Système 1 fournit les éléments pré-traités à Système 2 qui peut conduire ses raisonnements dessus.

    Cette théorie commence à inspirer les chercheurs en intelligence artificielle : aujourd’hui, avec l’apprentissage machine profond, l’IA est au niveau du Système 1. Pour pouvoir dépasser cela, représenter les connaissances de sens commun, faire de la planification, des raisonnements élaborés, il faudra coder le Système 2. Mais les avis diffèrent sur la manière d’y arriver : certains pensent qu’il suffit d’empiler des couches de neurones artificiels en organisant très finement leur architecture et leur communication ; d’autres pensent que des paradigmes différents de représentation de l’intelligence humaine seront nécessaires – par exemple en hybridant l’apprentissage machine avec le raisonnement symbolique utilisant des règles, des faits, des connaissances. Et il faudra aussi coder l’interaction continue entre Système 1 et Système 2. De beaux sujets de recherche pour les prochaines années, mais pour l’instant, un idéal encore bien lointain, même si des premiers exemples ont été réalisés sur des problèmes jouets comme l’a récemment montré Francesca Rossi d’IBM lors de la conférence AAAI-20225.

    Il y a d’autres facteurs d’inhumanité dans l’IA (par exemple la question de l’émotion, de l’empathie, ou encore la réalisation de l’intelligence collective, sujets intéressants que je ne développe pas ici, considérant que les trois premiers constituent déjà un mur très solide sur lequel l’IA va inévitablement buter dans les prochaines années.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes:

    1 Thinking, Fast and Slow; D. Kahneman, 2013, Farrar, Straus and Giroux;

    2 https://en.wikipedia.org/wiki/Cyc

    3 https://tylervigen.com/spurious-correlations

    4 Une solution hybride étant de spécifier « manuellement » un graphe causal concis et de faire apprendre ses paramètres à partir de données.

    5 Combining Fast and Slow Thinking for Human-like and Efficient Navigation in Constrained Environments, Ganapini et al. (2022), arXiv:2201.07050v2.

     

  • Les cinq murs de l’IA 4/6 : l’interaction avec les humains

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 4: le mur de l’interaction avec les humains

    Cet épisode débute par des éléments développés par le programme confiance.ai dans son état de l’art sur les facteurs humains et la cognition1, établi mi-2021. Je remercie en particulier Christophe Alix (Thales), le coordonnateur de cet état de l’art sur un sujet clé pour notre futur avec les systèmes d’IA.

    De très nombreux systèmes d’intelligence artificielle doivent interagir avec les humains; certains robots, notamment, et on pense en particulier aux véhicules autonomes; mais aussi les robots d’assistance aux personnes, les dialogueurs (chatbots), et plus généralement tous les systèmes qui ont besoin de communiquer avec leurs utilisateurs. Au-delà de ces fonctions de dialogue avec les humains, il y a tout le domaine de la cobotique, la collaboration étroite entre humains et robots, où la communication se fait en permanence dans les deux sens.

    On peut classer ces applications en grandes catégories:
    – dialogue (chatbots);
    – résolution partagée de problèmes et de prise de décision;
    – partage d’un espace et de ressources (cohabitation avec des robots qu’on ignore ou à qui on donne des ordres);
    – partage de tâches (robot coéquipier).

    Les machines intelligentes d’aujourd’hui sont essentiellement des outils, pas des coéquipiers. Au mieux, ces technologies sont utiles dans la mesure où elles étendent les capacités humaines, mais leurs compétences communicatives et cognitives sont encore inadéquates pour être un coéquipier utile et de confiance. En effet, les machines collaboratives intelligentes doivent être flexibles et s’adapter aux états du coéquipier humain, ainsi qu’à l’environnement. Elles doivent comprendre les capacités et les intentions de l’utilisateur et s’y adapter.

    Or, nous ne comprenons pas suffisamment la cognition, la motivation et le comportement social de haut niveau de l’être humain social. Les humains excellent dans l’apprentissage et la résolution de problèmes d’une manière qui diffère de celle des machines, même sophistiquées. La nature de l’intelligence humaine reste difficile à cerner. Même si d’importants efforts de recherche en sciences cognitives ont été consacrés à la compréhension de la façon dont les humains pensent, apprennent et agissent, dans les environnements naturels, la séquence d’actions qui mène à un objectif n’est pas explicitement indiquée, voire même la connaissance même des objectifs d’un humain reste complexe à appréhender. Stuart Russell a consacré un excellent ouvrage à ce sujet4, dans lequel il montre à quel point il est difficile pour un système d’IA de connaître les intentions d’un humain ou d’un groupe d’humains, et il propose que l’IA questionne systématiquement lorsqu’il y a ambiguïté.

    Réciproquement, il est également indispensable de permettre aux collaborateurs humains de comprendre les buts et actions des machines avec lesquelles ils sont en interaction. Les machines ont souvent des caractéristiques physiques et des capacités très différentes de celles des humains, ce qui a un impact sur les rôles qu’elles peuvent jouer dans une équipe. Dans ce contexte, les besoins d’explications (qu’on nomme souvent « explicabilité ») de la part des systèmes d’intelligence artificielles sont cruciaux – ils font d’ailleurs l’objet d’une des mesures de la réglementation proposée par la Commission Européenne (déjà citée), ou encore du projet de référentiel concernant la certification du processus de développement de ces systèmes, développé par le Laboratoire National de Métrologie et d’Essais2. Mais les capacités d’explication des systèmes actuels d’IA sont très limitées, particulièrement lorsqu’il s’agit de réseaux neuronaux profonds dont les modèles internes sont composés de très grandes matrices de poids qu’il est difficile d’interpréter. J’en veux pour preuve les innombrables recherches sur l’explicabilité de l’IA, initialement popularisées par le programme « XAI » de la DARPA américaine lancé en 20173.

    Il existe certes une tendance, illustrée par le propos de Yann LeCun ci-dessous, qui défend l’idée que l’explicabilité (causale notamment) n’est pas indispensable pour que les utilisateurs aient confiance envers un système, et qu’une campagne de tests couvrant le domaine d’utilisation suffit. Mais d’une part la dimension d’une telle campagne peut la rendre impossible à réaliser dans un temps imparti et avec des moyens finis; d’autre part il n’est pas toujours aisé de définir le domaine d’utilisation d’un système. Enfin, la plupart des cas pour lesquels nous n’avons pas besoin d’explications sont ceux où les systèmes disposent d’un autre mode de garantie; par exemple nous ne demandons pas nécessairement d’explications à un médecin qui nous prescrit un médicament, parce que nous savons que le médecin a été diplômé pour l’exercice de son métier après de longues études.

    Reproduit de https://twitter.com/ylecun/status/1225122824039342081

    L’interaction avec les humains peut prendre des formes diverses: parole, texte, graphiques, signes, etc. En tous cas elle n’est pas nécessairement sous forme de phrases. Un excellent exemple d’interaction que je trouve bien pensé, est celui d’une Tesla qui a l’intention de procéder à un dépassement: la voiture affiche la voie de gauche pour montrer qu’elle souhaite le faire, et le conducteur répond en activant le clignotant. Un problème plus général, illustré par le cas des véhicules autonomes4, est celui du transfert du contrôle, lorsque la machine reconnaît être dépassée (par exemple en cas de panne, de manque de visibilité etc.) et doit transférer le contrôle à un humain, qui a besoin de beaucoup de temps pour assimiler le contexte et pouvoir reprendre la main.

    En résumé, l’interaction avec les humains est un sujet complexe et non résolu aujourd’hui; et il ne le sera pas de manière générale, mais plutôt application par application, comme dans l’exemple précédent.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 « EC2 Human Factors and Cognition 2021 », C. Alix, B. Braunschweig, C.-M. Proum, A. Delaborde, 2021, document interne du projet confiance.ai, disponible sur demande

    2 REFERENTIEL DE CERTIFICATION: Processus de conception, de développement,

    d’évaluation et de maintien en conditions opérationnelles des intelligences artificielles. LNE, 2021.

    3 https://www.darpa.mil/program/explainable-artificial-intelligence

    4 Dans la classification des niveaux d’autonomie pour le véhicule autonome, le niveau maximum 5 et celui de l’autonomie complète. Au niveau juste inférieur, 4, le véhicule gère presque toutes les situations mais rend la main dans des situations exceptionnelles, ce qui est extrêmement délicat à mettre en œuvre.

  • Les cinq murs de l’IA 3/6 : la sécurité

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ?  Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 3: le mur de la sécurité

    Les questions de sécurité des systèmes d’information ne sont pas propres à l’IA, mais les systèmes d’IA ont certaines particularités qui les rendent sensibles à des problèmes de sécurité d’un autre genre, et tout aussi importants.

    Si les systèmes d’IA sont, comme tous les systèmes numériques, susceptibles d’être attaqués, piratés, compromis par des méthodes « usuelles » (intrusion, déchiffrage, virus, saturation etc.), ils possèdent des caractéristiques particulières qui les rendent particulièrement fragiles à d’autres types d’attaques plus spécifiques. Les attaques antagonistes ou adverses («adversarial attacks » en anglais) consistent à injecter des variations mineures des données d’entrée, lors de la phase d’inférence, afin de modifier de manière significative la sortie du système. Depuis le célèbre exemple du panneau STOP non reconnu lorsqu’il est taggé par des étiquettes, et celui du panda confondu avec un gibbon suite à l’ajout d’une composante de bruit, on sait qu’il est assez facile de composer une attaque de sorte à modifier très fortement l’interprétation des données faite par un réseau de neurones. Et cela ne concerne pas que les images: on peut concevoir des attaques antagonistes sur du signal temporel (audio en particulier), sur du texte, etc. Les conséquences d’une telle attaque peuvent être dramatiques, une mauvaise interprétation des données d’entrée peut conduire à une prise de décision dans le mauvais sens (par exemple, accélérer au lieu de s’arrêter, pour une voiture). Le rapport du NIST sur le sujet1 établit une intéressante taxonomie des attaques et défenses correspondantes. Il montre notamment que les attaques en phase d’inférence ne sont pas les seules qui font souci. Il est notamment possible de polluer les bases d’apprentissage avec des exemples antagonistes, ce qui compromet naturellement les systèmes entraînés à partir de ces bases. Bien évidemment la communauté de recherche en intelligence artificielle s’est saisie de la question et les travaux sur la détection des attaques antagonistes sont nombreux. Il est même conseillé d’inclure de telles attaques pendant l’apprentissage de manière à augmenter la robustesse des systèmes entraînés.

    Panneau stop non reconnu et panda confondu avec un gibbon, extrait de publications usuelles sur ces sujets.

    Toujours est-il que des accidents – aujourd’hui inévitables – sur des systèmes à risque ou critiques, causés par ces questions de sécurité, auront des conséquences extrêmement néfastes sur le développement de l’intelligence artificielle.

    Un deuxième point d’attention est la question du respect de la vie privée. Cette question prend une dimension particulière avec les systèmes d’IA qui ont une grande capacité à révéler des données confidentielles de manière non désirée: par exemple retrouver les images individuelles d’une base d’entraînement dans les paramètres d’un réseau de neurones, ou opérer des recoupements sur diverses sources pour en déduire des informations sur une personne. Ces questions sont notamment à l’origine des travaux en apprentissage réparti (federated learning)2 dont le but est de réaliser un apprentissage global à partir de sources multiples réparties sur le réseau pour composer un modèle unique contenant, d’une certaine manière, une compression de toutes les données réparties mais sans pouvoir en retrouver l’origine.

    Si l’on y ajoute les questions de sécurité « habituelles », ainsi que les problèmes multiples causés par les deepfakes, ces fausses images ou vidéos très facilement créées grâce à la technologie des réseaux génératifs antagonistes (GAN: generative adversarial networks), il est clair que le mur de la sécurité de l’IA est aujourd’hui suffisamment solide et proche pour qu’il soit essentiel de s’en protéger.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 NISTIR draft 8269, A Taxonomy and Terminology of Adversarial Machine Learning, E. Tabassi et al. , 2019, https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8269-draft.pdf

    2 Advances and Open Problems in Federated Learning, P. Kairouz et al., 2019, ArXiv:1912.04977v1

  • Les cinq murs de l’IA 2/6 : l’énergie

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

    Episode 2: le mur de l’énergie

    Cet épisode, consacré à la consommation énergétique des systèmes d’apprentissage profond, reprend en les approfondissant des éléments d’un billet que j’ai publié dans les pages sciences du journal Les Échos début 2020.

    Le super-calculateur Jean Zay (du nom d’un fondateur du CNRS) est un des 3 sites nationaux pour le calcul haute performance. Grâce à ses milliers de processeurs de dernière génération il atteint aujourd’hui1 une puissance de 28 pétaflop/s (vingt-huit millions de milliards d’opérations arithmétiques par seconde). Refroidi par des circuits hydrauliques à eau chaude allant au cœur des processeurs, il ne consomme « que » environ deux mégawatts. Jean Zay est la première grande machine européenne « convergée » capable de fournir à la fois des services de calcul intensif (modélisation, simulation, optimisation) et des services pour l’intelligence artificielle et l’apprentissage profond. Elle va permettre des avancées majeures dans les domaines d’application du calcul intensif (climat, santé, énergie, mobilité, matériaux, astrophysique …), et de mettre au point des systèmes d’IA basés sur des très grands volumes de données. Mieux encore, la jonction de ces deux mondes (modélisation/simulation et apprentissage automatique) est porteuse de nouveaux concepts pour développer les systèmes intelligents de demain.

    Oui, mais … Les chercheurs de l’université de Stanford publient annuellement l’édition du «AI Index» qui mesure la progression des technologies d’IA dans le monde. L’édition de fin 2019 présentait pour la première fois l’évolution des besoins de calcul des applications de l’IA qui ont suivi la loi de Moore (doublement tous les dix-huit mois) de 1960 à 2012. Depuis, ces besoins doublent tous les 3.5 mois ! La demande du plus gros système d’IA connu à l’époque (et qui a donc doublé plusieurs fois depuis) était de 1860 pétaflop/s*jours (un pétaflop/s pendant un jour) soit plus de deux mois de calcul s’il utilisait la totalité de la machine Jean Zay pour une consommation électrique de près de trois mille mégaWatts-heure. Pis encore, si le rythme actuel se poursuit, la demande sera encore multipliée par un facteur 1000 dans trois ans …. et un million dans six ans!

    Provient de l’article de Strubell et coll cité dans le texte.

    Le mur de l’énergie est bien identifié par certains chercheurs en apprentissage profond. L’article fondateur d’Emma Strubell et coll. 2 établissait que l’entraînement d’un grand réseau de neurones detraitement de la langue naturelle de type « transformer », avec optimisation de l’architecture du réseau, consommait autant d’énergie que cinq voitures particulières pendant toute leur durée de vie (ci-dessous).

    `L’article de Neil Thompson et coll.3 allait plus loin en concluant que « les limites de calcul de l’apprentissage profond seront bientôt contraignantes pour toute une série d’applications, ce qui rendra impossible l’atteinte d’importantes étapes de référence si les trajectoires actuelles se maintiennent ». Encore une fois, souligné par les chiffres donnés par le AI Index qui insistait sur le facteur exponentiel correspondant. Fin 2021, Neil Thomson et coll. ont complété cette analyse4 sur l’exemple du traitement d’images (ImageNet) et abouti à estimer à 9 ce facteur entre la réduction du taux d’erreur et le besoin en calcul et données, ce qui signifie qu’une division par 2 du taux d’erreur nécessite 500 fois plus de calcul … et une division par 4 demanderait 250.000 fois plus.

    On pourrait imaginer que cette croissance s’interrompra une fois que toutes les données disponibles (toutes les images, tous les textes, toutes les vidéos etc.) auront été utilisées par l’IA pour s’entraîner, mais le monde numérique n’est pas dans une phase de stabilisation du volume de données exploitables, sujet auquel vient s’ajouter, dans un autre registre, les limites en termes de stockage. Selon le cabinet IDC, la production mondiale de données atteindra 175 zettaoctets en 2025, pour une capacité de stockage limitée à une vingtaine de zettaoctets5. La croissance de la production de données est actuellement d’un ordre de grandeur plus rapide que la croissance de la capacité de stockage. Les programmes d’apprentissage automatique devront de plus en plus traiter des données en flux (et donc les oublier une fois le traitement effectué) faute de capacité de mémorisation de l’ensemble de la production.

    Quoiqu’il en soit, le mur de la consommation énergétique liée aux besoins de calcul intensif des applications de l’IA basées sur l’apprentissage profond et consommatrices de très grandes quantités de données, en arrêtera inévitablement la croissance exponentielle, à terme relativement rapproché, si l’on ne fait rien pour y remédier.

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 de nouveaux investissements de l’Etat français devraient encore accroître sa puissance

    2 E. Strubell, A. Ganesh, A. McCallum. Energy and Policy Considerations for Deep Learning in NL (2019), https://arxiv.org/abs/1906.02243v1

    3 N. Thompson et coll. The Computational Limits of Deep Learning (2020), arXiv:2007.05558v1

    4 N. Thompson et coll. Deep Learning Diminishing Returns. https://spectrum.ieee.org/deep-learning-computational-cost

    5 https://www.idc.com/getdoc.jsp?containerId=prUS47560321

  • Les cinq murs de l’IA 1/6 : la confiance

    Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ?  Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes.   Pascal Guitton et Thierry Viéville.

    Episode 1 : introduction générale, et le premier mur.

    L’intelligence artificielle progresse à un rythme très rapide tant sur le plan de la recherche que sur celui des applications et pose des questions de société auxquelles toutes les réponses sont loin d’être données. Mais en avançant rapidement, elle fonce sur ce que j’appelle les cinq murs de l’IA, des murs sur lesquels elle est susceptible de se fracasser si l’on ne prend pas de précautions. N’importe lequel de ces cinq murs est en mesure de mettre un terme à sa progression, c’est pour cette raison qu’il est essentiel d’en connaître la nature et de chercher à apporter des réponses afin d’éviter le fameux troisième hiver de l’IA, hiver qui ferait suite aux deux premiers des années 197x et 199x au cours desquels la recherche et le développement de l’IA se sont quasiment arrêtés faute de budget et d’intérêt de la communauté.

    Les cinq murs sont ceux de la confiance, de l’énergie, de la sécurité, de l’interaction avec les humains et de l’inhumanité. Ils contiennent chacun un certain nombre de ramifications, et sont bien évidemment en interaction, je vais toutefois les présenter de manière séquentielle, en cinq épisodes. Le sixième épisode examinera quelques pistes pour éviter une issue fatale pour l’IA.

    Ce texte se veut un outil de réflexion pour le lecteur, il est destiné à susciter des commentaires et réactions que ce soit sur la réalité de ces murs, sur la complétude de mon analyse, ou sur la manière d’échapper à l’écrasement sur l’un de ces murs. Je précise cependant qu’il y a d’autres facteurs, non technologiques, qui mettent en cause l’avenir de l’IA, et que je ne traite pas dans cette série. Ainsi, par exemple, la pénurie de chercheurs, ingénieurs, techniciens capables de développer et de mettre en oeuvre les technologies d’IA est très bien identifiée ; elle se matérialise par les salaires élevés qui sont versés à celles et ceux qui affichent l’IA comme spécialité, et par la mise en place de nombreux programmes de formation qui, à terme, devraient permettre de revenir à une situation normale en la matière, l’offre rejoignant la demande. Il ne manque pas non plus de démarches gouvernementales, collectives, associatives et autres pour réglementer et gouverner l’IA, je n’aborderai pas ces aspects ici. Je recommande plutôt de s’intéresser aux travaux du Partenariat Mondial sur l’Intelligence Artificielle (GPAI en anglais) qui rassemble nombre d’experts de disciplines, d’origines et de cultures différentes sur les sujets de société autour de l’IA.

    Je reconnais également qu’il y a des avis différents à ce sujet. Par exemple, l’article « Deep learning for AI » de Yoshua Bengio, Yann LeCun et Geoffrey Hinton1, rédigé suite à leur prix Turing collectif, donne des pistes pour l’avenir de l’AI par l’apprentissage profond et les réseaux neuronaux sans aborder les mêmes sujets; le rapport d’étape 2021 de l’étude longitudinale sur cent ans de Stanford2 examine les avancées de l’IA à ce jour et présente des défis pour le futur, très complémentaires à ceux que j’aborde ici; le récent livre de César Hidalgo, chaire de l’institut 3IA ANITI à Toulouse, « How Humans Judge Machines »3 s’intéresse à la perception de l’IA (et des machines) par les humains; l’ouvrage « Human Compatible »4 de Stuart Russell, professeur à Berkeley et auteur du principal livre de cours sur l’IA depuis deux décennies, s’intéresse à la compatibilité entre machines et humains, sujet que je traite différemment quand je parle du mur de l’interaction; enfin, la publication que j’ai co-éditée en 2021 avec Malik Ghallab, « Reflections on Artificial Intelligence for Humanity »5 aborde dans ses quatorze chapitres divers aspects de l’avenir de l’IA, notamment sur le futur du travail, la prise de décision par les machines, les questions de réglementation, d’éthique, de biais etc.

    Dans ce premier épisode je m’intéresse au mur de la confiance, un sujet particulièrement mis en exergue depuis quelques années.

    La confiance

    Dialogue entre Lonia, le chatbot de la banque et Y, qui a demandé un crédit.
    Y: est-ce que mon prêt a été accordé ?
    Lonia: non.
    Y: peux-tu me dire pourquoi mon prêt n‘a pas été accordé?
    Lonia: non
    Y: mais, pourquoi ne peux-tu pas me dire pourquoi mon prêt n’a pas été accordé?
    Lonia: parce que je suis une intelligence artificielle, entraînée à partir de données de crédits passés, et je ne sais pas produire d’explications.
    Y: c’est bien dommage! Mais peux-tu au moins prouver que ta décision est la bonne?
    Lonia: Non, on ne peut pas prouver les conclusions établies par des IA entraînées par apprentissage à partir de données.
    Y: ah, bon. Mais, alors, as-tu été certifiée pour le travail que tu fais? As-tu un quelconque label de qualité?
    Lonia: Non, il n’existe pas de normes pour les IA entraînées par apprentissage, il n’y a pas de certification.
    Y: Merci pour tout cela. Au revoir, je change de banque.

    Bien évidemment, derrière ce dialogue imaginaire, c’est la question de la confiance qui est posée. Et cela ne concerne pas que le domaine financier, par exemple le même échange pourrait avoir lieu au sujet d’un diagnostic médical pour lequel la machine ne pourrait fournir ni garanties ni explications.  Si les personnes n’ont pas confiance envers les systèmes qu’IA avec lesquels ils interagissent, ils les rejetteront. Il y a largement de quoi causer un troisième hiver de l’IA !

    La confiance est une notion riche et multi-factorielle, beaucoup de sociologues et de technologues se sont intéressés aux mécanismes de son établissement. Plusieurs organismes tentent de fournir des définitions de ce qu’est la confiance envers les systèmes d’intelligence artificielle, elle a été le sujet principal du groupe d’experts mobilisés par la Commission Européenne (dont tous les travaux6 se font dans l’optique « trustworthy AI »). L’organisation internationale de normalisation, ISO, considère une vingtaine de facteurs différents, avec des ramifications.

    Je résumerai ici en disant que la confiance, en particulier envers les artefacts numériques dont l’IA fait partie, est une combinaison de facteurs technologiques et sociologiques. Technologiques, comme la capacité de vérifier la justesse d’une conclusion, la robustesse à des perturbations, le traitement de l’incertitude etc. Sociologiques, comme la validation par des pairs, la réputation dans les réseaux sociaux, l’attribution d’un label par un tiers de confiance etc. Les questions d’interaction avec les utilisateurs sont intermédiaires entre ces deux types de facteurs: transparence, explicabilité, qualité des interactions de manière plus générale.

    Les facteurs sociologiques ne sont pas propres à l’IA: dans un réseau de confiance entre humains, la transmission de la confiance ne fait pas nécessairement appel aux facteurs technologiques. Par contre, la base technologique de la confiance en IA est bien spécifique et pose de nombreux défis. On ne sait pas, aujourd’hui, prouver que les conclusions d’un système entraîné par apprentissage sur une base de données sont les bonnes, qu’elles sont robustes à des petites variations, qu’elles ne sont pas entachées de biais etc. Il existe de nombreux programmes de R&D à ce sujet, dont un des plus importants est l’initiative Confiance.ai7 centrée sur les systèmes critiques (transport, défense, énergie, industrie) portée par de grands groupes industriels dans le cadre du Grand Défi sur la fiabilisation et la certification de l’IA.

    Tant que cette question restera ouverte, le risque pour l’IA de se heurter au mur de la confiance sera majeur. Il le sera encore plus pour les systèmes à risque (au sens de la Commission Européenne dans sa proposition de réglementation de l’IA8) et pour les systèmes critiques (au sens du programme Confiance.ai).

    ​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

    Notes :

    1 Deep Learning for AI. Yoshua Bengio, Yann Lecun, Geoffrey Hinton Communications of the ACM, July 2021, Vol. 64 No. 7, Pages 58-65

    2 Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.Stanford University, Stanford, CA, September 2021. Doc: http://ai100.stanford.edu/2021-report. Accessed: September 16, 2021.

    3 https://www.judgingmachines.com/

    5 B. Braunschweig & M. Ghallab (eds.), Reflections on Artificial Intelligence for Humanity, Elsevier, 2021

  • Réimaginer nos interactions avec le monde numérique

    Wendy E. Mackay est Directrice de Recherche Inria. Elle est la toute nouvelle titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où elle présente un cours intitulé « Réimaginer nos interactions avec le monde numérique ». La leçon inaugurale de ce cours est le 24 février 2022. Dans un monde où les machines sont de plus en plus présentes, son travail sur les interactions avec les machines est particulièrement essentiel. Elle avait déjà participé aux Entretiens autour de l’informatique en 2014 avec « L’être humain au cœur de la recherche en IHM ». Serge Abiteboul.
    Wendy Mackay, ©Collège de France

    Leçon inaugurale le 24 février 2022

    Comment ré-imaginer le monde numérique ? Se focaliser seulement sur la technologie, c’est manquer l’essentiel : nos interactions avec cette technologie. Mon domaine, l’Interaction Humain-Machine, pose une question fondamentale : Comment garantir que les ordinateurs répondent aux besoins des personnes qui les utilisent ? Non pas en général, mais de façon précise, à chaque instant et pour chacun.

    La leçon inaugurale du cours « Réimaginer nos interactions avec le monde numérique » offre un aperçu de ce domaine, y compris son rôle dans la révolution informatique, et des exemples historiques qui restent visionnaires aujourd’hui encore. J’explique les fondements théoriques de ce domaine multidisciplinaire qui puise dans les sciences naturelles et sociales ainsi que dans l’informatique, l’ingénierie et le design, et les défis qui se posent lorsque nous étudions des phénomènes que, par ailleurs, nous créons.

    J’analyse les problèmes que peuvent causer les systèmes interactifs, avec des exemples de systèmes critiques où des défauts mineurs d’interface utilisateur ont conduit à des catastrophes. Je décris également les différentes relations que nous entretenons avec les systèmes informatiques, qu’il s’agisse d’un outil que nous apprenons à utiliser, d’un assistant intelligent à qui nous déléguons des tâches ou d’un support riche pour communiquer avec les autres. Je trace enfin une perspective vers de véritables partenariats entre les humains et leurs instruments numériques.

    Les quatre premières leçons présentent les principes fondamentaux de l’interaction entre l’humain et l’ordinateur. Je commence par les principaux enseignements de la recherche sur les capacités humaines, avec des exemples qui illustrent leur contribution à la conception de technologies interactives. Ensuite, je mets l’accent sur les capacités pertinentes des systèmes informatiques, y compris les défis inhérents à la conception de l’interaction, avec des exemples historiques et actuels. La troisième leçon examine le processus de conception centré sur l’utilisateur, avec des exemples historiques de systèmes révolutionnaires et de méthodes permettant de générer de nouvelles technologies innovantes. La quatrième leçon explique comment évaluer les systèmes interactifs tout au long du processus de conception, en utilisant des méthodes qualitatives et quantitatives.

    L’interaction humain-machine tire ses théories et ses méthodes d’une grande variété de disciplines, en particulier dans les domaines des sciences naturelles et des sciences humaines et sociales. Les quatre leçons suivantes présentent quatre domaines de recherche actuels dans le domaine de l’interaction humain-machine. Chaque domaine a une longue histoire de recherches innovantes et continue d’être un domaine actif de recherche :

    • l’interaction multimodale : comment interagir avec tout le corps ;
    • la réalité augmentée et virtuelle : comment intégrer l’informatique avec le monde physique ;
    • la communication médiatisée : comment concevoir des systèmes collaboratifs ;
    • les partenariats humain-machine : comment interagir avec l’intelligence artificielle.

    Les humains utilisent diverses modalités pour communiquer, notamment la parole, les gestes, les expressions faciales et les mouvements du corps. La cinquième leçon retrace l’histoire des systèmes interactifs qui vont au-delà des entrées-sorties classiques que sont la souris, le clavier et l’écran. On peut par exemple penser aux interactions que nous avons tous les jours avec nos smartphone via un écran tactile. Je mentionne également des travaux qui combinent plusieurs modalités, comme la parole et le geste. Elle présente notamment des applications dans le domaine de la créativité, où les utilisateurs se servent de l’ensemble du corps pour créer avec le système.

    En tant qu’êtres humains, nous utilisons la « physique de tous les jours » pour interagir avec le monde qui nous entoure. La réalité augmentée s’appuie sur cette compréhension pour « enrichir » dynamiquement les objets physiques d’informations et en mélangeant objets physiques et numériques. La réalité virtuelle, quand à elle, cherche à immerger l’utilisateur dans des mondes réels ou imaginaires simulés. La sixième leçon décrit leurs histoires entremêlées, illustrées par des exemples tirés de mes propres recherches sur le papier interactif et appliquées à un éventail de domaines allant du contrôle du trafic aérien à la musique contemporaine.

    Les médias sociaux sont aujourd’hui partout et notre capacité à collaborer à distance est devenue une seconde nature, particulièrement depuis la pandémie, avec des outils de partage de documents et de communication directe ou différée par le texte, la voix ou la vidéo. La septième leçon retrace l’histoire de la communication médiatisée, en incluant des exemples tirés de mes propres recherches sur les mediaspaces et la vidéo collaborative, et décrit les recherches récentes sur la façon dont les innovations des utilisateurs avec les médias sociaux ont transformé notre façon de penser et d’utiliser les ordinateurs.

    L’avènement de l’intelligence artificielle (IA) a transformé notre façon d’interagir avec les ordinateurs. Même si l’IA peut parfois remplacer l’humain, elle est le plus souvent vouée à aider celui-ci, par exemple dans des tâches d’aide à la décision. Pourtant, une grande partie de la recherche actuelle se concentre sur la manière de créer des algorithmes plus puissants, et moins sur la manière dont ces algorithmes affectent les personnes qui les utilisent. La huitième leçon retrace l’histoire des relations entre l’IA et de l’IHM, y compris mes propres recherches sur les partenariats homme-machine, où les utilisateurs restent maîtres de l’interaction afin de passer du paradigme de « l’être humain dans la boucle » à celui de « l’ordinateur dans la boucle ».

    Wendy E. Mackay, Directeur de Recherche, Inria
    Professeure au Collège de France,
    Chaire Informatique et Sciences Numériques, 2021-2022

    La chaire Informatique et Sciences numériques

    Le site du Collège de France

    L’informatique au Collège de France sur binaire

    Les titulaires de la Chaire

    • Wendy Mackay – Réemaginer nos interactions avec le monde numérique 2021-2022
    • Frédéric Magniez – Algorithmes quantiques 2020-2021
    • Walter Fontana – La biologie de l’information. Un dialogue entre informatique et biologie 2019-2020
    • Rachid Guerraoui – Algorithmique répartie 2018-2019
    • Claire Mathieu – Algorithmes 2017-2018
    • Jean-Daniel Boissonnat – Géométrie algorithmique : des données géographiques à la géométrie des données 2016-2017
    • Yann LeCun – L’apprentissage profond : une révolution en intelligence artificielle
    • Marie-Paule Cani – Façonner l’imaginaire : de la création numérique 3D aux mondes virtuels animés 2014-2015
    • Nicolas Ayache – Des images médicales au patient numérique 2013-2014
    • Bernard Chazelle – L’algorithmique et les sciences 2012-2013
    • Serge Abiteboul – Sciences des données : de la logique du premier ordre à la toile 2011-2012
    • Martin Abadi – La sécurité informatique 2010-2011
    • Gérard Berry – Penser, modéliser et maîtriser le calcul informatique 2009-2010

     

     

  • Intelligence artificielle en médecine, faire de l’interpretabilité des réseaux de neurones une boite à outil pour le praticien

    Quelle est l’importance et l’impact de l’interprétabilité et de l’explicabilité, domaines de recherche très porteurs pour démystifier l’Intelligence Artificielle (IA), dans la relation entre l’IA et le praticien pour une relation de confiance. Discutons de ce point avec le Dr Masrour Makaremi, docteur en chirurgie dentaire, spécialiste en orthopédie dento-faciale orthodontie titulaire d’un master2 en Anthropologie biologique et d’un master2 en Neuroscience computationnelle-sciences cognitives. Il est actuellement Doctorant en Neuroscience cognitives de l’Université de Bordeaux, et  soutiendra prochainement sa thèse de science qui traite en partie de l’apport de l’interpretabilité des réseaux de neurones à une meilleure compréhension des dysmorphoses cranio-faciales. Ikram Chraibi Kaadoud, Thierry Vieville, Pascal Guitton

     

    En tant que praticien, comment en êtes-vous arrivé au domaine de l’IA ? 

    L’évolution de la technologie a toujours accompagné l’évolution de la médecine, mais cela est d’autant plus vrai ces dernières années, car l’émergence de l’IA dans la sphère médicale, vient changer non seulement notre pratique, mais aussi la manière d’envisager les outils et d’interagir avec eux, et par extension, cela vient aussi changer notre relation avec les patients.

    C’est en écoutant Yann Lecun en 2016 au collège de France, que je me suis réellement intéressé à l’IA. Il a su, à travers ses cours, démystifier le fonctionnement des réseaux de neurones artificiels que  j’ai commencé à envisager comme un moyen de pratiquer différemment mon métier…devenir en quelque sorte un expert augmenté en utilisant l’IA. Cette stratégie d’augmentation signifie que l’on part de ce que les humains font aujourd’hui pour arriver à comprendre la manière dont ce travail pourrait être approfondi, et non diminué, par une utilisation plus poussée de l’IA [1].

     Quels sont les challenges de l’IA en médecine ?

     C’est définitivement, la création d’un lien entre la cognition de l’expert et le flux des calculs numériques ! En résumé, les sciences cognitives ! Je m’explique : aujourd’hui les outils à base d’IA sont des outils soit d’aide à la décision, qui font par exemple des propositions de diagnostic, soit des outils pour faciliter le quotidien en prenant en charge les tâches répétitives. Par exemple, positionner des points sur un tracé céphalométrique pour objectiver les décalages des bases osseuses[2]. Ces outils sont déjà d’une très grande aide dans la pratique de mon métier au quotidien. Néanmoins, il leur manque la capacité de prendre en compte la cognition de l’expert auquel ils sont destinés.

    Par exemple, prenons le cas d’un joueur d’échecs. Lorsqu’il regarde un plateau, il va mentalement découper celui-ci, l’analyser et imaginer facilement le prochain mouvement, et tout cela en peu de secondes. La théorie des chunks [3]  a démontré que les maîtres d’échecs préparent leurs coups grâce à une intuition guidée par le savoir, en comparant le jeu devant leurs yeux à une situation de jeu similaire stockée dans leur mémoire épisodique à long terme (hippocampe).

    Figure 1 – Présentation d’une situation d’échec sous deux aspects différents, la même information présenté de deux manières différentes apportera potentiellement des réponses différentes de l’expert

    Si l’on met ce même joueur d’échec devant une feuille où cette fois ci le jeu d’échec est présenté sous la forme de suite de codes indiquant la position des pions (ex cavalier C4, exemple illustré en Figure 1) et qu’on lui demande de jouer, sa réponse changera. Il mettra probablement plus de temps, proposera peut-être une réponse moins performante, ou tout simplement risque d’être trop perturbé pour répondre. La modification de la représentation du problème, va donc changer la réponse de l’expert humain et cela est complètement normal. Or on demande justement à l’IA de pallier celà, mais sans connaissance de l’expert avec lequel elle doit s’interfacer. Réussir une stratégie d’augmentation nécessite la connexion de l’intuition  de l’expert au flux du processus numérique.

    Lors de la conception d’un produit quel qu’il soit, des utilisateurs sont de plus en plus souvent sollicités pour tester les produits et ainsi s’assurer que ces derniers répondent bien aux attentes. C’est aussi souvent le cas en informatique et en IA, mais cela ne semble pas assez pour vous, pourquoi ?

    L’IA peut aller au-delà d’un rôle d’outil d’aide à la pratique du métier de médecin, ou d’une quelconque expertise. L’IA peut devenir « notre troisième œil »[4], celui que l’on pourrait avoir métaphoriquement derrière la tête afin de nous aider à percevoir tout ce que nous ne percevons pas dans l’instant. L’idée ici serait d’augmenter l’expert en le connectant à l’IA, dès le début des phases de conception de celle-ci afin de créer une vraie collaboration. Les outils IA conçus en fonction des experts, de leurs contraintes métier objectives, de leurs perceptions subjectives, pourraient mieux s’interfacer avec l’expert métier. Et pour que cet interfaçage se fasse, il vaut mieux que le praticien soit impliqué dans les échanges dès le début de manière continue, et non une fois par mois comme on peut le voir dans certaines collaborations.

    Outre mon activité de clinicien, je travaille sur l’IA appliquée aux images médicales. Afin de maximiser la collaboration, nous avons installé une petite équipe de recherche en IA au sein de la clinique afin de pouvoir échanger constamment et facilement autour des techniques de vision par ordinateur, des stratégies de recherche et des analyses et interprétations des résultats. Mais au-delà de cela, je suis convaincu que l’équipe IA peut ainsi mieux accéder aux médecins, aux infirmières et assistantes, ceux qui ont une connaissance métier et qui interagissent avec les donnés là où elles se trouvent au quotidien. Nous savons qu’une grande partie de  l’apprentissage et de la communication entre individus se fait de façon non verbale et spontanée : en regroupant les praticiens, les data scientists et les données en un même lieu, c’est une symbiose naturelle que je recherche.

    Récemment, Pierre Vladimir Ennezat, (médecin des hôpitaux cardiologue, Centre Hospitalier Universitaire -CHU- Henri Mondor, Créteil) s’est inquiété dans une tribune du journal « le Monde » « des effets de la numérisation croissante de la relation entre soignants et patients ». Qu’en pensez-vous? 

    Heureusement qu’on est inquiet ! Cela nous oblige à une saine remise en cause ! Et nous incite à trouver notre place dans la médecine du futur. J’aime beaucoup citer « Michel Serres » qui pour les 40 ans de l’inria a fait un entretien, dans lequel il a dit que « les nouvelles technologies vont obliger les gens à être intelligents ». Isaac Bashevis Singer, prix nobel de la Littérature en 1978 complète cette pensée par une très belle citation « plus les technologies évolueront, plus on va s’intéresser à l’humain ». En résumé, l’informatique est incontournable dans le paysage médical aujourd’hui. L’IA est déjà en train de chambouler notre société à plusieurs niveaux et cela va sans aucun doute continuer. C’est d’ailleurs pour cela qu’avec le professeur P. Bouletreau, , professeur des Universités et Praticien Hospitalier au CHU de Lyon, nous proposons une introduction à l’IA dans le diplôme interuniversitaire de chirurgie orthognathique. Donc: oui, il va y avoir une numérisation croissante de la relation entre soignants et patients, mais je reste optimiste, car l’humain est un animal social ! C’est paradoxalement, là où il y a le plus de technologie, que l’on cherche le contact et la présence humaine.. Il nous faut donc juste réfléchir tous ensemble pour déterminer comment la machine peut trouver sa place parmi nous, et justement, l’interprétabilité va nous aider à cela.

    Alors justement, pourquoi l’interprétabilité ? Que change ce domaine en IA pour vous en tant que praticien ?

    L’interprétabilité en IA constitue le fait de véritablement rentrer dans le circuit des réseaux de neurones afin de rechercher une information qui vient compléter les connaissances déjà acquises, les challenger et les améliorer. Il faut “saisir ce que font ces réseaux de neurones”. Si ce domaine a été originellement pensé pour expliquer les mécanismes internes des réseaux de neurones, moi je le perçois comme étant un outil de découverte de connaissances auxquels, en tant que praticien, je n’aurais pas forcément pensé. Je vise donc à plus à une interprétabilité qui soit aussi explicable.  La question posée est  : que voit donc ce « troisième œil´´ ? Je suis convaincu qu’en explorant les mécanismes de prise de décision des réseaux de neurones nous pouvons faire de nouvelles découvertes. Par exemple, mieux appréhender des interactions entre différentes structures anatomiques dans une pathologie ou encore mieux définir les interactions entre la dysmorphose (mandibule en position rétrusive) et l’architecture cranio-faciale dans son ensemble (exemple illustré en Figure 2). Cette utilisation de l’interpretabilité des réseaux de neurones s’inspire de la théorie du logicien Kurt Godel qui disait : « Pour trouver des vérités dans un système donné, il faut pouvoir s’en extraire ». Je parle bien d’interprétabilité et non pas d’explicabilité, car le second, même s’il est très important, va moins loin pour moi dans le sens où il doit me permettre de valider le comportement de l’IA, et non me permettre de découvrir de nouvelles connaissances

    Figure 2 – Carte de saillance (technique score-CAN) développée à partir de superposition de 1500 téléradiographie de profil de crâne de patients avec une mandibule en position retrusive par rapport au reste du crâne : retrognathe). Cette carte permet de mieux définir les interactions entre la dysmorphose (mandibule en position rétrusive)et l’architecture cranio faciale dans son ensemble.

     

     

     

    Si vous pouviez ne transmettre qu’un message sur le sujet IA-praticien, quel serait-il ? 

    Grâce à une réelle collaboration entre les spécialistes dans chacun des domaines,  les experts en IA et à l’utilisation de l’interprétabilité, les réseaux de neurones ne doivent pas seulement évoluer d’une black-box vers une white-box pour qu’on leur fasse confiance. Mais ils peuvent devenir une véritable   ”tool-box », c’est à dire une boîte à outils, au service de la réflexion du praticienCe défi sera pour moi une clé de la réussite d’une stratégie d’augmentation en médecine mais également éviter que l’IA ne sombre à nouveau  dans un  hiver délaissé par ses utilisateurs, après des promesses qui n’aboutissent pas

    Pour en savoir plus: 

    1. Dr Masrour makaremi :https://www.makaremi-orthodontie.fr/ 
    2. Stratégie d’augmentation : 
      • Davenport TH, Kirby J. Au-delà de l’automatisation. HBR, 2016.
    3.  Utilisation de l’IA pour le positionnement de points sur un tracé céphalométrique pour objectiver les décalages des bases osseuses :
      •  Kim, H., Shim, E., Park, J., Kim, Y. J., Lee, U., & Kim, Y. (2020). Web-based fully automated cephalometric analysis by deep learning. Computer methods and programs in biomedicine, 194, 105513.
      • Lindner, C., & Cootes, T. F. (2015). Fully automatic cephalometric evaluation using random forest regression-voting. In IEEE International Symposium on Biomedical Imaging (ISBI) 2015–Grand Challenges in Dental X-ray Image Analysis–Automated Detection and Analysis for Diagnosis in Cephalometric X-ray Image. 
      • Liu, X., Faes, L., Kale, A. U., Wagner, S. K., Fu, D. J., Bruynseels, A., … & Denniston, A. K. (2019). A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. The lancet digital health, 1(6), e271-e297.
    4. Théorie des chunks :
      • Gobet, F., Lane, P. C., Croker, S., Cheng, P. C., Jones, G., Oliver, I., & Pine, J. M. (2001). Chunking mechanisms in human learning. Trends in cognitive sciences, 5(6), 236-243.
    5. IA, le troisième œil en médecine :

     

     

     

  • Le plus gros bug de l’histoire !

    Un bug ne se manifeste pas nécessairement dès l’instant où il est dans un système. Les bugs les plus discrets sont d’ailleurs souvent les plus dangereux. Quand ils surgissent, la catastrophe peut être terrible comme celle d’Ariane 5 en 1996, qu’on a qualifiée de bug le plus cher de l’histoire. Plus rares, il y a des bugs dont l’effet nuisible n’apparaît que lentement et progressivement, sans qu’on ose ou puisse les corriger et dont les conséquences désastreuses s’empirent jusqu’à devenir gravissimes. Celui dont nous parle ici Jean-Paul Delahaye est de ce type. Serge Abiteboul, Thierry Viéville.

    Il s’agit du bug dans le protocole de distribution de l’incitation du réseau Bitcoin, la fameuse cryptomonnaie. On va voir qu’il est bien pire que celui d’Ariane 5.

    Pour que le réseau Bitcoin fonctionne et fasse circuler en toute sécurité l’argent auquel il donne vie, il faut que des volontaires acceptent de participer à sa surveillance et à la gestion des informations importantes qu’il gère et qui s’inscrivent sur une « chaîne de pages », ou « blo

    Explosion du vol 501 d’Ariane V du à un bug informatique ©ESA.int

    ckchain ». Une rémunération a donc été prévue pour récompenser ces volontaires, appelés validateurs. Elle provient de nouveaux Bitcoins créés ex-nihilo et est distribuée toutes les 10 minutes environ à un et un seul des validateurs. Qu’il n’y en ait qu’un à chaque fois n’est pas grave car dix minutes est un intervalle court et donc la récompense est distribuée un grand nombre de fois — plus de 50000 fois par an. Reste que distribuer cette incitation pose un problème quand les ordinateurs ne sont pas obligés d’indiquer qui les contrôle, ce qui est le cas du réseau Bitcoin où tout le monde peut agir anonymement en utilisant des pseudonymes ou ce qui revient au même un simple numéro de compte.

    Distribuer l’incitation par un choix au hasard qui donne la même chance à chaque validateur d’être retenu serait une solution parfaite si tout le monde était honnête. Ce n’est pas le cas bien sûr, et un validateur pourrait apparaître sous plusieurs pseudonymes différents pour augmenter la part de l’incitation qu’il recevrait avec un tel système. Avec k pseudonymes un validateur tricheur toucherait l’incitation k fois plus souvent que les validateurs honnêtes. S’il apparaît sous mille pseudonymes différents, il toucherait donc mille fois plus qu’un validateur honnête… qui ne le resterait peut-être pas. Le réseau serait en danger. En langage informatique, on appelle cela une « attaque Sybil » du nom d’une patiente en psychiatrie qui était atteinte du trouble des personnalités multiples ou trouble dissociatif de l’identité. Plusieurs solutions sont possibles pour empêcher ces attaques, et le créateur du protocole Bitcoin dont on ne connait d’ailleurs que le pseudonyme, Satoshi Nakamoto, en a introduite une dans son système qu’au départ on a jugée merveilleuse, mais dont on a compris trop tard les conséquences désastreuses. Ces conséquences sont si graves qu’on peut affirmer que le choix de la méthode retenue et programmée par Nakamoto pour contrer les attaques Sybil est un bug.

    Sa solution est « la preuve de travail » (« Proof of work » en anglais). L’idée est simple : on demande aux validateurs du réseau de résoudre un problème arithmétique nouveau toutes les dix minutes. La résolution du problème exige un certain temps de calcul avec une machine de puissance moyenne, et elle ne s’obtient qu’en cherchant au hasard comme quand on tente d’obtenir un double 6 en jetant de manière répétée deux dés. Le premier des validateurs qui résout le problème gagne l’incitation pour la période concernée. Toutes les dix minutes un nouveau problème est posé permettant à un validateur de gagner l’incitation.

    Si tous les validateurs ont une machine de même puissance les gains sont répartis équitablement entre eux, du moins sur le long terme. Si un validateur utilise deux machines au lieu d’une seule pour résoudre les problèmes posés, il gagnera deux fois plus souvent car avec ses deux machines c’est comme s’il lançait deux fois plus souvent les dés que les autres. Cependant c’est acceptable car il aura dû investir deux fois plus que les autres pour participer ; son gain sera proportionné à son investissement. Il pourrait gagner plus souvent encore en achetant plus de machines, mais ce coût pour multiplier ses chances de gagner l’incitation impose une limite. On considère que ce contrôle des attaques Sybil est satisfaisant du fait que les gains d’un validateur sont fixés par son investissement. Il faut noter que celui qui apparaît avec k pseudonymes différents ne gagne rien de plus que s’il apparait sous un seul, car les chances de gagner sont proportionnelles à la puissance cumulée des machines qu’il engage. Qu’il engage sa puissance de calcul sous un seul nom ou sous plusieurs ne change rien pour lui. Avec la preuve de travail, il semble que la répartition des gains ne peut pas être trop injuste car si on peut améliorer ses chances de gagner à chaque période de dix minutes, cela à un coût et se fait proportionnellement à l’investissement consenti.

    Une usine de minage de bitcoin avec ces immense salles remplies d’unités de calcul ©AndreyRudakov/Bloomberg

    Le réseau bitcoin fonctionne selon le principe de la preuve de travail. Au départ tout allait bien, les validateurs se partageaient les bitcoins créés et mis en circulation à l’occasion de chaque période, sans que cela pose le moindre problème puisque leurs machines avaient des puissances comparables et que personne n’en utilisait plusieurs pour augmenter ses chance de gagner. La raison principale à cette situation est qu’en 2009 quand le réseau a été mis en marche, un bitcoin ne valait rien, pas même un centime de dollar. Investir pour gagner un peu plus de bitcoins n’avait pas d’intérêt. Cependant, petit à petit, les choses ont mal tourné car le bitcoin a pris de la valeur. Il est alors devenu intéressant pour un validateur de se procurer du matériel pour gagner plus souvent les concours de calcul que les autres. Plus la valeur du bitcoin montait plus il était intéressant de mettre en marche de nombreuses machines pour augmenter ses gains en gagnant une plus grande proportion des concours de calcul. Une augmentation de la capacité globale de calcul du réseau s’est alors produite. Elle n’a pas fait diminuer le temps nécessaire pour résoudre le problème posé chaque dix minutes, car Nakamoto, très malin, avait prévu un mécanisme qui fait que la difficulté des problèmes soumis s’ajuste automatiquement à la puissance totale du réseau. Depuis 2009, il faut dix minutes environ pour qu’un des ordinateurs du réseau résolve le problème posé et gagne l’incitation, et cette durée n’a jamais changée car le réseau est conçu pour cela.

    Du bitcoin à la blockchain : dans ce double podcast Jean-Paul prend le temps d’expliquer comment ça marche aux élève de l’enseignement SNT en seconde et au delà.

    Les validateurs associés parfois avec d’autres acteurs spécialisés dans la résolution des problèmes posés par le réseau — et pas du tout dans la validation — ont accru leurs capacités de calcul. La puissance cumulée de calcul du réseau a en gros été multipliée par dix tous les ans entre 2010 et maintenant. C’est énorme !

    Les spécialistes de la résolution des problèmes posés par le réseau sont ce qu’on nomme aujourd’hui les « mineurs » : ils travaillent pour gagner des bitcoins comme des mineurs avec leurs pioches tirent du minerai du sous sol. Il faut soigneusement distinguer leur travail de celui des validateurs : les validateurs gèrent vraiment le réseau et lui permettent de fonctionner, les mineurs calculent pour aider les validateurs à gagner l’incitation. Si parfois des validateurs sont aussi mineurs, il faut bien comprendre que deux type différents de calculs sont faits : il y a le travail de validation et le travail de minage.

    Entre 2010 et maintenant, la puissance du réseau des mineurs a été multipliée par 1011, soit 100 milliards. L’unité de calcul pour mesurer ce que font les mineurs est le « hash ». En janvier 2022, on est arrivé à 200×1018 hashs pas seconde, soit 200 milliards de milliards de hashs par seconde, un nombre colossal.

    Bien sûr les machines utilisées ont été améliorées et on a même fabriqué des circuits électroniques pour calculer rapidement des hashs, et on les perfectionne d’année en année. Cependant, et c’est là que le bug est devenu grave, même en dépensant de moins en moins d’électricité pour chaque hash calculé, on en a dépensée de plus en plus, vraiment de plus en plus ! La logique économique est simple : plus le cours du bitcoin est élevé —il s’échange aujourd’hui à plus de 30 000 euros— plus il vaut la peine d’investir dans des machines et d’acheter de l’électricité dans le but de miner car cela permet de gagner plus fréquemment le concours renouvelé toutes les dix minutes, et cela rentabilise les investissements et dépenses courantes du minage.

    Une concurrence féroce entre les mineurs s’est créée, pour arriver en 2022 à une consommation électrique des mineurs qu’on évalue à plus de 100 TWh/an. La valeur 50 TWh est un minimum absolument certain, mais 100 TWh/an ou plus est très probable. Sachant qu’un réacteur nucléaire de puissance moyenne produit 8 TWh/an, il y a donc l’équivalent de plus de 12 réacteurs nucléaires dans le monde qui travaillent pour produire de l’électricité servant à organiser un concours de calcul qui fixe toutes les dix minutes quel est le validateur qui gagne l’incitation. Je me permets d’insister : l’électricité n’est pas dépensée pour le fonctionnement en propre du réseau, mais uniquement pour désigner le validateur gagnant. Quand on étudie le fonctionnement du réseau bitcoin, on découvre qu’il y a au moins mille fois plus d’électricité dépensée par le réseau pour choisir le gagnant toutes les dix minutes, que pour son fonctionnement propre. S’il dépense beaucoup, c’est donc à cause de la preuve de travail, pas à cause de sa conception comme réseau distribué et bien sécurisé permettant la circulation des bitcoins.

    Est-ce que cette situation justifie vraiment de parler de bug ? Oui, car il existe d’autres solutions que la preuve de travail et ces autres solutions n’engendrent pas cette dépense folle d’électricité. La solution alternative la plus populaire dont de multiples variantes ont été proposées et mises en fonctionnement sur des réseaux concurrents du bitcoin se nomme « la preuve d’enjeu ». Son principe ressemble un peu à celui de la preuve de travail. Les validateurs qui veulent avoir une chance de se voir attribuer l’incitation distribuée périodiquement, engage une somme d’argent en la mettant sous séquestre sur le réseau où elle se trouve donc bloquée temporairement. Plus la somme mise sous séquestre est grande plus la probabilité de gagner à chaque période est grande. Comme pour la preuve de travail, avec la preuve d’enjeu il ne sert à rien de multiplier les pseudonymes car votre probabilité de gagner l’incitation sera proportionnelle à la somme que vous engagerez. Que vous le fassiez en vous cachant derrière un seul pseudonyme, ou derrière plusieurs ne change pas cette probabilité. Quand un validateur souhaite se retirer, il récupère les sommes qu’il a engagées ; ce qu’il a gagné n’est donc pas amputé par des achats de machines et d’électricité.

    Cette méthode ne provoque pas de dépenses folles en électricité et achats de matériels, car il n’y en a pas ! Avec des configurations équivalentes de décentralisation et de sécurisation un réseau de cryptomonnaie utilisant la preuve d’enjeu dépensera mille fois moins d’électricité qu’un réseau utilisant la preuve de travail. Il y a une façon simple d’interpréter les choses. La preuve d’enjeu et la preuve de travail limitent toutes les deux les effets des attaques Sybil en distribuant l’incitation proportionnellement aux engagements de chaque validateur —soit du matériel de calcul et de l’électricité, soit un dépôt d’argent —. Cependant la preuve d’enjeu rend son engagement au validateur quand il cesse de participer, et donc rien n’est dépensé pour participer, alors que la preuve de travail consomme définitivement l’électricité utilisée et une partie de la valeur des matériels impliqués. En un mot, la preuve de travail est une preuve d’enjeu qui confisque une partie des sommes engagées et les brûle.

    Avoir utilisé la preuve de travail, avec les conséquences qu’on observe aujourd’hui est de toute évidence une erreur de programmation dans le protocole du réseau du bitcoin. Le bug n’est apparu que progressivement mais il est maintenant là, gravissime. Le plus terrible, c’est qu’une fois engagé avec la preuve de travail le réseau bitcoin est devenu incapable de revenir en arrière. Corriger le bug alors que le réseau est en fonctionnement est quasiment impossible.

    En effet, le pouvoir pour faire évoluer la façon dont fonctionne du réseau, ce qu’on appelle sa gouvernance, est aux mains de ceux qui disposent de la puissance de calcul pour le minage. Ils ont acheté du matériel, installé leurs usines, appris à se procurer de l’électricité bon marché, ils ne souhaitent pas du tout que la valeur de leurs investissements tombe à zéro. Ils ne souhaitent donc pas passer à la preuve d’enjeu. La correction du bug est donc devenue très improbable. Aujourd’hui le réseau Ethereum qui est le second en importance dans cette catégorie essaie malgré tout de passer de la preuve de travail à la preuve d’enjeu. Il a beaucoup de mal à le faire et il n’est pas certain qu’il y arrive. Du côté du bitcoin rien n’est tenté. Sans interventions extérieures, le bug du bitcoin va donc continuer à provoquer ses effets absurdes.

    Est-ce le plus gros bug de l’histoire ? Celui d’Ariane 5 a été évalué à environ 5 millions de dollars. Si on considère, ce qui semble logique, que tout l’argent dépensé en minage représente le coût du bug du bitcoin alors c’est beaucoup plus, puisqu’en ordre de grandeur le minage depuis 2009 a coûté entre 5 et 10 milliards de dollars et peut-être plus. Le piège économique qui est résulté du bug est d’une perversité peut-être jamais rencontrée.

    Jean-Paul Delahaye,  Professeur d’informatique à l’université Lille-I

    Au delà :

    + La preuve de travail a d’autres inconvénients que celui mentionné ici de dépenser inutilement en électricité la production d’une dizaine de réacteurs nucléaires. Ces autres inconvénients sont présentés dans un document qui peut être vu comme un complément à ce texte :
    Jean-Paul Delahaye, Les arguments en faveur de la preuve d’enjeu contre la preuve de travail pour les chaines de bloc, Institut Rousseau, février 2022.

    Une tribune intitulée «Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie » portant sur le problème de la régulation des cryptoactifs a été publiée par Le Monde le jeudi 10 février 2022. Vous pouvez en voir le texte avec la liste des signataires et éventuellement ajouter votre signature en allant en : https://institut-rousseau.fr/liste-des-signataires-tribune-regulation-cryptoactifs/

     

     

  • Aha ! Le cri de la créativité du cerveau

    Oui, binaire s’adresse aussi aux jeunes de tous âges, que les sciences informatiques laissent parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible, comment modéliser informatiquement la… créativité. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

    – Aha !
    – Toi, tu viens de trouver quelque chose
    – Oh oui : j’étais dans l’impasse depuis un moment pour résoudre mon problème, j’avais vraiment tout essayé, et puis là, soudainement, cela m’est apparu : la solution est devenue claire, générant un vrai plaisir intellectuel, et avec la certitude que c’est bien ça.
    – Ah oui, c’est ce que les spécialistes en neuroscience appellent l’insight.  Ça se rapproche de l’intuition; on parle aussi de l’effet Eureka, et c’est super bien étudié.
    – Tu veux dire qu’on sait ce qui se passe dans le cerveau à ce moment-là
    – Oui et mieux encore : on sait simuler cela de manière informatique.
    – Allez, vas-y, explique.

    – Assez simplement quand on “pense”, il y a une partie de notre pensée qui est explicite : on amène de manière explicite des éléments dans notre mémoire de travail, pour les utiliser. Il y a à la fois des souvenirs épisodiques personnellement vécus dans un lieu et à un instant donné et des connaissances générales sur les choses, à propos des règles d’action.Mais il y aussi toute une part de notre cerveau qui fonctionne implicitement, c’est à dire qui utilise des processus automatisés (donc non conscients) correspondant à des résumés, des simplifications, de pensées explicites anciennes que l’on a tellement pratiquées qu’on a fini par les automatiser. Elles sont plus rapides et simples à utiliser mais moins adaptables et moins facile à interpréter. On peut alors raisonner de manière analytique en restant au niveau explicite ou solliciter la partie implicite de notre pensée pour fournir des pistes plus inédites, et cela correspond au fonctionnement d’une partie du réseau cérébral dit “par défaut” qui s’active quand on laisse libre court à nos pensées. Ce réseau sert aussi en utilisant notre mémoire épisodique à générer des souvenirs et des épisodes imaginaires qui aident, à partir de la situation présente, à explorer les possibles.

    Modèle anatomique et fonctionnel du réseau du mode par défaut. Michel Thiebaut de Schotten, via Wikipédia © CC BY-SA, On trouvera une description précise ici.

    – Ok alors, en gros pour résoudre une tâche créative, on se prépare et puis ensuite on laisse notre cerveau tourner pour voir à trouver des choses inattendues ?
    – Tu as doublement raison : ça ne vient pas tout seul, il faut bien une phase d’initiation pour que les mécanismes implicites fonctionnent, puis une phase de “lâcher prise” et…
    – Et que se passe-t-il lors du “Aha” ?
    – Et bien regarde : il y a une rafale d’oscillations à haute fréquence du cerveau, précédée d’oscillations préparatoires plus lentes :


    Quand le phénomène d’insight apparaît il est précédé d’une augmentation des oscillations lentes du cerveau (rythme alpha qui correspond à une activité de “repos” sans effectuer de tâches particulières mais qui permet au cerveau de travailler en interne) puis se manifeste avec l’apparition d’oscillations rapides (rythme gamma concomitant à l’arrivée à la conscience d’une perception au sens large en lien avec les phénomènes d’attention. ©CLIPAREA I Custom media/Shutterstock.com (image de gauche) et adapté de The Cognitive Neuroscience of Insight, John Kounios et Mark Beeman Annual Review of Psychology, January 2014 (image de droite)

    Comme une vague de fond qui arrive ?
    – Oui : le moment “Aha” , c’est justement quand tout s’emboîte : quand on se rend compte que la solution trouvée convient à la fois au niveau du sens des choses (au niveau sémantique) et de leur fonctionnement (on parle de niveau syntaxique).
    – Ah oui : on en a une vision vraiment précise effectivement, j’ai même vu ici que cela conduit à des conseils pratiques pour doper sa créativité.
    – Ce qui est vraiment intéressant, c’est qu’au delà de ces observations on commence à pouvoir décrire les processus calculatoires mis en oeuvre dans ces processus divergents d’exploration de nouvelles pistes (par exemple des mécanismes de recherche aléatoires ou des processus qui généralisent une situation en y ajoutant des éléments “hors de la boîte” initiale) et de mécanismes convergents de validation que ce qui est trouvé est pertinent et utile.
    – Tu veux dire qu’on a des modèles informatiques de ces mécanismes créatifs ?
    – Oui plusieurs, par exemple Ana-Maria Oltețeanu, pour ne citer qu’une collègue, a regardé comment tout cela peut se mécaniser et d’autres scientifiques fournissent des outils pour aider à faire ce délicieux travail de créativité. Il y a par exemple DeepDream qui peut générer des images inédites à partir de nos consignes, ou créer des animations 3D à partir d’images de 2D, ou générer de la musique statistiquement proche d’un style musical donné, voire inventer de nouveaux styles complètement inédits grâce aux Creative Adversarial Networks (CAN).
    – Mais du coup, ça va permettre de développer des intelligence artificielles créatives à notre place ?
    – Ah ben peut-être (ou pas), mais pourquoi serait-on assez con, pour se priver de ce qui est le plus cool pour nous intellectuellement, créer ! En le faisant faire par une machine capable de produire des choses nouvelles mais pas d’envisager ou juger l’émoi qu’elles suscitent, donc qui n’a pas d’intention créatrice faute de grounding ?
    – Ah mince, encore un mot anglais à comprendre pour te suivre.
    – T’inquiète, il y a un autre article de Petit Binaire qui explique tout ça.

    Frédéric Alexandre, Chloé Mercier et Thierry Viéville.

    Pour aller plus loin : Creativity explained by Computational Cognitive Neuroscience https://hal.inria.fr/hal-02891491

  • Pour une gouvernance citoyenne des algorithmes

    Un nouvel entretien autour de l’informatique.
    Karine Gentelet est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et professeure invitée à l’Université Laval. Elle a été en 2020-21 titulaire de la Chaire Abeona – ENS-PSL, en partenariat avec l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Le titre de sa chaire était « La gouvernance citoyenne pour renverser l’invisibilité dans les algorithmes et la discrimination dans leurs usages ». Elle aborde ce sujet pour binaire.
    Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation.
    Karine Gentelet, Site de l’ENS

     Binaire : Peux-tu nous parler du parcours qui t’a conduite notamment à être titulaire de la chaire Abeona ?

    Karine Gentelet : Mon profil est multidisciplinaire, avec une formation en anthropologie et en sociologie. J’ai un doctorat en sociologie, mais je préfère me définir par mes thèmes de recherche plutôt que par des disciplines.

    Française d’origine, je suis arrivée au Québec il y a plus de trente ans. C’était à une période traumatique de l’histoire du Québec, une grave crise interne, la crise d’Oka[1]. Cela m’a marquée de me retrouver face à des personnes en position de minorité, en difficulté. Je me suis intéressée à la reconnaissance des droits des peuples autochtones, à la façon dont ils mobilisent la scène internationale pour faire reconnaître leurs droits, et à la façon dont ils ont accès à la justice d’une manière large.

    Un moment donné, j’ai rencontré quelqu’un qui travaillait pour une communauté extrêmement excentrée au Nord du Québec. Là-bas, quand ils sont arrêtés pour une infraction, les prévenus sont emmenés dans le sud à 6 ou 7 heures de vol d’avion. A cause de la distance, leur famille ne peut plus les voir alors qu’ils sont parfois très jeunes. Pour pallier ce problème, la solution a été d’utiliser la technologie numérique pour déplacer virtuellement le tribunal et l’installer dans le Nord. Cela a redéfini l’espace du procès de façon remarquable : les bancs du juge, des accusés, du procureur, tout change ; les salles d’audience deviennent rondes par exemple. Ces minorités qu’on voit comme vulnérables arrivaient à renverser des rapports de pouvoir, et à redessiner l’espace du procès.

    Cela m’a conduite à être impliquée dans des projets de recherche sur les conditions de mise en place d’une cyber-justice. Et c’est ainsi que je suis arrivée à technologie numérique et l’intelligence artificielle (IA pour faire court).

    En général, ce qui m’intéresse c’est toujours de regarder l’angle mort, non pas tant ce qui se passe que ce qui ne se passe pas, ce qui n’est pas dit. Prenez des questions de décisions automatisées. J’étudie comment les gens voient le déploiement de ces outils, comment ils aimeraient qu’ils soient déployés. C’est là que mon expérience d’anthropologue me sert, à étudier comment les gens vivent avec ces technologies.

    B : La sociologie est typiquement plus dans l’observation que dans l’action ? Est-ce que cela te satisfait ?

    KG : Il y a plusieurs types de sociologie et la discipline a évolué. La sociologie devient, selon moi, de plus en plus anthropologique et regarde la société non plus telle qu’elle est mais avec un point de vue d’altérité, ce qui change le regard. On est dans une perspective beaucoup plus critique qu’avant, beaucoup plus près de l’action. De toute façon, comme je l’ai dit, je ne me vois pas uniquement comme sociologue mais plutôt dans la pluridisciplinarité.

    Pour l’IA, il ne faut pas se cantonner à l’observation de ce qui s’y passe. Il faut comprendre comme on se l’approprie, apporter un regard critique.

    Jon Tyson, unsplash.com

    B : En quoi les sciences sociales peuvent-elles servir à mieux comprendre l’IA ?

    KG : Souvent l’IA est présentée en termes purement techniques. Mais en fait, dans la manière dont elle est déployée, elle a des impacts sociétaux essentiels qu’il faut comprendre et qui nécessitent une perspective de sciences sociales.

    Il y a en particulier des enjeux de classification des datasets qui vont nourrir les algorithmes d’IA. Distinguer entre un chat et un chien n’a pas d’impact sociétal critique. Par contre, le classement d’une personne comme femme, homme, non binaire ou transgenre, peut soulever des questions de prestations sociales, voire conduire à la discrimination de certaines communautés, à des drames humains.

    Pour un autre exemple, pendant la pandémie, dans certains hôpitaux, les systèmes d’aide au triage tenaient compte des dépenses qui avaient été faites en santé auparavant : plus on avait fait de dépenses en santé dans le passé, moins la santé était considérée comme bonne ; on devenait prioritaire. Cela peut paraitre logique. Mais ce raisonnement ne tenait pas compte d’une troisième dimension, le statut socio-économique, qui conduisait statistiquement à un mécanisme inverse : les personnes socialement défavorisées avaient souvent fait moins de dépenses de santé parce qu’elles ne disposaient pas d’une bonne couverture de santé, et étaient en plus mauvaises conditions.

    Une analyse en science sociale permet de mieux aborder ce genre de questions.

    B : La question se pose aussi pour les peuples autochtones ?

    KG : Historiquement marginalisés, les peuples autochtones du Canada ont pris conscience très rapidement de la pertinence des données qui les concernent. Ceci a alors une incidence sur l’importance de ces données dans le fonctionnement des algorithmes. Ce sont des peuples avec une tradition orale, nomade, ce qui a une incidence sur la manière dont ils conçoivent les relations à l’espace, au temps, et à autrui. Pour eux, leurs données deviennent une extension de ce qu’ils sont, et doivent donc rester proches d’eux et c’est pourquoi c’est particulièrement important pour ces peuples autochtones de garder la souveraineté de leurs données. Ils tiennent à ce que leur acquisition, leur classification, leur analyse en général, restent sous leur contrôle. Ils veulent avoir ce contrôle pour que ce que l’on tire de ces données ne soit pas déconnecté de leur compréhension du monde.

    B : Est-ce qu’il y aurait un lien épistémologique entre les constructions de données et la compréhension du monde ?

    KG : Bien sûr. Les classifications de données que nous réalisons dépendent de notre compréhension du monde.

    J’ai co-réalisé une étude sur Wikipédia. Le système de classification de la plateforme entre en conflit avec la perspective de ces groupes autochtones. Pour eux, un objet inanimé a une existence, une responsabilité dans la société. Et puis, la notion de passé est différente de la nôtre. Les ancêtres, même décédés, sont encore dans le présent. La classification de Wikipédia qui tient par construction de notre culture ne leur convient pas.

    Ils considèrent plus de fluidité des interactions entre choses matérielles et immatérielles. Pour eux les pierres par exemple ont une agentivité et cela amènerait à une autre représentation du monde. Cela conduirait les algorithmes d’IA a d’autres représentations du monde

    Photo de Ian Beckley provenant de Pexels

    B : Tu veux dire que, pour structurer les données, on a plaqué notre interprétation du monde, alors que celle des peuples autochtones pourrait apporter autre chose et que cela pourrait enrichir notre connaissance du monde ?

    KG : Oui. J’ai même un peu l’impression que l’interprétation du monde qu’apportent les peuples autochtones est presque plus adaptée à des techniques comme les réseaux neuronaux que la nôtre à cause de l’existence de liens tenus entre les différentes entités chez eux, dans la fluidité des interactions. Mais je ne comprends pas encore bien tout cela ; cela demanderait d’être véritablement approfondi.

    Pour ceux qui ne correspondent pas forcément aux classifications standards de notre société occidentale, cela serait déjà bien d’avoir déjà plus de transparence sur la formation des datasets : comment ils ont été collectés, comment les gens ont consenti, et puis comment les classifications ont été réalisées. C’est véritablement une question de gouvernance des données qui est cruciale pour ceux qui sont minoritaires, qui ne correspondent pas forcément au cadre habituel.

    B : Est-ce que selon toi l’IA pourrait être une menace pour notre humanité, ou est-ce qu’elle pourrait nous permettre d’améliorer notre société, et dans ce cas, comment ?

    Photo de Nataliya Vaitkevich provenant de Pexels

    KG : On essaie de nous pousser à choisir notre camp. L’IA devrait être le bien ou le mal. Les technophiles et l’industrie essaient de nous convaincre que c’est beau, bon, pas cher, et que ça va améliorer le monde. Pourtant, cela a clairement des impacts négatifs sur certains groupes au point que leurs droits fondamentaux peuvent être à risque. Pour moi, l’IA, c’est comme souvent dans la vie, ni blanc ni noir, c’est plutôt le gris. Mais, si je ne vois pas dans l’IA une menace de notre mode de vie, je crois qu’il y a besoin d’une vraie réflexion sociétale sur les impacts de cette technologie. En fait, je me retrouve à accompagner certains groupes sur leur compréhension des impacts, et souvent les impacts sont négatifs.

    Il faut cesser de se bloquer sur la question de choisir son camp, pour ou contre l’IA, et travailler à comprendre et éliminer les impacts négatifs.

    L’IA est censée être un progrès. Mais un utilisateur se retrouve parfois dans a situation d’être confronté à une IA imposée, de ne pas comprendre ses décisions automatisées, de ne pas pouvoir les remettre en cause. Le résultat c’est que cela peut amplifier une possible situation de précarité.

    Quand j’ai renouvelé mon assurance auto, on m’a proposé une réduction de 15% si j’acceptais que la compagnie d’assurance traque tout mon comportement au volant. J’ai refusé. Mais d’autres n’auront pas les moyens de refuser. Cela pose la question du consentement et d’une société à deux vitesses suivant ses moyens financiers.

    On pourrait multiplier les exemples. Il faut que les citoyens puissent décider ce qu’on fait avec les algorithmes, et en particulier ceux d’IA.

    B : La notion de gouvernance des algorithmes est centrale dans ton travail. Comment tu vois cela ?

    KG : Le discours institutionnel à la fois des acteurs privés et des acteurs publics parle de la gouvernance de l’IA comme s’il y avait une dichotomie entre gouvernance de la société et gouvernance de IA, comme s’il y avait une forme d’indépendance entre les deux. L’IA est un outil et pas une entité vivante, mystérieuse et incompréhensible, qui flotterait au-dessus de la société. Je ne comprends pas pourquoi on devrait réinventer la roue pour l’IA. Nous avons déjà des principes, des pratiques de gouvernance, des lois, des représentants élus dans la société, etc. Pourquoi l’IA aurait-elle besoin d’autre chose que de structures existantes ?

    On voit arriver des lois autour de l’IA, comme l’ « Artificial Intelligence Act[2] » de l’Union européenne, cela me pose problème. S’il y a des enjeux importants qui amèneront peut-être un jour des modifications en termes de régulation, il n’y a pas de raison d’autoriser à cause de l’IA des atteintes ou des risques sur les droits humains. A qualifier un droit spécifique pour l’IA, on risque de passer son temps à courir derrière les progrès de la techno.

    Le problème vient de la représentation anthropomorphique qu’on a de ces technologies, la place que l’on donne à l’IA, la sacralisation qu’on en fait. Les décideurs publics en parlent parfois comme si ça avait des pouvoirs magiques, peut-être un nouveau Dieu. Il faut sortir de là. C’est juste une technologie développée par des humains.

    Le point de départ du droit qui s’applique pour l’IA devrait être l’impact sur les êtres humains. Il n’y a aucune raison de sacraliser le fait qu’on parle de numérique. C’est avant tout un problème de droits humains. Alors, pourquoi faudrait-il inventer de nouveaux outils de régulation et de gouvernance plutôt que d’utiliser les outils qui sont déjà là.

    Serge Abiteboul, Inria et ENS, Paris, et Claire Mathieu, CNRS et Université de Paris

    [1] La crise d’Oka ou résistance de Kanehsatà:ke est un événement politique marquant qui opposa les Mohawks au gouvernement québécois puis canadien, durant l’été du 11 juillet au 26 septembre 1990. La crise demandera l’intervention de l’armée canadienne après l’échec d’une intervention de la Sûreté du Québec. (Wikipédia, 2022)

    [2] Note des auteurs : l’ « Artificial Intelligence Act » est une proposition pour le moins discutable de la Commission européenne pour construire un cadre réglementaire et juridique pour l’intelligence artificielle.

    https://binaire.socinfo.fr/page-les-communs-numeriques/

  • Le Web3 ? C’est quoi ça encore ?

    Du web par la blockchain et un rêve de décentralisation ?  C’est le projet Web3 dont certains technophiles ne cessent de parler depuis quelque temps.

    Pour nous aider à y voir plus clair,
    Numerama nous l’explique en 8 minutes dans ce podcast

    Gavin Wood, en décembre 2017. // Source : Noam Galai, repris de l’article Numerama.

    En un mot ?

    Le projet derrière Web3 est de procéder à une décentralisation du net, « Les plateformes et les applications ne seront pas détenues par un acteur central, mais par les usagers, qui gagneront leur part de propriété en contribuant au développement et à la maintenance de ces services », ceci en s’aidant de la technologie dite de la blockchain (ou chaîne de blocs). Il s’agit de l’équivalent d’un registre numérique et public dans lequel toutes les transactions en sont inscrites et conservées, nous explique Gavin Wood.

    Euh c’est quoi la blockchain déjà ?

    Nous trouvons les intentions et le positionnement vraiment super, et cette idée de blockchain, comme Heu?Reka et ScienceEtonnante nous l’explique, y compris en vidéo, tandis que Rachid Guerraoui démystifie la blockchain pour nous sur binaire.

    L’avis de binaire sur le web3

    L’article Numerama est vraiment bien fait et c’est tout à fait intéressant de voir comment des professionnel·le·s de l’informatique se proposent de remodeler notre monde numérique de demain,

    Et nous sommes d’accord avec l’avis de Numerama : la logique de financiarisation qui sous-tend ce nouveau concept à la mode fait débat.

    En plus, plusieurs interrogations se posent à nous.

    – Tout d’abord, l’accès à cette nouvelle technologie : qui pourra et saura la maîtriser ? Une des raisons principales du succès du web actuel repose sur sa large ouverture. Ici on parle d’un système où les usagers pourront, au delà d’un simple usage, « gagner une part de propriété en contribuant au développement et à la maintenance de ces services » : l’idée est vraiment intéressante et louable, mais impose là encore que nous maîtrisions toutes et tous ces technologies et dans une certaine mesure leur fondements,  cela n’exclue-t-il pas de facto une grande partie des utilisateurs  actuels ? En tout cas cela nourrit cette réflexion commune sur le niveau de culture scientifique et technique que l’usage du numérique impose à chacun·e d’acquérir.

    – Et puis, demeure la question fondamentale : à quel coût environnemental ? Si le Web3 présente des avantages questionnables pour la démocratie, il conduit à des dégâts indiscutables pour cette planète que nous avons reçue et devons laisser en héritage à nos enfants.  Les deux sûrement, mais dans ce cas, ce Web3 n’est apparemment pas encore la solution.

     

  • Comment les IA font semblant de comprendre le langage humain ?

    Nous savons que les IA ne sont pas intelligentes et pourtant elles arrivent à approcher le fonctionnement humain dans de plus en plus de domaines. Aujourd’hui, nous nous intéressons au traitement du langage humain. Après avoir abordé la reconnaissance vocale, nous vous proposons d’approfondir d’autres aspects comme la complétion ou la traduction grâce à une très intéressante vidéo publié par David Louapre sur son blog Science Étonnante. Thierry Viéville et Pascal Guitton

    Commençons par une dictée.

    En fait, les lignes que vous commencez à lire, là, maintenant, n’ont pas été tapées au clavier mais… dictées à l’ordinateur ? Ce dernier comprend-il ce qui lui est dit ? Nullement. Alors comment fait-il ? ! 

    Un ancien dictaphone des années 1920 qui enregistre la voix sur un cylindre phonographique cartonné recouvert de cire ou celluloïd. La parole humaine transformée en simple sillon en spirale … est-ce moins étonnant que de la voir binarisée ? ©MadHouseOldies

    La parole humaine est constituée d’environ une cinquantaine de phonèmes. Les phonèmes sont des sons élémentaires (entre une voyelle et une syllabe) qui se combinent pour former des mots. Nous utilisons entre 1 000 et 3 000 mots différents par jour, et en connaissons de l’ordre de 10 000 en tout, selon nos habitudes de lecture. Pour un calcul statistique, ce n’est guère élevé : le son de la voix est donc simplement découpé en une séquence de petits éléments qui sont plus ou moins associés à des phonèmes, pour ensuite être associés à des mots. Le calcul statistique cherche, parmi tous les bouts de séquences de mots, ceux qui semblent correspondre au son ainsi découpé et qui sont les plus probables. Il ne reste plus qu’à sortir le résultat sous forme d’une chaîne de lettres ou de caractères pour obtenir une phrase à l’oral.

    Un exemple de signal sonore d’une voix humaine en bleu et l’analyse des graves et des aiguës (le spectre fréquentiel) de la zone claire : c’est à partir de cet alphabet sonore approximatif que l’on effectue les calculs statistiques qui transcrivent le son.

    Bien entendu, ce mécanisme ne comprend rien à rien. Ces mots ne font pas du tout sens  par la machine, puisqu’il ne s’agit que d’une mise en correspondance entre des sons et des symboles. Ce procédé n’est donc exploitable que parce que la voix humaine est moins complexe qu’elle n’y paraît, et surtout car il a été possible de se baser sur une quantité énorme de données (des milliers et des milliers de paroles mises en correspondance avec des milliers et des milliers de bouts de séquences de mots) pour procéder à une restitution fiable du propos dicté. Ces calculs sont à la fois numériques, puisque chaque son est représenté par une valeur numérique manipulée par calcul, et symboliques, chaque phonème ou mot étant un symbole manipulé par un calcul algorithmique.

    Et ensuite … comment manipuler le sens du langage ?

    Donnons la parole à David Louapre pour en savoir plus, grâce à cette vidéo :

    enrichie, si besoin, de d’éléments complémentaires.

    Vous avez vu ? Nous en sommes à avoir pu « mécaniser » non seulement la reconnaissance des mots mais aussi la manipulation du sens que nous pouvons leur attribuer.

    On en fait même tout un fromage.

    Comme l’explique David, les modèles de langue neuronaux contextuels sont désormais omniprésents y compris en français avec ces travaux des collègues Inria. Le calcul peut par exemple résoudre des exercices de textes à trous, que l’algorithme a pu remplir avec le bon mot, avant de se tourner vers des applications plus utiles comme la traduction automatique, la génération assistée de texte, etc.

    Mais finalement, je me demande si parfois, je n’aimerais pas me faire « remplacer » par une IA pendant des conversations inintéressantes où je m’ennuie profondément :). Oh, ce n’est pas que je pense qu’elles sont devenues intelligentes, ces IA … c’est plutôt que franchement, entre humains, on se dit que ma foi, des fois, il faut avoir la foi, pour pas avoir les foies, à écouter ce qui se dit … quelques fois…

     

  • Le mot du président de la SIF

    Nous avons crée en janvier 2014 binaire en partie à l’initiative de la Société Informatique de France. Depuis, si le blog est indépendant, il a gardé des liens étroits avec la SIF,  des convergences d’intérêts, d’objectifs, des liens d’amitiés. Un de ses anciens présidents, Colin, a été éditeur de binaire, un autre, Pierre, est éditeur en ce moment. Donc, nous sommes toujours particulièrement heureux quand la SIF, aujourd’hui avec son président Yves Bertrand, prend la parole dans binaire. Yves est professeur en informatique à l’Université de Poitiers. L’équipe de binaire.
    Informatique : Yves Bertrand élu président de la SIF, le conseil d'administration...
    Yves Bertrand, président de la SIF

    Février 2021… c’est en ce début d’année frappée comme la précédente du sceau de la pandémie mondiale, et entre deux périodes de confinement, que j’ai eu le plaisir et l’honneur de succéder à Colin de la Higuera, Jean-Marc Petit et Pierre Paradinas à la présidence de la Société informatique de France (SIF).

    L’histoire de certaines sociétés savantes s’inscrit dans un temps long : par exemple, les Sociétés physique, mathématique, chimique de France sont respectivement nées en 1873, 1872 et en 1857, et les disciplines qui les fondent sont au minimum multi-séculaires. Une vision positive de ces sociétés suggère qu’elles naquirent à une époque où les disciplines qui les portent avaient déjà acquis une certaine forme d’indépendance, de visibilité, de reconnaissance en tant que telles dans la société, et vis-à-vis des autres disciplines en particulier.

    En serait-il de même pour l’informatique et la Société informatique de France ? Soyons optimistes : gageons que oui. La SIF n’aura que 10 ans en 2022.

    Le premier texte du Conseil Scientifique de la SIF : L’informatique : la science au cœur du numérique, est publié dans binaire. Si vous souhaitez comprendre ce qu’est réellement cette science et cette technologie, lisez ce texte, qui devrait tenir lieu de prolégomène à toute initiation à l’informatique. Parions que, même si son propos a maintenant près de 10 ans, les définitions de l’informatique qu’il propose resteront pour longtemps.

    Cette époque qui voit la naissance de la SIF est également celle de la rédaction du rapport de l’Académie des sciences paru en mai 2013 sur l’enseignement de l’informatique en France. La plupart des attentes qu’il exprimait pour l’enseignement de l’informatique dans le secondaire peuvent être considérées comme satisfaites. En effet, depuis 2019, l’enseignement « Sciences numériques et technologies » (SNT) est suivi par tous les élèves de seconde générale. La réforme du baccalauréat, parmi ses 13 spécialités, inclut « Numérique et sciences informatiques » (NSI) au même niveau et volume horaire que les autres spécialités, notamment scientifiques. Début 2019, le CAPES du même nom est créé. En 2020, naissent 26 classes préparatoires « Mathématiques, physique, ingénierie et informatique » (MP2I) qui ouvrent en 2021. Et, point d’orgue aux yeux de certains pour la reconnaissance d’une discipline, Jean-Michel Blanquer annonce la création de l’agrégation d’informatique le 9 mars 2021. N’en jetez plus !

    Mes prédécesseurs et leurs équipes, les membres du conseil d’administration et du conseil scientifique de la SIF, et nombre de ses adhérents peuvent se féliciter à juste titre de ces avancées majeures pour l’informatique : ils ont œuvré sans relâche, et certains d’entre eux depuis plusieurs décennies (voir l’article de J. Baudé dans Binaire, 30 novembre 2021), pour qu’elles voient le jour. Ils ont pu s’appuyer sur le travail de nombreux enseignants du second degré et n’ont compté ni leur temps ni leur énergie pour se former à l’informatique puis pour l’enseigner au lycée à chaque fois que l’institution leur en a laissé l’opportunité.

    1024 raisons de comprendre l'informatique – binaire

    Le paysage de l’informatique s’est enrichi avec des sites comme Interstices, la revue 1024, le programme de formation Class’Code, la Fondation Blaise Pascal, Software Heritage, etc.

    Et maintenant ? Le travail de la SIF serait-il achevé ? Les combats qu’elle mène seraient-ils sans objet ? Que nenni. Pour l’agrégation 2022, seuls 20 postes sur les 2620 disponibles sont dévolus à l’informatique. Même si les effectifs de la spécialité « NSI » du lycée semblent prometteurs et en hausse d’une année à l’autre, ils demeurent confidentiels par rapport aux autres spécialités scientifiques. Et cette spécialité n’attire que 13% de filles. En terminale, elles ne sont plus qu’environ 2500 à la suivre sur toute la France. Le contenu effectif de l’enseignement SNT fait débat, pour le moins. Le second « i » de « MPII » devra faire du chemin en termes de volume horaire et de visibilité pour devenir un « i » réellement majuscule.

    En un mot, en formation, l’informatique vient d’acquérir plusieurs lettres de noblesse. Mais ces lettres sont pour l’heure écrites d’un trait politique hésitant, et d’une encre bien loin de conférer à l’informatique le triple statut de science, de technique et d’industrie, comme celui qui caractérise par exemple la chimie sans que cela fasse débat. Tant est fait depuis quelques années en termes institutionnels, mais tout reste à faire…

    En effet :

    – l’informatique se heurte d’abord à un souci d’appellation. Elle est tour à tour confondue, remplacée par de faux synonymes, tels que « numérique » (ou, pire, « digital »), « information », « TIC », ou associée, rarement avec bonheur, à ces mêmes vocables ;

    – d’une part, le caractère de discipline scientifique à part entière de l’informatique est contesté par de nombreux scientifiques, d’autant plus qu’ils sont eux-mêmes ignorants d’une science bien plus jeune que celle qu’ils pratiquent. Il est d’autre part largement méconnu du grand public qui confond en toute bonne foi la discipline avec les objets matériels qui la réifient et les usages qui envahissent le quotidien ;

    – non seulement la part des femmes dans les formations et les métiers en informatique est dramatiquement bas, mais depuis 30 ans au moins aucune initiative en faveur de la féminisation de notre secteur ne semble porter ses fruits.

    En formation, la spécialité « NSI » reste à ouvrir, au bon vouloir des politiques publiques nationale et académiques, dans la moitié des lycées généraux. Les générations de capésiens et d’agrégés restent à former et à recruter, en harmonie avec les enseignants déjà en charge de l’informatique au lycée. Mais surtout, l’effort d’information et de communication doit se porter bien en amont du lycée, là où les stéréotypes de genre peuvent encore se déconstruire : dès l’école primaire, et vis-à-vis du grand public et des familles.

    Cet effort peut se traduire par des actions de médiation scientifique en informatique visant à expliciter en termes accessibles à tous ce que cachent des termes utilisés inconsidérément comme « intelligence artificielle », « big data », « algorithmes », « numérique » qui ont en commun d’être aussi largement répandus que méconnus quant à leur acception précise. L’informatique « débranchée », ou sans ordinateur, peut faire merveille chez les plus jeunes, et le corps enseignant fourmille de vrais talents en matière de médiation. Le rôle de la SIF est de promouvoir et de mener de telles actions, en particulier avec la fondation Blaise Pascal dont le rôle est de financer des projets de médiation en mathématiques et en informatique. Il est aussi primordial de faire preuve d’ouverture en collaborant avec les sociétés savantes d’autres disciplines dont certaines sont rompues depuis longtemps à la médiation scientifique de haute qualité.

    Mais la SIF ne doit ni ne peut limiter son action à la formation et à la médiation, aussi importants ces champs soient-ils. Elle a le devoir d’éclairer le citoyen, l’usager et le décideur sur les impacts sociétaux des usages positifs ou négatifs de l’informatique tant ces impacts sont majeurs dans la plupart des activités humaines. Sommes-nous, informaticiennes et informaticiens, des professionnels de ces impacts sociétaux ? Assurément non. Mais nous sommes producteurs des « algorithmes » qui semblent aussi magiques qu’ils sont obscurs aux non-informaticien(ne)s, des logiciels qui en découlent, des « intelligences artificielles » qui traitent des « datas », plus abstruses encore. C’est pourquoi nous nous devons d’expliquer inlassablement ce que fait ou ne fait pas un algorithme, un logiciel, comment agissent les paramètres qui modifient son comportement, quelles sont leur puissance et leurs limites, et comprendre le plus objectivement qu’il nous sera possible le champ sociétal impacté pour expliciter son entrelacement avec l’informatique.

    En particulier, à l’heure ou le politique s’empare des concepts informatiques à la mode pour s’ériger en contempteur ou thuriféraire de telle ou telle évolution sociétale, comme s’il venait à l’esprit d’un juriste de s’emparer de l’art de concevoir et fabriquer des couteaux en tant qu’argutie pour ou contre la peine de mort, la SIF se doit non pas de prendre parti pour ou contre telle option de société, mais de démythifier l’informatique pour la démystifier, déconstruire pour le citoyen, l’usager, le décideur et au besoin contre le politique quand ce dernier oscille entre raccourci abusif et contrevérité patente, afin qu’en conscience parce qu’en connaissance, il recouvre la possibilité de statuer sur l’usage qu’il en fera. Le devoir d’éclairer de façon non partisane de celles et ceux qui « font » l’informatique est grand : contrairement à l’usager du couteau qui peut légitimement se targuer d’une compréhension « objective » de ce à quoi il peut servir parce qu’il y a un accès tactile et visuel « direct », l’usager de l’informatique n’a aucun accès direct à un logiciel, et moins encore aux algorithmes qui le sous-tendent, tant ils sont immatériels et complexes.

    Les souverainetés numériques de l’État, de l’entreprise, du citoyen (peut-on être souverain sans être souverainiste ?), la protection des données (quelles données protège-t-on de qui / quoi, pour qui / pourquoi ?), le climat, l’écologie, l’énergie (l’informatique peut-elle prétendre à un bilan carbone neutre ?), l’orientation scolaire (Parcoursup est-il soluble dans le parti socialiste ?), le vote électronique (est-il définitivement non sécurisable ?) : ce ne sont que quelques-unes des innombrables questions de société dont la SIF, en collaboration avec l’ensemble de ceux qui font l’informatique et notamment les industries et leurs représentants, doit s’emparer. Avec pour unique souci de déconstruire pour faire comprendre, d’expliquer pour maîtriser, de diffuser pour permettre aux libertés individuelles et collectives de s’exercer plus et mieux quant à l’usage d’une science et des technologies qu’elle engendre.

    Si sous la houlette de mes prédécesseurs et de la mienne, la SIF a pu et peut s’enorgueillir dans les domaines précités d’avancées dont on pourra un jour affirmer qu’elles ont fait progresser – même très peu – le libre-arbitre, le vivre-ensemble de celles et ceux qui sont impactés par l’informatique en ayant fait progresser leur connaissance de ce domaine, nous pourrons alors, immodestement sans doute, conjecturer que nos efforts n’auront pas été totalement vains.

    Yves Bertrand, président de la SIF.

    SIF Logo

  • Impacts environnementaux du numérique : le Mooc

    Impact Num est un MOOC pour se questionner sur les impacts environnementaux du numérique, apprendre à mesurer, décrypter et agir, pour trouver sa place de citoyen dans un monde numérique.

    Ce MOOC  se donne pour objectif d’aborder l’impact du numérique sur l’environnement, ses effets positifs et négatifs, les phénomènes observables aujourd’hui et les projections que nous sommes en mesure de faire pour l’avenir. Il est à destination des médiateurs éducatifs et plus largement du grand public.

    Co-produit par Inria et Class’Code avec le soutien du Ministère de l’éducation nationale, de la jeunesse et des sports et d’Unit, ce cours a ouvert le 22 novembre 2021 ; vous pouvez dès à présent vous inscrire sur la plateforme FUN.

    Ce MOOC, c’est une trentaine d’experts du domaine, des vidéos didactiques et ludiques pour poser les enjeux, des activités interactives pour analyser, mesurer et agir, des fiches concept pour approfondir les notions.

    L’équipe de Class’Code

    Repris de https://pixees.fr/impacts-environnementaux-du-numerique-un-mooc-pour-se-questionner/

  • Construisez les services publics numériques de demain

    Binaire ne reprend pas en général ce genre d’information. Mais la transformation de l’État par le numérique nous parait un sujet suffisamment important pour faire une exception. L’équipe Binaire

    Du 29 novembre au 16 décembre 2021, la direction interministérielle du numérique (DINUM) organise la 5e édition du Forum de l’emploi tech de l’État : en ligne du 29 novembre au 15 décembre et à Paris le 16 décembre. L’occasion de faire se rencontrer recruteurs du secteur public (ministères, collectivités territoriales…) et candidats professionnels du numérique, issus du secteur public ou du privé.

    Pour en savoir plus sur les startups d’État, consultez beta.gouv.fr.

  • Enseignement de l’informatique : quelle histoire !

    Ça y est, nos jeunes apprennent enfin l’informatique à l’école, mais … comment en sommes-nous enfin arrivés là ? De nombreux acteurs ont œuvré avec acharnement depuis des décennies, au premier rang desquels se trouve l’association EPI qui fête ses 50 ans cette année. Jacques Baudé, son ancien président, nous raconte l’histoire du déploiement de l’informatique pédagogique dans l’enseignement général en France, des années 1950 à 2021. Au menu : les premiers équipements, séminaires, expériences dans des lycées, langage de programmation en français, introduction dans l’enseignement avec ses aléas, avant la mise en place de l’enseignement de l’informatique actuelle, fort aussi de travaux en didactique sur ces sujets.

     

    Ayant vécu, comme acteur et témoin, ce demi siècle d’introduction de l’enseignement de l’informatique dans le système éducatif, Jacques Baudé  nous permet de refaire cet itinéraire, en rassemblant  pour les spécialistes quelques jalons des moments les plus importants, pour découvrir et aller plus loin dans la compréhension de cette période pas encore traitée par les historiens.
    © Inria / Photo G. Scagnelli

    En préambule au document en partage ci-dessous, nous vous proposons de tester vos connaissances sur cette histoire avec ce petit quiz :

    1. L’informatique existait avant Internet et le web, mais quand ?
      1. Pas plus de 10 ans avant
      2. Environ 20 ans avant
      3. Au moins 30 ans avant
    2. Y a-t-il eu des fabricants français d’ordinateur ?
      1. Bien sûr !
      2. Ah ben non
    3. Quand sont apparus les tout premiers enseignements d’informatique dans le secondaire ?
      1. Dans les 60’s.
      2. Dans les 70’s.
      3. Dans les 80’s.
    4. Au millénaire précédent, quels sont les deux ordinateurs de la liste ci-dessous utilisés pour l’enseignement ?
      1. TO 7.
      2. Mitra 15.
      3. Iphone 22.
      4. IBM 1234.
    5. La spécialité enseignement NSI (Numérique et Sciences Informatiques) en classe de terminale :
      1. Existe depuis plus de dix ans.
      2. N’existe pas en France, mais uniquement aux États Unis et en Chine.
      3. Est déployée depuis 2020.
      4. N’existe heureusement pas, malgré des tentatives, de l’imposer.
    6. Un algorithme, c’est :
      1. Une suite d’instructions et d’opérations réalisées, dans un ordre précis, pour résoudre un problème.
      2. Pour un nombre réel strictement positif a, son algorithme est le nombre en base b à la puissance de laquelle il faut élever b pour obtenir a.
      3. Le rythme musical que les informaticiens aiment fredonner en phase de codage.
      4. Un théorème du fameux algébriste Al Khawarizmi.
    7. Apprendre l’informatique, ça veut dire ?
      1. Apprendre à écrire des logiciels, par exemple, coder des jeux.
      2. Comprendre comment fonctionnent et utiliser les réseaux sociaux.
      3. Connaître les principales technologies utilisées dans les ordinateurs et les réseaux.
      4. Maîtriser la pensée algorithmique.
      5. Pouvoir réparer l’ordinateur de mamie.
      6. Savoir écrire un logiciel en langage de programmation.
      7. Comprendre comment est codée l’information dans les données. numériques.
      8. Apprendre toutes les marques d’ordinateurs, leurs prix et leurs caractéristiques techniques.

    Pour creuser vos connaissances sur le sujet, nous vous invitons à découvrir l’article de Jacques Baudé qui nous raconte cette grande et complexe aventure :

    Éléments pour un historique de l’informatique dans l’enseignement général français. Sur sept décennies (PDF)

    Et parce qu’on est sympa, vous pouvez aussi vérifier vos résultats :

    1. C // 2. A // 3. B // 4. A et B // 5. C // 6. A // 7. A, B, C, D, F et G

    Serge Abiteboul, Marie-Agnès Enard, Pascal Guitton & Thierry Viéville