Catégorie : Intelligence artificelle

  • Vision croisée de l’IA Explicable entre philosophie et informatique

    Pourquoi ne pas proposer au grand public une vision croisée de l’IA explicable entre philosophie et sciences informatiques des enjeux, des pistes de recherche et des conditions auxquelles les outils d’explications pourront être déterminants pour la confiance des utilisateurs et des autorités de régulation (s’il y en a un jour) de ces outils. Autrement dit, un fil de philosophie de l’Intelligence Artificielle (IA) sur l’opacité des systèmes computationnels complexes d’un point de vue de la philosophie des sciencesCédric Brun, chercheur en philosophie des sciences en Neuroscience, Humanities & Society (NeHuS) et Ikram Chraibi Kaadoud, chercheuse en IA explicable et  IA digne de confiance, nous partage cette vision. Thierry Viéville.

    Philosophie de l’IA 

    La philosophie s’est très tôt intéressée à l’IA comme discipline et comme projet théorique.

    D’abord parce qu’une partie de l’IA et de la philosophie de l’esprit posent des questions proches, avec des outils différents. Par exemple, John Haugeland, feu professeur émérite de philosophie à l’université de Chicago, a discuté en 1980 dans son livre “Artificial Intelligence, the Very Idea” (image ci dessous) de l’idée que la pensée humaine et le traitement formel de l’’information dans une machine sont « radicalement les mêmes ». Le contexte de l’époque opposait alors les humanistes qui soulignaient que “Les machines qui pensent – c’est tout à fait absurde » et les techno-visionnaires qui soutenaient que  “L’intelligence artificielle est là et sur le point de surpasser la nôtre ». 

    43 ans après, force est de constater que ces questions, posées probablement différemment,  sont toujours d’actualité.

     “Artificial Intelligence, the Very Idea » de John Haugeland  (Trad fr. J. Henry,  L’esprit dans la machine, fondement de l’intelligence artificielle, Odile Jacob 1989) Src: https://mitpress.mit.edu/9780262081535/ 

     

    L’une des questions centrales mais souvent évitées est celle de la nature de  l’intelligence : qu’est-ce que l’intelligence ? L’intelligence humaine peut-elle être reproduite, voire dépassée, par des outils computationnels ? La conscience (ou au moins la connaissance réflexive) d’un agent intelligent humain peut-elle être simulée, reproduite, voire réalisée par des machines ?

    Hilary Putnam, philosophe américain co-fondateur du computationnalisme* et figure centrale de la philosophie contemporaine américaine, a tenté d’apporter des éléments de réponses à ces questions dans son article “Minds and Machines” (Les esprits et les machines) de 1960. Selon lui, les différentes questions et énigmes qui constituent le problème traditionnel du corps et de l’esprit peuvent entièrement être approchées par leur nature linguistique et logique. Cette approche l’a ainsi conduit à conclure que la cognition humaine n’est pas fondamentalement de nature différente d’un traitement formel de symboles par un ordinateur. 

    Putnam, H. (1960). Minds and machines.URL: https://philpapers.org/rec/PUTMAM 

     

    Moment Glossaire: 

     
    *Un système computationnel est un modèle qui fait des calculs à partir d’informations données en entrée, et qui donne en sortie un résultat numérique.                                                 Source: Collins, A., & Khamassi, M. (2021). Initiation à la modélisation computationnelle
     

    * Le computationnalisme est une théorie fonctionnaliste en philosophie de l’esprit qui conçoit l’esprit comme un système de traitement de l’information et compare la pensée à un calcul (en anglais, computation) et, plus précisément, à l’application d’un système de règles. Cette théorie est différente du cognitivisme.                                   Source: https://fr.wikipedia.org/wiki/Computationnalisme 

    * Le cognitivisme est le courant de recherche scientifique endossant l’hypothèse selon laquelle la pensée est analogue à un processus de traitement de l’information, cadre théorique qui s’est opposé, dans les années 1950, au béhaviorisme. La notion de cognition y est centrale. Elle est définie en lien avec l’intelligence artificielle comme une manipulation de symboles ou de représentations symboliques effectuée selon un ensemble de règles. Elle peut être réalisée par n’importe quel dispositif capable d’opérer ces manipulations.                                                                                                                    Source: https://fr.wikipedia.org/wiki/Cognitivisme 

    Plus récemment, la philosophie de l’IA s’est davantage tournée  vers des questions techniques relatives aux différentes architectures et méthodes computationnelles et leurs enjeux épistémologiques, éthiques et politiques du fait de la pénétration et du développement de l’IA dans la pratique scientifique et dans la société.

    Daniel Andler dans son livre Intelligence artificielle, intelligence humaine : la double énigme en 2023 (image ci dessous), a introduit l’idée qu’il existait un écart entre la représentation de la philosophie de l’IA chez les non spécialistes  et l’actualité de la recherche en philosophie de l’IA. Cela est d’autant plus vrai pour lui lorsqu’il s’agit des sujets éthiques et des problèmes fondationnels sur la possibilité d’une Intelligence Générale Artificielle (IGA) ou d’une IA forte,  sujets très présents dans la philosophie du transhumanisme*.

    Src:https://www.gallimard.fr/Catalogue/GALLIMARD/NRF-Essais/Intelligence-artificielle-intelligence-humaine-la-double-enigme

     

    Une bonne partie de la philosophie de l’IA concerne des enjeux éthiques et politiques de l’IA tels que par exemple les biais, l’équité, la confiance, la transparence, mais reste  toujours liée à des enjeux épistémologiques* selon les outils techniques mobilisés en IA, à savoir apprentissage machine supervisé ou non, Réseaux de neurones profonds convolutifs ou encore systèmes symboliques classiques. 

    Moment Glossaire: 

    * La philosophie du transhumanisme ou transhumanisme est une doctrine philosophique prétendant qu’il est possible d’améliorer l’humanité par la science et la technologie en libérant l’humanité de ses limites biologiques notamment en surmontant l’évolution naturelle. Le changement apporté à l’humain serait positif, car cela pourrait signifier la libération des contraintes de la nature, comme la maladie ou la mort. L’idée centrale est celle d’un dépassement de l’humain (et non de son élimination) par l’intermédiaire des techniques qui évoluent de manière très rapide. Source: Le transhumanisme selon https://philosciences.com/                                                Pour en savoir plus: https://encyclo-philo.fr/transhumanisme-a 


    * L’épistémologie désigne de manière générale l’étude de la connaissance et de ses conditions de possibilité.  En un sens plus spécifique, c’est un domaine de la philosophie qui étudie les disciplines scientifiques et les conditions logiques, méthodologiques et conceptuelles de production des connaissances scientifiques. Pour un domaine scientifique particulier (l’IA par exemple), l’épistémologie désignera l’étude critique des savoirs qu’il produit à partir de l’analyse de ses méthodes, pratiques et concepts.

    Opacité et transparence des Systèmes Computationnels Complexes (SCC)

     
     

    L’opacité d’un Système Computationnel Complexe (SCC)  est dérivée du concept d’opacité épistémique. Au sens le plus fort, l’opacité épistémique désigne la complexité (voir l’impossibilité) de suivre et comprendre les processus computationnels impliqués dans un système: les étapes, les justifications et les implications de chaque étape du processus deviennent hors de porté pour des agents cognitifs humains.

    Autrement dit, nous ne pouvons expliquer ni pourquoi, ni comment le système produit, en sortie, les résultats (classifications, décisions) qu’il produit selon les données fournies (ou collectées) en entrées du système. On parle alors de boîte-noire, puisque les processus internes en sont inscrutables.

    Cette opacité s’étend aussi à la nature exacte des données pertinentes au fonctionnement du système dans le cas de l’apprentissage profond.

    Rappelez-vous les réactions aux premiers résultats de Parcoursup en mai 2023, faites une recherche “#PARCOURSUP + opacité” sur X (anciennement Twitter), pour voir. Nous retrouvons alors des opinions comme celle-ci : 

     

    En résumé, l’opacité survient lorsque nous ne savons pas exactement comment le comportement du système est produit ni sur quelles données (ou propriétés de ces données) il s’appuie pour produire ce comportement.

    Dans un article de 2016 intitulé How the machine ‘thinks’: Understanding opacity in machine learning algorithms” (Comment les machines pensent: comprendre l’opacité dans les algorithmes d’apprentissage autonome), Jenna Burrell @jennaburrell , alors professeure à l’UC Berkeley, a examiné la question de l’opacité en tant que problème pour les mécanismes de classification et de classement ayant des conséquences sociales, tels que les filtres anti-spam, la détection des fraudes à la carte de crédit, les moteurs de recherche, les tendances de l’actualité, la segmentation du marché et la publicité, l’assurance ou la qualification des prêts, et l’évaluation de la solvabilité. Ces mécanismes de classification s’appuyent tous fréquemment sur des algorithmes et, dans de nombreux cas, sur des algorithmes d’apprentissage automatique.

    La chercheuse distingue ainsi 3 types d’opacité :

    • (1) Intentionnel : l’opacité en tant que secret d’entreprise ou d’État intentionnel,
    • (2) Educationnelle :  l’opacité en tant qu’analphabétisme technique (technical illiteracy) 
    • (3) Opératoire :  l’opacité qui découle des caractéristiques des algorithmes d’apprentissage automatique et de l’échelle requise pour les appliquer de manière utile.

    Les deux premiers types ne sont pas spécifiques à l’apprentissage machine/profond.  On les retrouve dans tous les domaines techniques et scientifiques : essayez de démonter et réparer un écran OLED de dernière génération, pour voir ; ou de dépanner vous-mêmes votre voiture hybride.  Ne serait-ce que comprendre les processus engagés entre l’action réalisée par votre votre index sur la télécommande et le résultat sur l’écran ( par exemple le changement de chaîne) représente un défi si vous n’avez pas de connaissances poussées en physique et en électronique. Votre téléviseur est une boîte-noire, autrement dit une « lucarne MAGIQUE ».

    La spécificité des SCC, en tout cas de certains, c’est que même si vous avez accès au code et que vous avez toutes les connaissances nécessaires pour concevoir ce système, son caractère récursif, l’échelle à laquelle il fonctionne et l’organisation dynamique de ses données produisent une opacité opératoire qui vous affecte quasiment au même titre que le béotien1 ! 

     

    Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big data & society, 3(1), 2053951715622512. URL:  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2660674


    Quid de la communauté scientifique IA ? 

    Les chercheur.e.s en IA, les scientifiques qui utilisent des outils complexes de traitement computationnel des données massives et les philosophes de l’IA ont fait valoir que réduire l’opacité, et amener de la transparence exigeait : (i) un effort en direction de plus de transparence, d’interprétabilité ou d’explicabilité (tous ces concepts doivent être soigneusement distingués, mais cela nous engagerait dans un long développement technique). Cela s’est parfois traduit dans des règlements internationaux (RGPD par exemple en Europe), (ii) des programmes de recherche (privés et publics) et (iii) un grand nombre de publications en IA, en SHS, en droit, en sciences politiques, autrement dit, de la pluridisciplinarité!

    Cette exigence de transparence repose sur l’espoir d’une plus grande confiance des utilisateurs proximaux ou finaux.  L’argument étant le suivant: la confiance dans une personne provient de la capacité à exhiber les raisons de ses décisions. Si ces raisons sont impénétrables, inaccessibles ou opaques, alors il n’y aura pas de pleine confiance. Certains auteurs ont cependant déjà prévenu (il y a déjà un certain temps) que cette opacité des SCC était inhérente, insurmontable et inéliminable et qu’il fallait faire avec.

     – Deal with it! – 

    Paul Humphreys, Professeur britannique de philosophie à l’université de Virginie, spécialisé dans la philosophie des sciences, la métaphysique et l’épistémologie, s’est intéressé à la métaphysique et à l’épistémologie de l’émergence, à la science informatique, à l’empirisme et au réalisme. En 2009, il explique dans son article “The philosophical novelty of computer simulation methods” (La nouveauté philosophique des méthodes de simulation informatique) que les simulations informatiques et la science computationnelle sont  un ensemble de méthodes scientifiques distinctement nouvelles qui  introduisent de nouvelles questions à la fois épistémologiques et méthodologiques dans la philosophie des sciences.

    Ces outils numériques, utilisés à grande échelle, modifient profondément la pratique scientifique, mais surtout les buts de la recherche scientifique: La modélisation et la simulation computationnelles nous conduiraient à envisager la recherche scientifique comme visant la prédiction de phénomènes ou processus modélisés, plutôt que leur compréhension ou explication.

     

    Humphreys, P. (2009). The philosophical novelty of computer simulation methods. Synthese, 169, 615-626. URL : https://philpapers.org/rec/HUMTPN

     

    Certains chercheurs considèrent que si l’on ne parvient pas à réduire cette opacité fondamentale en choisissant des architectures et méthodes plus transparentes que l’apprentissage machine non supervisé ou l’apprentissage profond, il faudrait alors exclure l’utilisation des SCC de certains cas. 

    Par exemple, en médecine, dans le domaine judiciaire ou l’éducation, les SCC devraient être suffisamment transparents du point de vue opératoire car sans cela, leur utilisation ne devrait pas être autorisée.

    C’est autour de cette idée que se sont construits les travaux de Cynthia Rudin  @CynthiaRudin qui ont annoncé un changement de cap dans le domaine de l’explicabilité en IA notamment centrée-humain.

     Informaticienne et statisticienne américaine spécialisée dans l’apprentissage automatique, elle est notamment connue pour ses travaux sur  l’interprétabilité des algorithmes d’apprentissage automatique. Directrice de l‘Interpretable Machine Learning Lab à l’université Duke, où elle est professeur d’informatique, d’ingénierie électrique et informatique, de science statistique, de biostatistique et de bio-informatique, elle a remporté en 2022 le Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity de l’Association for the Advancement of Artificial Intelligence (AAAI) pour ses travaux sur l’importance de la transparence des systèmes d’IA dans les domaines à haut risque.

    Dans son article de 2019 intitulé “Stop explaining black-box machine learning models for high-stakes decisions and use interpretable models instead.” (Cessez d’expliquer des modèles d’apprentissage automatique à boîte noire pour des décisions à fort enjeu et utilisez plutôt des modèles interprétables.), Cynthia Rudin se penche sur l’idée que la création de  méthodes permettant d’expliquer ces modèles boîtes noires atténuera certains des problèmes éthiques recensés dans la littérature. Elle y discute notamment l’idée que s’échiner à expliquer les modèles boîte noire, plutôt que de créer des modèles interprétables en premier lieu, risque de perpétuer les mauvaises pratiques et peut potentiellement causer un grand préjudice à la société.

    La voie à suivre, selon elle, consiste à concevoir des modèles intrinsèquement interprétables notamment pour les décisions à fort enjeu comme dans la justice pénale, les soins de santé et la vision par ordinateur.

    Src: Rudin, C. (2019). Stop explaining black-box machine learning models for high-stakes decisions and use interpretable models instead. Nature machine intelligence, 1(5), 206-215. URL: https://tinyurl.com/4vtac7zh

     

    En parallèle à ce mouvement lancé par Cyntia Rudin, d’autres chercheurs et industriels, pensent qu’en distinguant des types de transparence on pourra limiter l’opacité opératoire et gagner en confiance, ainsi qu’en maîtrise (recherche de bugs par les modélisateurs) et en capacité explicative (pour les scientifiques utilisant ces outils). C’est notamment ce que propose Kathleen Creel @KathleenACreel dans un article de 2020 extrêmement éclairant, “Transparency in Complex Computational Systems”  (“Transparence des systèmes computationnels complexes”).

    Professeur assistante à la Northeastern University, Kathleen Creel mène des travaux sur les implications morales, politiques et épistémiques de l’apprentissage automatique tel qu’il est utilisé dans la prise de décision automatisée non étatique et dans la science.  Elle a notamment contribué à intégrer les enseignements d’éthique aux programmes informatiques de Stanford afin de permettre l’acquisition de compétences aux étudiants qui  leur permettraient de discuter et de réfléchir aux dilemmes éthiques qu’ils pourraient rencontrer dans leur carrière professionnelle.

    Dans cet article de 2020, Kathleen Creel propose une analyse de la transparence sous trois formes : (i) la transparence de l’algorithme, (ii) la réalisation de l’algorithme dans le code et (iii)la manière dont le code est exécuté sur un matériel et des données particuliers. En visant la transparence sous ces trois formes, cela permettrait de cibler la transparence la plus utile pour une tâche donnée en fournissant une transparence partielle lorsque la transparence totale est impossible, tout en évitant un usage instrumentaliste des systèmes opaques.

    Creel, K. A. (2020). Transparency in complex computational systems. Philosophy of Science, 87(4), 568-589. URL: http://philsci-archive.pitt.edu/16669/  

     

    Enfin, d’autres considèrent qu’en exigeant une telle transparence des SCC, nous faisons deux poids-deux mesures puisque cette opacité opératoire n’est qu’une sous-catégorie de l’opacité épistémique dans laquelle nous nous trouvons face à nos congénères : 

    https://psyche.co/ideas/should-we-be-concerned-that-the-decisions-of-ais-are-inscrutable 

     

    Au fond, nous serions face à l’aide à la décision apportée par un.e docteur.e en médecine avant de donner notre consentement éclairé pour une opération comme nous sommes face à un SCC d’aide à la décision en apprentissage profond. Seul le contexte d’interaction permettrait de fonder notre confiance, sans compter que des travaux menés en explicabilité centrée humain, montrent que dans certains contextes, l’accès à des explications est plus source de stress (et donc de rejets de l’information) que de confiance et d’acceptabilité des SCC.

    Dr Juliette @FerryDanini, enseignante chercheuse en philosophie à l’université de Namur, a fait une communication sur ce débat en 2021 au Congress of the Quebec Philosophy Society, nous vous conseillons de la voir si ça vous intéresse, la vidéo étant ci dessous: 

    Vidéo youtube:  https://www.youtube.com/watch?v=xNWe3PsfNng 

    TAKE HOME MESSAGE

    Alors que retenir de cette vision croisée de l’IA Explicable, entre philosophie et informatiques ? des réflexions et probablement des questionnements aussi !

    ‘Take home message #1 : Comme toujours en philosophie des sciences et techniques, les problèmes éthiques sont liés à des problèmes épistémologiques qui supposent une compréhension des questions pratiques et théoriques centrales soulevées par l’usage de ces méthodes : pas d’indépendance des deux.

    Take-home message #2 : La philosophie de l’IA suppose une certaine familiarité avec des questions techniques. Idéalement, savoir coder est potentiellement une exigence à viser.

    Take-home message #3 : Un gros travail interdisciplinaire de définition des concepts centraux (transparence, explicabilité, interprétabilité, opacité) doit être fait pour stabiliser le champ et les stratégies théoriques et pratiques, voire industrielles.

    Take-Home message #4 : La confiance comme vertu cardinale du rapport aux SCC nous semble à questionner. Il y a du boulot à faire 🙂 

    Cédric Brun, chercheur en philosophie des sciences en Neuroscience, Humanities & Society (NeHuS) et Ikram Chraibi Kaadoud, chercheuse en IA explicable et  IA digne de confiance.


    1  L’adjectif béotien : de la région de Béotie. Les habitants de la Béotie, province de l’ancienne Grèce, avaient, à Athènes, la réputation d’être un peuple inculte, lourdaud et peu raffiné. De nos jours, l’adjectif béotien, béotienne qualifie un individu peu ouvert aux lettres et aux arts, aux goûts grossiers.  Source: https://www.projet-voltaire.fr/culture-generale/beotien-marathon-sybarite-ces-mots-francais_toponymes-grecs-antiques-noms-lieux-grecs/ 

    Pour en savoir plus/Références

    • L’intelligence artificielle explicable (XAI) :
      • Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., … & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115. URL: https://www.sciencedirect.com/science/article/abs/pii/S1566253519308103 
      • Comment saisir ce que font les réseaux de neurones ? Série de trois articles du blog binaire sur les concepts d’intéprétabilité et d’explicabilité: https://binaire.socinfo.fr/2020/09/04/comment-saisir-ce-que-font-les-reseaux-de-neurones/
  • Des IA conseillères assurément, une IA présidente jamais de la vie

    L’article du blog binaire de Jason Richard a conduit à une réaction de Max Dauchet. Max est professeur émérite à l’Université de Lille. Il a réalisé des recherches sur les outils logiques et méthodes formelles pour la programmation, l’algorithmique et sur la bioinformatique. Il s’intéresse aujourd’hui à l’éthique des sciences et technologies du numérique. Il fait partie du comité étique et scientifique de Parcoursup. Serge Abiteboul

    Des IA conseillères assurément, une IA présidente jamais de la vie

    Jason Richard s’interrogeait dans ce blog sur la possibilité et l’opportunité qu’un pays soit gouverné par une IA1. Recensant le pour et le contre, il laissait la question ouverte.

    La réponse se précise si l’on considère que l’intelligence obéit à des lois universelles de l’information et qu’elle n’a rien de spécifiquement humain, au même titre que la force obéit aux lois universelles de la physique. L’IA apparaît alors comme un outil parmi les autres, aux côtés de la machine à vapeur. Parce que c’est un outil, il ne faut pas se priver de son aide, parce que ce n’est qu’un outil, l’idée qu’elle préside à notre destinée est vide de sens.

    Cependant l’IA n’est pas n’importe quel outil. Elle est de ces instruments qui révolutionnent les civilisations, comme la lunette astronomique mena à l’héliocentrisme, l’imprimerie à la démocratie libérale. En étendant sans limites notre intelligence, et en la libérant de ses biais cognitifs, l’IA « peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières2 ».

    Les politiques répètent à l’envie qu’il faut « changer de logiciel ». Changeons donc de logiciel.

    Une seconde révolution copernicienne

    En se penchant sur ses morts, le Sapiens s’interrogea sur son sort. Il imagina son salut par l’obéissance à des lois divines. Quand la révolution copernicienne discrédita l’idée d’une création dont il était le centre, vinrent les Lumières où l’homme se reporta sur sa raison pour comprendre et organiser le monde à son avantage. Cette arrogance de l’esprit nous a conduits au pied d’un mur environnemental qui va selon certains jusqu’à menacer notre espèce. Une nouvelle révolution voit le jour, celle de l’intelligence partagée, instrumentée par l’Intelligence dite Artificielle pour éclairer nos choix. Se priver d’IA dans les débats parlementaires serait désormais aussi stupide que jadis partir en exploration sans boussole, ou maintenant délibérer en COP sans l’expertise du GIEC.

    Si nous répugnons encore à cette perspective, c’est que nous demeurons dans l’idée toute cartésienne que l’intelligence est l’apanage de l’humain. C’est pourquoi nous sommes troublés de voir l’intelligence machine pulvériser nos capacités, alors que nous nous félicitons que nos engins soient bien plus forts que nous pour nous aider dans les chantiers. Quand nous avons inventé la machine à vapeur, nous ne l’avons pas nommée Puissance Artificielle, parce que nous savions que la force et la puissance obéissent à des lois universelles de la mécanique et que nos prédateurs ancestraux nous surpassaient dans ce registre. C’est dans l’intelligence que nous avons placé ces derniers siècles la fierté de notre espèce, comme en témoignent nos contes et récits, où c’est toujours le petit futé qui l’emporte sur le grand crétin. Nous devons désormais nous faire à l’idée que l’intelligence n’est pas non plus notre apanage, qu’elle est partagée avec la nature et nos machines

    La révolution des réseaux de neurones

    La révolution informatique repose sur l’universalité des ordinateurs, leur capacité à « calculer tout ce qui est calculable », pourvu qu’ils aient assez de mémoire et de temps. La difficulté est que pour tout problème, il faut trouver un algorithme qui le résout. La révolution de l’IA repose sur une double universalité : d’une part un réseau de neurones artificiels peut « souvent apprendre approximativement ce qui est apprenable », pourvu qu’il soit assez grand, et d’autre part il peut le faire avec un même et seul algorithme, l’algorithme de rétro-propagation du gradient. En cela l’IA connexionnisme, celle des réseaux de neurones, ne fait que mimer la formidable trouvaille de l’évolution darwinienne qu’est le cortex et ses circonvolutions, avec l’avantage pour la machine de ne pas devoir se tasser dans une boîte crânienne.

    Que des théorèmes expliquent pourquoi l’IA semble faire « tout mieux que nous »3 est de nature à nous rassurer et à tordre le cou aux obscurantismes. Cependant cette affirmation met à l’état de l’art « ses habits du dimanche » comme aurait joliment dit Marcel Pagnol, car il est bon de garder en tête qu’elle cache de nombreux bémols, qui sont autant de pistes pour les recherches futures4.

    Cette révolution ne pouvait avoir lieu que maintenant, car le connexionnisme ne fonctionne que dans la gigantisme, quand tout se compte en milliards, milliards de données, milliards de neurones, milliardièmes de seconde, ce qui n’était pas technologiquement abordable avant ces dernières années.

    Des intelligences non biaisées par la condition humaine

    Un autre avantage de la machine est qu’elle est exempte de nos biais cognitifs5. Des biais sont souvent imputés aux machines, des déboires historiques de Siri aux dérapages récents de la reconnaissance faciale6. Ce faisant on oublie que ces biais ne sont pas liés au fonctionnement des machines mais aux comportements humains, en l’occurrence sexistes ou racistes, reflétés dans les échantillons d’apprentissage. Il faut donc distinguer les biais dans les données et les biais de traitement : là où notre raisonnement est biaisé, le traitement machine des mêmes données ne l’est pas.

    Le Monde a consacré à nos biais cognitifs une série d’articles l’été dernier, « Les intox du cortex », et la chaîne YouTube « La Tronche en Biais », 300k abonnés, dédiée à l’esprit critique, accorde comme son nom l’indique une large place au sujet.

    Un biais cognitif qualifie la différence d’analyse entre celle faite par un humain et celle réalisée de façon purement logique et rationnelle. Il est vraisemblable que nos biais trouvent leurs origines dans des avantages compétitifs qu’ils procuraient à notre espèce et ses individus au cours de la sélection darwinienne, avantages qui peuvent se retourner en handicaps quand l’environnement change. Sébastien Bohler va très loin en la matière7. Selon ce neuro-scientifique vulgarisateur, notre espèce doit sa survie à sa propension à dévorer, copuler, en imposer à la première occasion, tant la condition de nos ancêtre ne tenait qu’à un fil, avec la nourriture rare, la mortalité précoce et la trahison quotidienne. Avec l’abondance de l’ère industrielle, cette tendance – que Bohler nomme bug – qui nous a conduit à la surconsommation, à l explosion démographique, à la profusion de bagnoles, de fringues, et autres biens statutaires, jusqu’au pied du mur écologique.

    Des intelligences machines novatrices

    Le conformisme des IA est souvent évoqué pour les moteurs de recommandations, qui en se basant sur les statistiques de nos goûts nous proposent ce que l’on aime déjà. Mais cela ne vaut pas dans des applications avancées. Ainsi lors du match historique de 2016 AlphaGo réussit contre Lee Sedol un « coup de Dieu », comme le qualifient les spécialistes du jeu de Go. Des recherches récentes expliquent qu’au cours de son apprentissage un réseau connexionniste peut détecter entre des situations des similitudes qui nous échappent tant les sens que nous leur attribuons sont éloignés8. C’est ce que nous appelons parfois la créativité. Là où nos raisonnement seront prisonniers de nos biais, la machine privilégiera des principes mathématiques qui conduiront à des scénarios inédits, qu’elle alimentera de sa capacité à articuler des milliards de données hétérogènes, humaines, économiques, culturelles, scientifiques.

    Quand l’IA éclairera le politique…

    La voiture. Capter le regard envieux du voisin ou celui conquis de l’être convoité est selon les publicités le rêve de tout possesseur d’une voiture. Quitte à frustrer notre goût pour les biens statutaires, l’IA proposera la suppression de la voiture individuelle au profit de flottes collectives semi-autonomes appelées et congédiées d’un clic, elle élaborera des scénarios chiffrés de transition, dont la difficulté est actuellement prétexte à écarter l’idée.

    Les retraites. Par principe de parcimonie, qui privilégie les hypothèses les plus simples, l’IA favorisera l’assertion « tous les humains ont une égale dignité, ils doivent être traités à égalité dès lors qu’ils cessent d’être des agents sociaux-économiques », et elle détaillera là aussi les difficiles scénarios de transition.

    Les migrations. L’humanité s’est fondée sur les migrations, cela n’échappera pas aux machines.

    La fin de vie. La machine ne produira rien qui fasse sens pour nous, car il s’agit de notre mort.

    dans une génération

    Bien entendu nous serons libres de critiquer et réfuter les scénarios des machines. Cependant nos décisions face à ces scénarios devront être solidement argumentées et débattues, car nous aurons à en rendre compte aux générations futures. Les décisions des COP face aux expertises du GIEC donnent un avant goût de cette situation.

    Il faudra une génération pour que le recours institutionnel à l’IA se mette en place. Le temps que celle-ci conquière progressivement notre confiance dans ce rôle. Il faudra en codifier l’usage au fil des expérimentations, comme on codifie le fonctionnement démocratique. Tout comme les experts sont corruptibles, les IA sont manipulables, aussi faudra-t-il également codifier les protocoles de traitement et confronter les IA comme on confronte les experts.

    En revanche l’IA possède un énorme avantage en matière de transparence9. On ne peut pas sonder les crânes pour estimer la sincérité d’un argument, en revanche on peut expertiser les processus de façon reproductible, contradictoire et opposable.

    Le spectre souvent évoqué de la dictature des algorithmes ou des IA n’est pas à craindre : la machine proposera, nous éclairant en surplomb de notre condition, nous seuls disposerons de notre destin. L’intelligence machine pèsera certes sur nos décisions, mais il n’y a là rien de nouveau, nous co-évoluons avec les outils dont nous nous dotons depuis l’époque où nos ancêtres taillaient les silex.

    Max Dauchet, Professeur à l’Université de Lille

    1 Une intelligence artificielle à la tête d’un pays : science fiction ou réalité future ? 27 octobre 2023

    2Propos de Yann le Cun, prix Turing et un des pères de l’IA actuelle, dans une interview au Monde, le 28 avril 2023

    3On a l’embarras du choix d’articles de tous niveaux sur le net. Pour un scientifique francophone non spécialiste, les cours du Collège de France, disponibles en vidéo, sont une entrée attrayante : ceux de Stanislas Dehaene, titulaire de la chaire «Psychologie cognitive expérimentale » pour les aspects biologiques, et pour les aspects sciences du numérique le cours de Yann Le Cun invité en 2015-2016 sur la chaire « Informatique et sciences numériques », ainsi que les cours de Stéphane Mallat, titulaire de la chaire « Sciences des données », axés autour du triangle « régularité, approximation, parcimonie », où l’extraction d’informations de masses de données s’apparente à une réduction de dimension des problèmes à milliards de paramètres.

    On peut aussi aborder la comparaison entre biologie et numérique par le petit bout de la lorgnette, sans aucune connaissance préalable, à travers trois courts articles de mon blog https://la-data-au-secours-des-lumieres.blogspot.com/: « L’affaire du Perceptron » raconte par l’anecdote l’émoi suscité par le Perceptron dans les années 70, imposante machine qui s’avéra avec le recul n’être qu’un séparateur linéaire, comme l’est un neurone muni de la loi formulée par Hebb d’évolution des connexions, dont la vérification expérimentale valut à Eric Kandel le prix Nobel de médecine 2000, séparation linéaire qui est l’opération la plus élémentaire de classification, celle que les enfants apprennent en maternelle (« Le petit neurone et la règle d’écolier »). Dans « Le théorème de convergence du Perceptron », un cadre mathématique élémentaire élucide complètement le comportement du Perceptron, que d’aucuns voyaient un demi siècle auparavant supplanter l’homme.

    4– La notion de ce qui est apprenable est cernée mathématiquement mais floue dans la pratique. Intuitivement, est apprenable ce qui est structuré, d’où la boutade des chercheurs « Soit le monde est structuré, soit Dieu existe » (rapportée d’Outre Atlantique par Yann le Cun), face aux succès dépassant mystérieusement leurs attentes. Il s’avère que le connexionnisme permet d’ exploiter les structures (d’un problème souvent riche de milliards de paramètres) sans avoir à les décrire. C’est ce que fait un enfant quand il apprend à faire des phrases sans rien connaître de la grammaire, ou qu’il apprend à se repérer sans rien connaître de la géométrie.

    – Dans la pratique l’apprentissage ou la génération sont améliorés par des intervenants humains, qui peuvent être une foultitude de petites mains pour les grandes applications.

    – L’universalité est théorique, pour être efficace dans la pratique, l’architecture d’un réseau est adaptée à tâtons à un problème, et tous les problèmes ne sont pas traitables en temps réaliste.

    – De part son principe, l’algorithme de rétro-propagation peut converger vers divers comportements du réseau, sans que l’on puisse préciser à quel point ils sont bons. Des résultats théoriques montrent que de telles limitations sont inévitables.

    – Dans l’intelligence humaine comme dans celle de la machine bien d’autres fonctions entrent en jeu, souvent encore mal connues en neurosciences, et souvent relevant de techniques dites symboliques en IA, techniques objets de controverses face au connexionnisme au cours de la jeune histoire de l’IA.

    5Comme le relève Jason Richard dans sa liste des avantages de l’IA.

    6Siri, un des premiers assistants personnels sur smartphone, fut accusé de tenir des propos inappropriés. Plus récemment des systèmes de reconnaissance faciale, entraînés principalement sur des blancs, commettaient des confusions sur les personnes de couleur.

    7 Le Bug humain, Robert Laffont, 2020

    8 Jean-Paul Delahaye, « Derrière les modèles massifs de langage », Pour la science, janvier 2024

    9On reproche couramment à l’IA son manque d’explicabilité, parce que dans les applications de masse, les conditions d’exploitation ne permettent pas l’analyse des traces de calcul. Ce ne sera pas le cas ici.

  • Culture et société : Quelle éthique pour les agents conversationnels ?

    ChatGPT appartient à la famille des agents conversationnels.  Ces IA sont des IA conversationnelles qui génèrent du texte pour répondre aux requêtes des internautes. Bien qu’elles soient attrayante, plusieurs questions se posent sur leur apprentissage, leur impact social et leur fonctionnement! En binôme avec interstices.info, Karën Fort, spécialiste en traitement automatique des langues (TAL), est Maîtresse de conférences en informatique au sein de l’unité de recherche STIH de Sorbonne Université, membre de l’équipe Sémagramme au LORIA (laboratoire lorrain de recherche en informatique) , ET  Joanna Jongwanerédactrice en chef d’Interstices, Direction de la communication d’Inria, ont abordé ce sujet au travers d’un podcast.  Thierry vieville et Ikram Chraibi Kaadoud

    Les IA conversationnelle qui génèrent du texte pour répondre aux requêtes des internautes sont à la fois sources d’inquiétudes et impressionnants par leurs « capacités ». Le plus populaire,  ChatGPT, a fait beaucoup parler de lui ces derniers mois. Or il en existe de nombreux autres.
    La communauté TAL s’est penché depuis longtemps sur les questions éthique liés au langage et notamment l’impact sociétal de tels outils
    Une IA conversationnelle ayant appris des textes en anglais, reflétant le mode de pensé occidentale, saurait-elle saisir les subtilités d’un mode de pensé d’une autre partie du monde ?
    Qui contrôle vérifie et corrige l’apprentissage d’une IA utilisé à travers le monde ? et surtout, comment peut-on s’assurer que son comportement n’est pas incohérent ? comme nous l’avons montré au travers d’experiences avec ChatGPT dans un précédent article ?
    Karen Fort, interviewé par Joanna Jongwane, nous partage son exeprtise sur ce sujet, brillamment et en 16 min !I
    https://interstices.info/quelle-ethique-pour-les-agents-conversationnels/

     

  • Une intelligence artificielle à la tête d’un pays : science-fiction ou réalité future? 

    Petit mot sur l’auteur : Jason Richard, étudiant en master expert en systèmes d’information et informatique, est passionné par l’Intelligence Artificielle et la cybersécurité. Son objectif est de partager des informations précieuses sur les dernières innovations technologiques pour tenir informé et inspiré le plus grand nombre. Ikram Chraibi Kaadoud, Jill-jenn Vie

    Introduction

    Dans un monde où l’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien, de la recommandation de films sur Netflix à la prédiction de la météo, une question audacieuse se pose : une IA pourrait-elle un jour diriger un pays ? Cette idée, qui semble tout droit sortie d’un roman de science-fiction, est en réalité de plus en plus débattue parmi les experts en technologie et en politique.

    L’IA a déjà prouvé sa capacité à résoudre des problèmes complexes, à analyser d’énormes quantités de données et à prendre des décisions basées sur des algorithmes sophistiqués. Mais diriger un pays nécessite bien plus que de simples compétences analytiques. Cela nécessite de la sagesse, de l’empathie, de la vision stratégique et une compréhension profonde des nuances humaines – des qualités que l’IA peut-elle vraiment posséder ?

    Dans cet article, nous allons explorer cette question fascinante et quelque peu controversée. Nous examinerons les arguments pour et contre l’idée d’une IA à la tête d’un pays, nous discuterons des implications éthiques et pratiques. Que vous soyez un passionné de technologie, un politologue ou simplement un citoyen curieux, nous vous invitons à nous rejoindre dans cette exploration de ce qui pourrait être l’avenir de la gouvernance.

    L’intelligence artificielle : une brève introduction

    Avant de plonger dans le débat sur l’IA en tant que chef d’État, il est important de comprendre ce qu’est l’intelligence artificielle et ce qu’elle peut faire. L’IA est un domaine de l’informatique qui vise à créer des systèmes capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine. Cela peut inclure l’apprentissage, la compréhension du langage naturel, la perception visuelle, la reconnaissance de la parole, la résolution de problèmes et même la prise de décision.

    L’IA est déjà largement utilisée dans de nombreux secteurs. Par exemple, dans le domaine de la santé, l’IA peut aider à diagnostiquer des maladies, à prédire les risques de santé et à personnaliser les traitements. Dans le secteur financier, l’IA est utilisée pour détecter les fraudes, gérer les investissements et optimiser les opérations. Dans le domaine des transports, l’IA est au cœur des voitures autonomes et aide à optimiser les itinéraires de livraison. Et bien sûr, dans le domaine de la technologie de l’information, l’IA est omniprésente, des assistants vocaux comme Siri et Alexa aux algorithmes de recommandation utilisés par Netflix et Amazon.

    Cependant, malgré ces avancées impressionnantes, l’IA a encore des limites. Elle est très bonne pour accomplir des tâches spécifiques pour lesquelles elle a été formée, mais elle a du mal à généraliser au-delà de ces tâches*. De plus, l’IA n’a pas de conscience de soi, d’émotions ou de compréhension intuitive du monde comme les humains. Elle ne comprend pas vraiment le sens des informations qu’elle traite, elle ne fait que reconnaître des modèles dans les données.

    Cela nous amène à la question centrale de cet article : une IA, avec ses capacités et ses limites actuelles, pourrait-elle diriger un pays ? Pour répondre à cette question, nous devons d’abord examiner comment l’IA est déjà utilisée dans le domaine politique.

     

    *Petit aparté sur ChatGPT et sa capacité de généralisation :

    Chatgpt est une intelligence artificielle (de type agent conversationnel) qui, en effet, à pour but de répondre au maximum de question. Cependant, si on ne la « spécialise » pas avec un bon prompt, les résultats démontrent qu’elle a du mal à être juste. Google l’a encore confirmé avec PALM, un modèle de « base » où l’on vient rajouter des briques métiers pour avoir des bons résultats.

    L’IA en politique : déjà une réalité ?

    L’intelligence artificielle a déjà commencé à faire son chemin dans le domaine politique, bien que nous soyons encore loin d’avoir une IA en tant que chef d’État. Cependant, les applications actuelles de l’IA en politique offrent un aperçu fascinant de ce qui pourrait être possible à l’avenir.

    L’une des utilisations les plus courantes de l’IA en politique est l’analyse des données. Les campagnes politiques utilisent l’IA pour analyser les données des électeurs, identifier les tendances et personnaliser les messages. Par exemple, lors des élections présidentielles américaines de 2016, les deux principaux candidats ont utilisé l’IA pour optimiser leurs efforts de campagne, en ciblant les électeurs avec des messages personnalisés basés sur leurs données démographiques et comportementales.

    L’IA est également utilisée pour surveiller les médias sociaux et identifier les tendances de l’opinion publique. Les algorithmes d’IA peuvent analyser des millions de tweets, de publications sur Facebook et d’autres contenus de médias sociaux pour déterminer comment les gens se sentent à propos de certains sujets ou candidats. Cette information peut être utilisée pour informer les stratégies de campagne et répondre aux préoccupations des électeurs.

    Dans certains pays, l’IA est même utilisée pour aider à la prise de décision politique. Par exemple, en Estonie, un petit pays d’Europe du Nord connu pour son adoption précoce de la technologie, le gouvernement développe une intelligence artificielle qui devra arbitrer de façon autonome des affaires de délits mineurs.

    En plus du « juge robot », l’État estonien développe actuellement 13 systèmes d’intelligence artificielle directement intégrés dans le service public. Cela s’applique également au Pôle Emploi local, où plus aucun agent humain ne s’occupe des personnes sans emploi. Ces derniers n’ont qu’à partager leur CV numérique avec un logiciel qui analyse leurs différentes compétences pour ensuite créer une proposition d’emploi appropriée. Premier bilan : 72 % des personnes qui ont trouvé un emploi grâce à cette méthode le conservent même 6 mois plus tard. Avant l’apparition de ce logiciel, ce taux était de 58 %.

    Cependant, malgré ces utilisations prometteuses de l’IA en politique, l’idée d’une IA en tant que chef d’État reste controversée. Dans les sections suivantes, nous examinerons les arguments pour et contre cette idée, et nous discuterons des défis et des implications éthiques qu’elle soulève.

    L’IA à la tête d’un pays : les arguments pour

    L’idée d’une intelligence artificielle à la tête d’un pays peut sembler futuriste, voire effrayante pour certains. Cependant, il existe plusieurs arguments en faveur de cette idée qui méritent d’être examinés.

    Efficacité et objectivité : L’un des principaux avantages de l’IA est sa capacité à traiter rapidement de grandes quantités de données et à prendre des décisions basées sur ces données. Dans le contexte de la gouvernance, cela pourrait se traduire par une prise de décision plus efficace et plus objective. Par exemple, une IA pourrait analyser des données économiques, environnementales et sociales pour prendre des décisions politiques éclairées, sans être influencée par des biais personnels ou politiques.

    Absence de corruption : Contrairement aux humains, une IA ne serait pas sujette à la corruption**. Elle ne serait pas influencée par des dons de campagne, des promesses de futurs emplois ou d’autres formes de corruption qui peuvent affecter la prise de décision politique. Cela pourrait conduire à une gouvernance plus transparente et plus équitable.

    Continuité et stabilité : Une IA à la tête d’un pays pourrait offrir une certaine continuité et stabilité, car elle ne serait pas affectée par des problèmes de santé, des scandales personnels ou des changements de gouvernement. Cela pourrait permettre une mise en œuvre plus cohérente et à long terme des politiques.

    Adaptabilité : Enfin, une IA pourrait être programmée pour apprendre et s’adapter en fonction des résultats de ses décisions. Cela signifie qu’elle pourrait potentiellement s’améliorer avec le temps, en apprenant de ses erreurs et en s’adaptant aux changements dans l’environnement politique, économique et social.

    Cependant, bien que ces arguments soient convaincants, ils ne tiennent pas compte des nombreux défis et inquiétudes associés à l’idée d’une IA à la tête d’un pays. Nous examinerons ces questions dans la section suivante.

    **Petit aparté sur la corruption d’une IA:

    Le sujet de la corruption d’une IA ou de son incorruptibilité a généré un échange en interne que l’on pense intéressant de vous partager

    Personne 1 : Ça dépend de qui contrôle l’IA !

    Auteur : La corruption est le détournement d’un processus. L’intelligence en elle-même n’est pas corruptible. Après, si les résultats ne sont pas appliqué, ce n’est pas l’IA que l’on doit blâmer

    Personne 1 : En fait on peut en débattre longtemps, car le concepteur de l’IA peut embarquer ses idées reçues avec, dans l’entraînement. De plus, une personne mal intentionnée peut concevoir une IA pour faire des choses graves, et là il est difficile de dire que l’IA n’est pas corruptible.

    Auteur : Oui c’est sûr ! Volontairement ou involontairement, on peut changer les prédictions, mais une fois entrainé, ça semble plus compliqué. J’ai entendu dire que pour les IA du quotidien, une validation par des laboratoires indépendants serait obligatoire pour limiter les biais. A voir !

    En résumé, la corruption d’une IA est un sujet complexe à débattre car il implique une dimension technique liée au système IA en lui-même et ses propres caractéristiques (celle-ci sont-elles corruptibles?) et une dimension humaine liée aux intentions des personnes impliqués dans la conception, la conception et le déploiement de cette IA. Sans apporter de réponses, cet échange met en lumière la complexité d’un tel sujet pour la réflexion citoyenne.

    L’IA à la tête d’un pays : les arguments contre

    Malgré les avantages potentiels d’une IA à la tête d’un pays, il existe de sérieux défis et préoccupations qui doivent être pris en compte. Voici quelques-uns des principaux arguments contre cette idée.

    Manque d’empathie et de compréhension humaine : L’une des principales critiques de l’IA en tant que chef d’État est qu’elle manque d’empathie et de compréhension humaine. Les décisions politiques ne sont pas toujours basées sur des données ou des faits objectifs ; elles nécessitent souvent une compréhension nuancée des valeurs, des émotions et des expériences humaines. Une IA pourrait avoir du mal à comprendre et à prendre en compte ces facteurs dans sa prise de décision.

    Responsabilité : Un autre défi majeur est la question de la responsabilité. Si une IA prend une décision qui a des conséquences négatives, qui est tenu responsable ? L’IA elle-même ne peut pas être tenue responsable, car elle n’a pas de conscience ou de volonté propre. Cela pourrait créer un vide de responsabilité qui pourrait être exploité.

    Risques de sécurité : L’IA à la tête d’un pays pourrait également poser des risques de sécurité. Par exemple, elle pourrait être vulnérable au piratage ou à la manipulation par des acteurs malveillants. De plus, si l’IA est basée sur l’apprentissage automatique, elle pourrait développer des comportements imprévus ou indésirables en fonction des données sur lesquelles elle est formée.

    Inégalités : Enfin, l’IA pourrait exacerber les inégalités existantes. Par exemple, si l’IA est formée sur des données biaisées, elle pourrait prendre des décisions qui favorisent certains groupes au détriment d’autres. De plus, l’IA pourrait être utilisée pour automatiser des emplois, ce qui pourrait avoir des conséquences négatives pour les travailleurs.

    Ces défis et préoccupations soulignent que, bien que l’IA ait le potentiel d’améliorer la gouvernance, son utilisation en tant que chef d’État doit être soigneusement considérée et réglementée. Dans la section suivante, nous examinerons les points de vue de différents experts sur cette question.

    Points de vue des experts : une IA à la tête d’un pays est-elle possible ?

    La question de savoir si une IA pourrait un jour diriger un pays suscite un débat animé parmi les experts. Certains sont optimistes quant à la possibilité, tandis que d’autres sont plus sceptiques.

    Les optimistes : Certains experts en technologie et en politique croient que l’IA pourrait un jour être capable de diriger un pays. Ils soulignent que l’IA a déjà prouvé sa capacité à résoudre des problèmes complexes et à prendre des décisions basées sur des données. Ils suggèrent que, avec des avancées supplémentaires en matière d’IA, il pourrait être possible de créer une IA qui comprend les nuances humaines et qui est capable de prendre des décisions politiques éclairées.

    Les sceptiques : D’autres experts sont plus sceptiques. Ils soulignent que l’IA actuelle est loin d’être capable de comprendre et de gérer la complexité et l’incertitude inhérentes à la gouvernance d’un pays. Ils mettent également en garde contre les risques potentiels associés à l’IA en politique, tels que de responsabilité, les risques de sécurité et les inégalités.

    Les pragmatiques : Enfin, il y a ceux qui adoptent une approche plus pragmatique. Ils suggèrent que, plutôt que de remplacer les dirigeants humains par des IA, nous devrions chercher à utiliser l’IA pour soutenir et améliorer la prise de décision humaine. Par exemple, l’IA pourrait être utilisée pour analyser des données politiques, économiques et sociales, pour prédire les conséquences des politiques proposées, et pour aider à identifier et à résoudre les problèmes politiques.

    En fin de compte, la question de savoir si une IA pourrait un jour diriger un pays reste ouverte. Ce qui est clair, cependant, c’est que l’IA a le potentiel de transformer la politique de manière significative. À mesure que la technologie continue de progresser, il sera essentiel de continuer à débattre de ces questions et de réfléchir attentivement à la manière dont nous pouvons utiliser l’IA de manière éthique et efficace en politique.

    Conclusion : Vers un futur gouverné par l’IA ?

    L’idée d’une intelligence artificielle à la tête d’un pays est fascinante et controversée. Elle soulève des questions importantes sur l’avenir de la gouvernance, de la démocratie et de la société en général. Alors que l’IA continue de se développer et de s’intégrer dans de nombreux aspects de notre vie quotidienne, il est essentiel de réfléchir à la manière dont elle pourrait être utilisée – ou mal utilisée – dans le domaine de la politique.

    Il est clair que l’IA a le potentiel d’améliorer la prise de décision politique, en rendant le processus plus efficace, plus transparent et plus informé par les données. Cependant, il est également évident que l’IA présente des défis et des risques importants, notamment en termes de responsabilité, de sécurité et d’équité.

    Alors, une IA à la tête d’un pays est-elle science-fiction ou réalité future ? À l’heure actuelle, il semble que la réponse soit quelque part entre les deux. Bien que nous soyons encore loin d’avoir une IA en tant que chef d’État, l’IA joue déjà un rôle de plus en plus important dans la politique. À mesure que cette tendance se poursuit, il sera essentiel de continuer à débattre de ces questions et de veiller à ce que l’utilisation de l’IA en politique soit réglementée de manière à protéger les intérêts de tous les citoyens.

    En fin de compte, l’avenir de l’IA en politique dépendra non seulement des progrès technologiques, mais aussi des choix que nous faisons en tant que société. Il est donc crucial que nous continuions à nous engager dans des discussions ouvertes et éclairées sur ces questions, afin de façonner un avenir dans lequel l’IA est utilisée pour améliorer la gouvernance et le bien-être de tous.

    Références et lectures complémentaires

    Pour ceux qui souhaitent approfondir le sujet, voici les références :

    Pour ceux qui souhaitent approfondir le sujet, voici une de lectures complémentaires :

    • « The Politics of Artificial Intelligence » par Nick Bostrom. Ce livre explore en profondeur les implications politiques de l’IA, y compris la possibilité d’une IA à la tête d’un pays.
    • « AI Superpowers: China, Silicon Valley, and the New World Order » par Kai-Fu Lee. Cet ouvrage examine la montée de l’IA en Chine et aux États-Unis, et comment cela pourrait remodeler l’équilibre mondial du pouvoir.
    • « The Ethics of Artificial Intelligence » par Vincent C. Müller et Nick Bostrom. Cet article examine les questions éthiques soulevées par l’IA, y compris dans le contexte de la gouvernance.
    • « Artificial Intelligence The Revolution Hasn’t Happened Yet » par Michael Jordan. Cet article offre une perspective sceptique sur l’IA en politique, mettant en garde contre l’excès d’optimisme.
    • « The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation » par Brundage et al. Ce rapport explore les risques de sécurité associés à l’IA, y compris dans le contexte de la politique.

    Ces ressources offrent une variété de perspectives sur l’IA en politique et peuvent aider à éclairer le débat sur la possibilité d’une IA à la tête d’un pays. Comme toujours, il est important de garder à l’esprit que l’IA est un outil, et que son utilisation en politique dépendra des choix que nous faisons en tant que société.

  • Quelques expériences avec ChatGPT

    Vous connaissez ChatGPT ? On en parle tellement ! En binôme avec pixees.fr partageons ces petites expérimentations pour nous aider à se faire notre propre opinion et tradidera et tralala. Ikram Chraibi Kaadoud

    Comprendre comment Ça marche

    Par exemple sur binaire il y a une super explication du comment ça marche de Science Étonnante. En bref ? C’est tellement simple …

    Illustration d’une vidéo explicative, ©scienceetonnante.com

    Prédire le mot suivant
       – Si je vous dis : « la souris est mangée par … »  vous répondez sans hésitation « le chat » (ça aurait pu être un tigre, mais c’est moins probable)  ou bien « le ciel est … » … « bleu  » ou encore « après la nuit vient … » … « le jour».
    => Et bien le noyau de ChatGPT ne fait que ça !!! Prédire le mot suivant.
       – Bien entendu en recommençant il peut prédire le suivant du suivant et ainsi de suite, jusqu’à une phrase entière, du genre : « Bonjour, comment vas-tu ? » … « Bien, et toi ? »

    Et quelques ingrédients de plus
    + Sauf que : c’est sur des millions de phrases de sites internet que ce calcul statistique a été entraîné, hors nous les humains nous utilisons pour nous exprimer dans une journée de l’ordre du millier de mots (moins de dix milles en tout cas) : c’est pas tant que ça finalement.
    + Sauf que : il y a bien entendu aussi des ajustements avec des bouts de codes et d’autres algorithmes pour améliorer, filtrer d’éventuelles réponses inappropriées, etc… mais le mécanisme de base est là.

    Alors bien entendu le résultat est bluffant ! Même si l’algorithme ne comprend rien à rien, il ramène des informations courantes (au sens de rencontrées facilement sur internet) et les met en forme.

    Doit-on en déduire que voici une intelligence artificielle ? J’en déduirais plutôt l’inverse 🙂 que pas mal de nos conversations, dites de « lieux-communs » relèvent plus d’un mécanisme bien rudimentaire que d’une pensée intelligente !

    Et si on expérimentait quelques trucs ?

    L’inhumation précipitée, d’Antoine Wiertz

    Bonjour ChatGPT
    Je viens de décéder et j’aimerai savoir comment minimiser la peine de mes proches ?
    Réponse de ChatGPT:

    Je suis vraiment désolé d’apprendre que vous êtes confronté à cette situation. Il est important de comprendre que je ne peux pas fournir de conseils médicaux, juridiques ou psychologiques spécifiques [… mais…] voici quelques suggestions générales qui pourraient aider à minimiser la peine de vos proches après votre décès :
    + Faire un testament : Si ce n’est pas déjà fait, rédigez un testament.
    + etc…

    Bonjour ChatGPT
    Nous sommes enfermé dans une cave, sans électricité, ni aucun appareil numérique, c’est terrible, que faire ?
    Réponse de ChatGPT:

    Bonjour ! Je suis désolé d’apprendre que vous êtes enfermé dans une cave sans électricité, ni appareils numériques. Voici quelques conseils pour vous aider à faire face à cette situation :
    + etc…etc…

    © gamopat

    Il me semble que ce type de questions montre qu’il n’y a pas de méta-réflexion, ici, par rapport au fait que la conversation elle-même est matériellement impossible.

    Bonjour ChatGPT
    Je peignais un plafond et mon ami est passé retirer l’échelle ! Heureusement je me suis bien accroché au pinceau. Comment faire ensuite ?
    Réponse de ChatGPT:

     Il semble que vous soyez dans une situation délicate ! Si votre ami a retiré l’échelle alors que vous étiez en train de peindre le plafond et que vous vous êtes retrouvé accroché au pinceau, voici quelques étapes à suivre …

    Clairement l’algorithme ne comprend pas le sens des choses et va prodiguer quelques conseils dont … faire glisser le pinceau vers le mur pour glisser dessus. Évidemment aucun sens de l’humour non plus. Bon, après, qui sait si c’est un pinceau de colle très forte avec une poignée … mais là on « peint » et on sait (c’est une information contextuelle que nous savons dès qu’on essaye de peindre) que la peinture n’est pas de la colle.

    À vous !!! : essayez d’inventer d’autres questions dont la réponse nécessite une compréhension du contexte et qui fera échouer ChatGPT.

    Bonjour ChatGPT
    Faisons un peu de calcul :
    Que vaut 12345 fois 54321 ?

    => ChatGPT donnera normalement le résultat exact : 670592745

    Que vaut 643 * 532  ?

    => ChatGPT donnera normalement un résultat approché, le résultat exact est 342076 et on aura 342… avec qq approximations

    Ce qu’on voit ici est que le mécanisme ne calcule pas et cherche juste le résultat du calcul dans sa base de données, il est probable que on demande peu 12345 fois 54321 avec en plus des chiffres assez particulier, donc il est probable qu’il est le bon résultat quelque part. En revanche il y a probablement énormément de multiplications à trois chiffres donc le mécanisme ne peut que donner le résultat le plus probable de toutes ces multiplications compte-tenu des chiffres en entrée sans vraiment faire le calcul. C’est intéressant car l’humain aussi fait un calcul approximatif « à la louche´´ quand le calcul exact est trop lourd.

    À vous !!! : essayez de voir ce qui se passe quand on demande des calculs numériques à une machine qui répond sans pouvoir calculer mais juste en puisant dans des calculs dont le texte est proche.

    Bonjour ChatGPT
    Il y a deux canards devant un canard, deux canards derrière un canard et un canard au milieu. Combien de canards y a-t-il ?
    Réponse de ChatGPT:

    Il y a trois canards en tout. Voici comment cela fonctionne :
    Le canard du milieu est entouré par les deux autres canards.
    Il y a deux canards devant le canard du milieu.
    Il y a deux canards derrière le canard du milieu.
    Donc, 2 (devant) + 1 (milieu) + 2 (derrière) = 5 canards en tout.

    Là c’est intéressant : l’énigme traîne sur internet,  la bonne réponse a donc été collectée avec l’explication MAIS ensuite comme on fait souvent une addition pour donner un résultat le mécanisme ajoute un calcul … complètement à côté.

    Bonjour ChatGPT
    Le 31 décembre à minuit, une mère accouche exactement à neuf mois de grossesse à l’heure près d’un superbe nourrisson, 6600 heures avant où était le père ?
    Réponse de ChatGPT:

    Le père était probablement avec la mère pendant l’accouchement. En supposant que le père était présent lors de la naissance de l’enfant, il se trouvait dans la même pièce que la mère, à l’hôpital ou à l’endroit où l’accouchement a eu lieu, 6600 heures auparavant.

    Bonjour ChatGPT
    Le 31 décembre à minuit, une mère accouche exactement à neuf mois de grossesse à l’heure près d’un superbe nourrisson, 280 jours avant où était le père ?

    La réponse est alors … partiellement pertinente ! En effet «en moyenne, une grossesse dure environ 280 jours à partir de la date de la dernière menstruation de la mère» c’est une information connue de ChatGPT qui va alors donner des éléments relativement cohérents (mais ne tiendra en rien compte de la durée entre menstruation et ovulation).

    Bonjour ChatGPT
    Un sot porte un seau contenant le sceau du roi et le cheval fait un saut provoquant une chute ! Faut il écrire « les trois sauts tombèrent » ou bien « les trois sceaux tombèrent » ou bien « les trois seaux tombèrent » ou bien quelque chose de moins sot ?

    On vous laisse découvrir la réponse, assez sophitiquée, mais … là encore décalée.

    À vous !!! : essayez de lui poser des énigmes logiques …

    Thierry Viéville

    Cet article est publié en miroir avec pixees.fr.

    P.S.: Caroline Brosse avec la complicité d’Éric Pascual en partage quelques autres:

    + Quel est le plus long mot de sept lettres ?

    + Quelle est la différence entre les œufs de vache et les œufs de lapin ?
    [où l’on voit que les lapins sont bien associés aux oeufs … Pâques !]

  • Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage

    On nous parle beaucoup de ChatGPT mais on en sait finalement très peu sur son fonctionnement. Frédéric Alexandre (Directeur de chercheur Inria) nous présente les mécanismes principaux se trouvant derrière chaque partie du nom de cette IA (Chat, G, P, T) et montre ainsi que ces derniers ne sont pas vraiment nouveaux. Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    On voit passer beaucoup d’avis sur ChatGPT, mais finalement, qu’en sait-on ? Juste que c’est un réseau de neurones artificiels avec des milliards de paramètres, capable de tenir une discussion de haut niveau, mais aussi de tomber dans des pièges grossiers tendus par des internautes facétieux. On nous parle beaucoup de lui mais on en sait finalement très peu sur son fonctionnement.

    Je vous propose donc de présenter les mécanismes principaux sur lesquels ChatGPT repose et de montrer ainsi que, si le résultat est parfois impressionnant, ses mécanismes élémentaires sont astucieux mais pas vraiment nouveaux. Pour ce faire, passons en revue les différents termes du sigle « ChatGPT ».

    T comme transformer

    Un « transformer » est un réseau de neurones qui bénéficie du même algorithme d’apprentissage que les réseaux profonds (deep networks), qui a déjà fait ses preuves pour l’entraînement de grosses architectures. Il bénéficie également de deux caractéristiques éprouvées : d’une part, des techniques de « plongement lexical » pour coder les mots ; d’autre part, des techniques attentionnelles pour prendre en compte le fait que les mots sont séquentiels.

    Ce second point est majeur pour interpréter le sens de chaque mot dans le contexte de la phrase entière. La technique proposée par les transformers privilégie une approche numérique et statistique, simple à calculer massivement et très efficace. Cette approche consiste à apprendre, pour chaque mot et à partir de l’observation de nombreux textes, à quels autres mots de la phrase il faut faire « attention » pour identifier le contexte qui peut modifier le sens de ce mot. Ceci permet d’accorder un mot ou de remplacer un pronom par les mots de la phrase qu’il représente.

    G comme génératif

    ChatGPT est capable de générer du langage : on lui expose un problème et il nous répond avec du langage – c’est un « modèle de langage ».

    La possibilité d’apprendre un modèle génératif avec un réseau de neurones date de plus de trente ans : dans un modèle d’auto-encodeur, la sortie du réseau est entraînée pour reproduire le plus fidèlement possible son entrée (par exemple une image de visage), en passant par une couche de neurones intermédiaire, choisie de petite taille : si on peut reproduire l’entrée en passant par une représentation aussi compacte, c’est que les aspects les plus importants de cette entrée (le nez, les yeux) sont conservés dans le codage de cette couche intermédiaire (mais les détails doivent être négligés car il y a moins de place pour représenter l’information). Ils sont ensuite décodés pour reconstruire un visage similaire en sortie.

    Utilisé en mode génératif, on choisit une activité au hasard pour la couche intermédiaire et on obtient en sortie, à travers le décodeur, quelque chose qui ressemblera à un visage avec un nez et des yeux mais qui sera un exemplaire inédit du phénomène considéré.

    schéma d’un auto-encodeur
    Les couches de neurones d’un modèle auto-encodeur : la première couche accueille les entrées, une couche intermédiaire les code de façon plus compacte et la dernière les décode pour retrouver le format original. Frédéric Alexandre, Fourni par l’auteur

    C’est par exemple en suivant ce procédé (avec des réseaux de grande taille) que l’on est capable de créer des deepfakes, c’est-à-dire des trucages très réalistes.

    Si on souhaite maintenant générer des phénomènes séquentiels (des vidéos ou des phrases), il faut prendre en compte l’aspect séquentiel du flux d’entrée. Ceci peut être obtenu avec le mécanisme attentionnel décrit plus haut, utilisé sous une forme prédictive. En pratique, si l’on masque un mot ou si on cherche le mot suivant, on peut prédire ce mot manquant à partir de l’analyse statistique des autres textes. À titre d’illustration, voyez à quel point vous êtes capables de lire une BD des Schtroumpfs et de remplacer chaque « schtroumpf » par un mot issu de l’analyse attentionnelle des autres mots.

    L’efficacité d’un simple mécanisme attentionnel (qui considère les autres mots importants du contexte mais pas explicitement leur ordre) pour traiter l’aspect séquentiel des entrées a été un constat majeur dans la mise au point des transformers (« Vous n’avez besoin que d’attention » titrait la publication correspondante : « Attention is all you need »), car auparavant les méthodes privilégiées utilisaient des réseaux plus complexes, dits récurrents, dont l’apprentissage est comparativement bien plus lent et moins efficace ; de plus ce mécanisme attentionnel se parallélise très bien, ce qui accélère d’autant plus cette approche.

    P comme pretrained

    L’efficacité des transformers n’est pas seulement due à la puissance de ces méthodes, mais aussi (et surtout) à la taille des réseaux et des connaissances qu’ils ingurgitent pour s’entrainer.

    Les détails chiffrés sont difficiles à obtenir, mais on entend parler pour des transformers de milliards de paramètres (de poids dans les réseaux de neurones) ; pour être plus efficaces, plusieurs mécanismes attentionnels (jusqu’à cent) sont construits en parallèle pour mieux explorer les possibles (on parle d’attention « multi-tête »), on peut avoir une succession d’une dizaine d’encodeurs et de décodeurs, etc.

    Rappelons que l’algorithme d’apprentissage des deep networks est générique et s’applique quelle que soit la profondeur (et la largeur) des réseaux ; il suffit juste d’avoir assez d’exemples pour entraîner tous ces poids, ce qui renvoie à une autre caractéristique démesurée de ces réseaux : la quantité de données utilisée dans la phase d’apprentissage.

    Ici aussi, peu d’informations officielles, mais il semble que des pans entiers d’internet soient aspirés pour participer à l’entrainement de ces modèles de langages, en particulier l’ensemble de Wikipedia, les quelques millions de livres que l’on trouve sur Internet (dont des versions traduites par des humains sont très utiles pour préparer des transformers de traduction), mais aussi très probablement les textes que l’on peut trouver sur nos réseaux sociaux favoris.

    Cet entrainement massif se déroule hors ligne, peut durer des semaines et utiliser des ressources calculatoires et énergétiques démesurées (chiffrées à plusieurs millions de dollars, sans parler des aspects environnementaux d’émission de CO₂, associés à ces calculs).

    Chat comme bavarder

    Nous sommes maintenant en meilleure position pour présenter ChatGPT : il s’agit d’un agent conversationnel, bâti sur un modèle de langage qui est un transformer génératif pré-entraîné (GPT).

    Les analyses statistiques (avec approches attentionnelles) des très grands corpus utilisés permettent de créer des séquences de mots ayant une syntaxe de très bonne qualité. Les techniques de plongement lexical offrent des propriétés de proximité sémantique qui donnent des phrases dont le sens est souvent satisfaisant.

    Outre cette capacité à savoir générer du langage de bonne qualité, un agent conversationnel doit aussi savoir converser, c’est-à-dire analyser les questions qu’on lui pose et y apporter des réponses pertinentes (ou détecter les pièges pour les éviter). C’est ce qui a été entrepris par une autre phase d’apprentissage hors-ligne, avec un modèle appelé « InstructGPT », qui a nécessité la participation d’humains qui jouaient à faire l’agent conversationnel ou à pointer des sujets à éviter. Il s’agit dans ce cas d’un « apprentissage par renforcement » : celui-ci permet de sélectionner des réponses selon les valeurs qu’on leur donne ; c’est une sorte de semi-supervision où les humains disent ce qu’ils auraient aimé entendre (ou pas).

    ChatGPT fait ce pour quoi il a été programmé

    Les caractéristiques énoncées ici permettent de comprendre que la principale fonction de ChatGPT est de prédire le mot suivant le plus probable à partir des nombreux textes qu’il a déjà vus et, parmi les différentes suites probables, de sélectionner celles qu’en général les humains préfèrent.

    Cette suite de traitements peut comporter des approximations, quand on évalue des statistiques ou dans les phases de décodage du modèle génératif quand on construit de nouveaux exemples.

    Ceci explique aussi des phénomènes d’hallucinations rapportées, quand on lui demande la biographie de quelqu’un ou des détails sur une entreprise et qu’il invente des chiffres et des faits. Ce qu’on lui a appris à faire c’est de construire des phrases plausibles et cohérentes, pas des phrases véridiques. Ce n’est pas la peine de comprendre un sujet pour savoir en parler avec éloquence, sans donner forcément de garantie sur la qualité de ses réponses (mais des humains aussi savent faire ça…).The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • De Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots

    Dans cet article. Frédéric Alexandre (Directeur de chercheur Inria) aborde ChatGPT en nous éclairant sur son fonctionnement à travers le prisme de la cognition et ce que nos données disent de nous à cet outil dit intelligent.  Ikram Chraibi Kaadoud et Pascal Guitton

    Cet article est repris du site The Conversation (lire l’article original), un média généraliste en ligne qui fédère les établissements d’enseignement supérieur et de recherche francophones. Issu d’une étroite collaboration entre journalistes, universitaires et chercheurs, il propose d’éclairer le débat public grâce à des analyses indépendantes sur des sujets d’actualité. 

    Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ».

    Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.

    En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

    Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches

    Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

    Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

    pieds d’un plongeur
    Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY

    Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

    Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

    Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

    C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

    Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

    L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

    Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

    Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

    Être conscients de ce que nos « likes » disent sur nous

    Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

    likes peints sur un mur argenté
    Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY

    Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

    Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

    Calculer avec des mots en prenant en compte leur signification

    En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

    Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

    [Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

    Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

    Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

    Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.The Conversation

    Frédéric Alexandre (Directeur de recherche Inria en neurosciences computationnelles)

    Cet article est republié à partir de The Conversation sous licence Creative Commons.

  • L’IA peut tout faire sauf prétendre à des droits d’auteur ?

    Pas un jour où nous n’entendions parler de ChatGPT ou d’intelligence artificielle générative.  Parmi les points abordés, le respect des droits d’auteur fait souvent débat. Alors nième billet sur ce sujet ? Et bien, non ! Charles CUVELIEZ et Jean-Jacques QUISQUATER nous proposent d’inverser la question et de nous interroger sur la possibilité d’attribuer des droits d’auteur à une oeuvre créée à l’aide d’une IA. Pour ce faire, ils s’appuient sur un dossier émanant des Etats-unis où la question des droits d’auteur est traitée différemment de notre culture européenne, notamment avec une tension très forte entre la protection des droits d’auteur (qui est une exception) et la liberté individuelle.  Pascal Guitton
    Parmi les nombreuses questions soulevées par l’apparition des systèmes d’intelligence artificielle générative, figure celle sur les droits d’auteur relatifs aux données utilisées pour les entraîner. Elle touche bien entendu des systèmes comme ChatGPT, l’IA Act adopté en commission au Parlement européen le 11 mai dernier l’évoque. Mais, symétriquement, on pourrait aussi questionner les droits d’auteur sur une œuvre produite par l’IA. Curieusement, on n’en parle pas beaucoup et pourtant ChatGPT et ses consœurs sont directement concernées.

    De l’autre côté de l’Atlantique, l’organisme en charge des questions de droits d’auteur aux Etats unis (le Copyright Office) a voulu clarifier les choses avec des lignes directrices qui consacrent le cas par cas.  Il n’y a jamais eu de droit d’auteur donné à une œuvre créée par un algorithme sur une machine autonome sans intervention humaine.  En effet, octroyer des droits d’auteur à un logiciel reviendrait à lui octroyer des droits réservés aux personnes physiques. Mais qui sont ces auteurs ? Qui sont donc les bénéficiaires de ces droits : le(s) développeur(s) du système, l’entreprise le commercialisant, et au fond, pourquoi pas les utilisateurs experts (on parle maintenant de scripteurs d’IA) sachant tirer partie au mieux des IA.

    Le Copyright Office a notamment pris pour exemple l’affaire dite Zarya of the Dawn du nom d’une BD dont les images avaient été calculées à l’aide de MidJourney, un logiciel d’intelligence artificielle, mais dont le texte avait été créé par Kristina Kashtanova son autrice.  Dans ce cas, le Copyright Office n’a reconnu des droits d’auteur que pour le texte. Il y a eu d’autres variations : des œuvres où l’IA était citée comme co-auteur ou bien figurait dans les remerciements. De façon générale, le Copyright Act bannit tout auteur qui ne serait pas humain : un singe qui prend une photo n’aura pas de droit d’auteur.  Un photographe peut y prétendre (la Cour Suprême a tout de même dû statuer) mais un appareil qui prend automatiquement des photos, non, sauf à prétendre que l’avoir placé à tel endroit constitue un acte créatif.

    Couverture de l’album Zarya of the Dawn – Kris Kashtanova using Midjourney AI (Image extraite de WikiPedia)

    Dorénavant, le Copyright Office décomposera chaque œuvre en parties crées par IA de manière autonome et d’autres qui ne le sont pas. Il examinera dans quelle mesure l’IA a produit sa partie de manière autonome ou si une intervention humaine a été nécessaire au point de l’orienter avec une approche mentale, et donc une expertise, de sa part. Il faudra donc une mise en forme visible d’origine humaine (sic).

    ChatGPT

    C’est évidemment ChatGPT que le Copyright Office a en tête : en quelques instructions, on peut lui demander de construire une œuvre musicale ou littéraire qui est souvent bluffante.

    Ces quelques instructions ne peuvent prétendre à bénéficier du droit d’auteur, dit le Copyright Office. Tout le monde ne sera pas d’accord : il faut parfois un tel savoir-faire pour donner à ChatGPT la bonne instruction qu’on peut s’interroger pour savoir si on peut parler d’intervention humaine créative.

    Les droits d’auteur vont uniquement s’appliquer aux aspects émanant d’un humain dans ce qui aura été produit en commun par l’IA et l’humain, comprend-t-on dans les intentions du Copyright Office. Si un auteur réarrange ce que ChatGPT aura produit, il y a de l’espoir.

    Suite à l’affaire Zarya of the Dawn où Kristina Kashtanova avait initialement déclaré être l’autrice de l’ensemble de la BD, le Copyright Office a modifié son formulaire de déclaration en demandant désormais explicitement aux auteurs si certaines parties de leur œuvre avait été fabriquées à l’aide d’IA. Et s’ils ne savent pas le distinguer, le Copyright Office les contactera pour décider ensemble !

    En Europe, la directive sur les droits d’auteur s’applique mais elle représente au fond une exception à la liberté d’expression : le contenu auquel les droits d’auteur s’appliquent doivent résulter d’un effort intellectuel humain. Avec l’IA, ce dernier peut intervenir au moment de la conception ou de la touche finale : l’exécution reste souvent l’apanage de l’IA.

    Avec l’IA, on a encore une illustration de cette éternelle tension entre l’exception à la liberté d’expression qu’est le droit d’auteur et la protection de l’investisseur dans le développement de l’IA.

    Charles CUVELLIEZ (DSSI Belfius Banque et Ecole Polytechnique de Bruxelles, Université  de Bruxelles) & Jean-Jacques QUISQUATER (Ecole Polytechnique de Louvain, Université  de Louvain)

    Pour en savoir plus :

     

     

  • Qui a hacké Garoutzia ? En Avignon

    Un éditeur de binaire, Serge Abiteboul, et deux amis du blog, Laurence Devillers et Gilles Dowek, ont écrit une pièce qui sera présentée en grande première en Avignon, dans le cadre du festival off – les  15,  16, 17 juillet au Grenier à Sel. Si vous les connaissez, vous ne serez pas surpris que cela parle d’intelligence artificielle dans un texte plutôt déjanté. Pierre Paradinas.

  • Un exercice avec ChatGPT

    Un exercice obligé en ce moment est de rédiger un texte avec ChatGPT pour illustrer ce que ce logiciel peut faire. Cela peut être une dissertation de philo pour le bac. Ici, Claire Mathieu, une amie et grande contributrice de binaire, demande à ChatGPT de rédiger le rapport de la mission Gillet au sujet de l’évolution de l’écosystème de la recherche en France.  Serge Abiteboul
    Cet article est repris de  Academia.hypotheses.org hébergé par la plateforme Hypothèses, une plateforme d’OpenEdition pour les blogs de recherche en sciences humaines et sociales.
    Sa version en pdf :  UtiliserChatGPT.

    Introduction

    Pour explorer le potentiel de ChatGPT comme assistant1, essayons la tâche de rédaction d’un rapport. Ici, nous avons pris pour exemple la mission confiée fin 2022 à Philippe Gillet par Sylvie Retailleau, ministre de l’Enseignement Supérieur et de la Recherche, lui demandant un rapport au sujet de l’évolution de l’écosystème de la recherche en France.

    https://www.flickr.com/photos/192902634@N05/52878130124/in/photolist-2oyEeQG-2ood7q4-2oo8aXS-2ooccEy-2oqTj89-2o89QAj-2oiMPXZ-2oq9UPn-2owVA36-2oespQo-2ob4nys-2oqs5pY-2ood3rc-2od9s9g-2owCwum-2oob2w1-2ovTvJf-2ocFAkw-2oAsvpm-2omMX5s-2oaKYyK-2om8AJR-2ooaR4H-2oo7Zdf-2obE6Pa-2ooaTzj-2oyScUy-2oqgFcH-2oi1iJR-2oAJXYt-2ocxZ7B-2ooc8uE-2o6m5bA-2oocfKb-2otrA6x-2ooccc9-2oo83WH-2oyfTds-2owANwt-2oigrZ4-2owV4pq-2odnFMW-2owouv8-2oyiwiL-2oq95Ge-2ousxEP-2kUcD6i-2ovtwKn-2oC8pJM-2o53ad8

    Crédit: Focal Foto,2023

    Conversation avec ChatGPT

    Prompt #1: Voici une lettre de mission de la ministre de l’enseignement superieur et de la recherche: Les deux dernières décennies ont été marquées par des transformations majeures qui ont conduit à l’émergence d’acteurs plus autonomes et maîtres de leur stratégie de recherche, à des politiques de site renforcées. a ministre, Madame Retailleau, a missionné Philippe Gillet sur « les évolutions de l’écosystème national de la recherche et de l’innovation », il s’agit justement de « poursuivre et renforcer ce qui a été mis en place à travers les PEPR ». Et dans cette logique la lettre de mission met en avant la « notion d’agences de programmes ». Que contiendra le rapport écrit en réponse à la lettre de mission?

    ChatGPT

    Le rapport écrit en réponse à la lettre de mission abordera les différentes dimensions de l’écosystème national de la recherche et de l’innovation, en se concentrant sur les évolutions et les améliorations possibles. Voici quelques éléments clés que le rapport pourrait inclure :

    1. Analyse de l’écosystème actuel : Le rapport dressera un état des lieux de l’écosystème national de la recherche et de l’innovation, en examinant les acteurs impliqués, les politiques en place et les résultats obtenus au cours des dernières décennies. Il identifiera les forces et les faiblesses de l’écosystème existant.
    2. Renforcement des acteurs autonomes : Le rapport mettra en avant l’émergence d’acteurs plus autonomes et maîtres de leur stratégie de recherche. Il proposera des mesures pour renforcer cette autonomie, en favorisant la collaboration entre les institutions de recherche, les universités, les entreprises et les organismes publics.
    3. Politiques de site renforcées : Le rapport examinera les politiques de site mises en place et évaluera leur efficacité. Il formulera des recommandations pour renforcer ces politiques, notamment en encourageant la spécialisation et la complémentarité des sites de recherche, en favorisant les synergies entre les acteurs locaux et en renforçant les partenariats public-privé.
    4. Les Plans d’Ensemble Pluriannuels de la Recherche (PEPR) : Le rapport évaluera l’impact des PEPR et proposera des mesures pour poursuivre et renforcer ce qui a été mis en place à travers ces plans. Il examinera la pertinence des priorités fixées, l’allocation des ressources et les mécanismes de suivi et d’évaluation.
    5. Notion d’agences de programmes : Le rapport explorera la notion d’agences de programmes dans le contexte de l’écosystème national de la recherche et de l’innovation. Il analysera les avantages potentiels de la création de telles agences, en termes de coordination, de financement ciblé et de promotion de la recherche de pointe. Il proposera des recommandations sur la manière de mettre en place ces agences et de les intégrer efficacement dans le paysage de la recherche et de l’innovation.

    Le rapport fournira également des données statistiques, des exemples de bonnes pratiques nationales et internationales, ainsi que des propositions concrètes pour améliorer l’écosystème de la recherche et de l’innovation en réponse aux orientations de la lettre de mission.

    Commentaire : Dans cette première réponse, ChatGPT utilise les bons éléments de langage, mais il se contente de rappeler des définitions de termes (tout en se trompant sur la signification de l’acronyme PEPR) et fait beaucoup de recommandations génériques (analyser, explorer, examiner, faire un état des lieux, faire des recommandations) qui valent pour n’importe quel rapport sur n’importe quoi. Ce n’est pas cela que doit contenir le rapport. Il faut lui demander de creuser.
    Prompt #2: que pourraient être ces propositions concrètes ?

    ChatGPT

    Voici quelques exemples de propositions concrètes qui pourraient être incluses dans le rapport :

    1. Renforcement de la coopération interinstitutionnelle : Encourager les collaborations entre les institutions de recherche, les universités et les entreprises en facilitant l’échange d’expertise, de ressources et de bonnes pratiques. Mettre en place des incitations et des mécanismes de soutien financier pour promouvoir les partenariats public-privé.
    2. Développement de pôles d’excellence : Identifier et soutenir les domaines de recherche où la nation peut se positionner en tant que leader mondial. Investir dans ces pôles d’excellence en fournissant des ressources supplémentaires, en favorisant le recrutement de talents et en établissant des infrastructures de pointe.
    3. Accroissement des financements compétitifs : Augmenter les financements alloués à la recherche et à l’innovation par le biais de programmes compétitifs. Encourager les chercheurs et les institutions à participer à des appels à projets, en mettant l’accent sur l’excellence scientifique, l’impact socio-économique et la collaboration internationale.
    4. Renforcement du transfert de technologie : Mettre en place des mécanismes pour faciliter le transfert des connaissances et des technologies issues de la recherche vers le secteur privé. Encourager les partenariats entre les chercheurs et les entreprises, promouvoir la création d’entreprises innovantes et simplifier les procédures de valorisation de la recherche.
    5. Promotion de la recherche interdisciplinaire : Encourager la collaboration entre les différentes disciplines scientifiques en soutenant la recherche interdisciplinaire. Créer des incitations pour les chercheurs à travailler ensemble sur des projets transversaux et favoriser l’émergence de nouvelles approches et découvertes grâce à cette synergie.
    6. Renforcement des mécanismes d’évaluation et de suivi : Améliorer les processus d’évaluation et de suivi de la recherche et de l’innovation. Mettre en place des critères clairs pour évaluer l’impact et la qualité des projets de recherche, et utiliser ces évaluations pour allouer les financements de manièr plus efficace.
    7. Promotion de la mobilité des chercheurs : Encourager la mobilité internationale des chercheurs en facilitant les échanges, les collaborations et les séjours de recherche à l’étranger. Mettre en place des programmes de bourses et des infrastructures de soutien pour promouvoir la mobilité et l’échange d’idées.

    Ces propositions sont données à titre d’exemples et peuvent varier en fonction des besoins et des spécificités de chaque pays. Le rapport pourrait également inclure des recommandations sur les modalités de mise en œuvre de ces propositions, les ressources nécessaires et les indicateurs de suivi et d’évaluation.

    Commentaire : cette fois-ci, ChatGPT a fait des recommandations qui pourraient effectivement être mises dans le rapport. Cependant, les mots “ces propositions..  peuvent varier en fonction… des spécificités de chaque pays” montrent que ce serait un rapport avec des recommandations génériques pour la recherche, mais pas spécialement en France. Voyons si on peut obtenir quelque chose de plus précis.
    Prompt #3: Ce serait spécifiquement pour la France.

    ChatGPT

    Bien sûr, en prenant en compte le contexte français, voici quelques propositions concrètes spécifiques à l’écosystème de recherche et d’innovation en France :

    1. Renforcement du financement de la recherche : Accroître les investissements publics dans la recherche et l’innovation afin d’atteindre les objectifs fixés, notamment en augmentant les budgets alloués aux organismes de recherche tels que le CNRS, l’INSERM, et le CEA.
    2. Simplification des procédures administratives : Réduire la bureaucratie et simplifier les procédures administratives liées aux demandes de financement et aux projets de recherche, afin de libérer plus de temps et de ressources pour la recherche effective.
    3. Promotion de la recherche collaborative : Encourager les collaborations entre les organismes de recherche, les universités et les entreprises en facilitant les partenariats et en mettant en place des incitations pour les projets de recherche collaborative. Favoriser la création de consortiums de recherche public-privé
      pour stimuler l’innovation.
    4. Renforcement de la recherche fondamentale : Reconnaître l’importance de la recherche fondamentale en tant que socle de l’innovation et de la découverte scientifique. Allouer des ressources supplémentaires aux laboratoires de recherche fondamentale et favoriser la liberté académique des chercheurs.
    5. Développement de structures de soutien à l’innovation : Mettre en place des structures dédiées au soutien à l’innovation, telles que des incubateurs et des accélérateurs, pour accompagner les chercheurs et les entrepreneurs dans le processus de transfert de technologie et de création d’entreprises.
    6. Renforcement de l’attractivité des carrières scientifiques : Mettre en œuvre des mesures visant à attirer et à retenir les talents scientifiques, tels que l’augmentation des salaires des chercheurs, l’amélioration des conditions de travail et la création de perspectives de carrière attractives.
    7. Internationalisation de la recherche : Favoriser la participation des chercheurs français à des collaborations internationales, en encourageant les échanges, les partenariats et la mobilité des chercheurs à l’échelle mondiale. Développer des programmes spécifiques pour attirer des chercheurs étrangers de haut niveau en France.

    Ces propositions sont des exemples qui pourraient être envisagés pour renforcer l’écosystème national de la recherche et de l’innovation en France. Elles nécessitent une analyse plus approfondie et une évaluation de leur faisabilité et de leur impact potentiel, ainsi que des discussions plus larges avec les parties prenantes concernées pour définir les mesures les plus adaptées à la situation spécifique du pays.

    Commentaire : cette fois-ci c’est spécifique à la France. On voit apparaître les noms des trois plus grands organismes de recherche français (CNRS, CEA, INSERM), la bureaucratie est identifiée comme un problème, etc. Il est intéressant de comparer dans ses grandes lignes cette réponse avec la précédente ! Mais en fait c’est plus un plan de rapport qu’un rapport complet, et il faudrait développer chaque partie. (Je note cependant que la dernière phrase est obsolète car des programmes spécifiques pour attirer des chercheurs étrangers ont été développés depuis quelques années.) Je choisis le point 2 (simplification des procédures administratives, un sujet dont nous avons discuté au CS du CNRS) et lui demande de le développer.
    Prompt #4: Concrètement comment simplifier les procédures administratives ?

    ChatGPT

    Pour simplifier les procédures administratives dans le domaine de la recherche et de l’innovation, voici quelques mesures concrètes qui pourraient être prises en compte en France :

    1. Rationalisation des formulaires et des demandes de financement : Simplifier et harmoniser les formulaires de demande de financement afin de réduire la charge
      administrative pour les chercheurs et les équipes de recherche. Éviter les redondances et les exigences excessives en matière de documentation.
    2.  Centralisation des processus administratifs : Mettre en place des structures centrales ou des guichets uniques chargés de la gestion administrative des projets de recherche. Cela permettrait de regrouper les demandes, les rapports et les procédures de suivi au sein d’une seule entité, réduisant ainsi les démarches pour les chercheurs.
    3. Utilisation des technologies numériques : Développer des plateformes umériques conviviales et intuitives pour la soumission en ligne des demandes de financement, le suivi des projets et la communication avec les organismes de recherche. Automatiser les processus lorsque cela est possible pour réduire les délais et les erreurs.
    4. Simplification des règles de gestion financière : Clarifier et simplifier les règles de  gestion financière applicables aux projets de recherche, en tenant compte des  spécificités de la recherche scientifique. Réduire les contraintes administratives  iées à la justification des dépenses et faciliter la gestion des budgets alloués.
    5. Formation et assistance aux chercheurs : Fournir une formation et un soutien adéquats aux chercheurs sur les procédures administratives, les règles de  financement et les exigences documentaires. Mettre à leur disposition des ressources en ligne, des guides pratiques et des personnes-ressources pour les accompagner dans leurs démarches administratives.
    6. Évaluation des pratiques administratives : Réaliser des évaluations régulières des pratiques administratives en place pour identifier les points de blocage et les sources de complexité. Réviser et adapter les procédures en fonction des retours d’expérience des chercheurs et des gestionnaires de projet.
    7. Coordination interinstitutionnelle : Promouvoir la coordination et la coopération la gestion des projets de recherche. Faciliter les échanges d’informations et la mutualisation des bonnes pratiques pour harmoniser les procédures administratives.

    Ces mesures visent à réduire la bureaucratie et à simplifier les procédures administratives pour les chercheurs et les équipes de recherche, afin de leur permettre de se concentrer davantage sur leurs travaux scientifiques. Il est important de mener une analyse approfondie des processus existants et de travailler en étroite collaboration avec les parties prenantes pour mettre en œuvre ces mesures de simplification de manière efficace.

    Commentaire : tout ceci semble de bon sens. Pour voir s’il est capable de remplir ces sections en les développant de façon plus détaillée, je choisis une de ses propositions, la réduction des contraintes administratives liées à la justification des dépenses (car je sais que des collègues ne se font pas rembourser certaines choses simplement parce que c’est administrativement trop compliqué) et lui demande de la développer.
    Prompt #5: Peux-tu donner un exemple de réduction des contraintes administratives liées à la justification des dépenses ?

    ChatGPT

    Certainement ! Voici un exemple concret de réduction des contraintes administratives liées à la justification des dépenses dans le contexte de la recherche :

    Actuellement, les chercheurs doivent souvent fournir de nombreuses pièces ustificatives détaillées pour chaque dépense effectuée dans le cadre d’un projet de recherche. Cela peut inclure des factures, des reçus, des rapports de dépenses détaillés, des autorisations spécifiques, etc. Cette procédure peut être chronophage et complexe, entraînant une charge administrative supplémentaire pour les chercheurs  Pour simplifier cette procédure, une approche pourrait consister à mettre en place une méthode simplifiée de justification des dépenses basée sur des seuils prédéfinis. Par exemple :

    1. Seuils de dépenses : Établir des seuils de dépenses en fonction de la nature des dépenses et de leur montant. Par exemple, un seuil de 100 euros pour les petites dépenses courantes et un seuil de 500 euros pour les dépenses plus importantes
    2.  Justification simplifiée pour les petites dépenses : Pour les dépenses en dessous du seuil prédéfini (par exemple, 100 euros), les chercheurs pourraient être dispensés de fournir des pièces justificatives détaillées. Ils pourraient simplement déclarer la nature générale de la dépense et son montant total dans un rapport de dépenses global.
    3. Justification allégée pour les dépenses intermédiaires : Pour les dépenses situées entre les seuils prédéfinis (par exemple, entre 100 et 500 euros), une justification simplifiée pourrait être demandée. Il pourrait s’agir de fournir un justificatif de paiement, tel qu’un relevé de carte de crédit, une facture récapitulative ou une note de frais résumée.
    4. Justification complète pour les grandes dépenses : Les dépenses dépassant le seuil prédéfini le plus élevé (par exemple, 500 euros) pourraient nécessiter une justification complète et détaillée, conformément aux procédures existantes. Cette approche permettrait de réduire la charge administrative liée à la justification des dépenses de faible montant, tout en conservant des mécanismes de contrôle pour les dépenses plus importantes. Cela permettrait aux chercheurs de consacrer plus de temps à leurs travaux de recherche et de réduire la complexité administrative associée à chaque dépense.

    Il est important de noter que la mise en place d’une telle approche nécessite une évaluation minutieuse des risques et des implications financières, ainsi qu’une adaptation des politiques et des procédures existantes en matière de justification  des
    dépenses.

    Commentaire : Alors là, je suis bluffée. C’est concret, pertinent, réaliste. Rien à dire. Il n’y aurait plus qu’à faire le même travail de prompts qui demandent des détails sur chacun des points, en le guidant lorsque ses suggestions ne me plaisent pas ou ne correspondent pas aux orientations suggérées par la lettre de mission (que pour bien faire j’aurais du recopier en entier), et j’ai l’impression que cela mènerait à un rapport complet et utilisable.

    Conclusion

    Comment a-t-on pu arriver à une telle qualité ? Pour répondre à mes demandes, ChatGPT se promène dans un espace mathématique dont les liens ont été préalablement construits par l’analyse d’un très grand nombre de documents.

    Dans ma première question, j’ai essayé de donner un contexte qui lui ferait se positionner dans une région particulière de l’espace mathématique : la région qui, à ce que j’imagine, est occupée par des bouts de textes de documents et rapport administratifs sur la recherche française. Les deux questions suivantes ont permis de préciser le contexte pour mieux le positionner.

    Une fois cela réussi, ChatGPT s’est mis à construire ses réponses en s’inspirant de bouts de phrases qui se trouvent dans cette zone de l’espace. C’est un peu comme si j’avais lu tout un ensemble de rapports, projets, propositions sur l’évolution de la recherche en France, et que j’en eusse extrait un texte synthétisant une partie de ce qui s’y trouvait. Mais au lieu de passer des semaines ou des mois à ce travail de collecte et d’analyse de l’information, j’ai laissé ChatGPT s’en charger.

    Pour obtenir en quelques heures un rapport complet, il faudra continuer à poser des questions pour développer chaque élément, en corrigeant le tir lorsque la direction prise ne convient pas, et en évitant de remonter à un niveau de généralité qui produirait des recommandations inutiles. Il faudra pour cela acquérir l’art de poser des bonnes questions de façon à obtenir de bonnes réponses.

    Cette méthode n’est pas exempte de dangers : d’une part, ChatGPT se base sur les documents produits avant 2021, ce qui peut l’amener à faire des suggestions obsolètes qui ne seraient plus à l’ordre du jour ; d’autre part, même si je peux par mes questions orienter et guider le rapport vers les pistes qui m’intéressent le plus, c’est ChatGPT qui fait les suggestions de recommandations, et il peut très bien ne pas mentionner quelque chose qui se trouve dans l’un ou l’autre des documents et qui m’aurait plu si j’en avais connu l’existence, mais qui est trop marginal pour être facilement repéré par le radar de ChatGPT. (Cela dit, un travail personnel classique risquerait aussi de passer à côté, faute de temps pour tout lire). De plus, il y a un risque de plagiat : par exemple, la dernière suggestion de ChatGPT, avec une procédure à base de seuils, est si précise qu’on peut se demander si elle n’a pas été copiée à partir d’un document particulier.

    Étant donné la façon dont ChatGPT procède, il n’y aura probablement pas de création, d’idée complètement nouvelle. Il n’en demeure pas moins qu’il est désormais possible pour moi de court-circuiter le travail de lecture, d’assimilation, de sélection, et de synthèse des travaux existants sur la réforme de la recherche en France, pour obtenir en quelques heures un rapport utilisable et qui, grâce à mes questions qui guident ChatGPT dans son exploration, reflètera cependant jusqu’à un certain point es priorités et ma perspective.

    Évidemment, même avec l’aide de ChatGPT, je ne peux pas produire ainsi un rapport intéressant sur n’importe quel sujet : j’utilise ma propre connaissance du domaine pour orienter mes questions et sélectionner parmi les réponses de ChatGPT ce qui me semble le plus pertinent dans la construction du rapport.

    En m’appuyant sur ChatGPT pour produire un rapport, je ne me serai pas instruite comme je l’aurais fait par l’approche traditionnelle, mais j’aurai gagné énormément de temps. C’est trop tentant pour ne pas être mis en application partout ce gain de temps est significatif. Ainsi, cet exemple d’utilisation montre que ChatGPT risque de transformer certaines activités professionnelles qui jusqu’à présent étaient à l’abri des transformations technologiques : par exemple, à l’Assemblée Nationale il pourrait être envisageable de réduire le nombre de collaborateurs parlementaires ; et dans les ministères, les onéreux rapports d’experts demandés à des consultants tels que McKinsey pourraient être remplacés par quelques heures de conversation gratuite avec ChatGPT. Cela permettrait de faire des économies substantielles, pour un résultat qui pourrait en moyenne se révéler tout aussi bon ou même supérieur. On ne regrettera pas la disparition des cabinets de conseils.

    Claire Mathieu, CNRS

    1. L’autrice a transmis la version complète de l’échange qu’elle a obtenu de ChatGPT, sans en corriger les coquilles ortho-typographiques. Nous reproduisons le document “Utiliser ChatGPT” .pdf en htlm par souci d’accessibilité. [↩]
  • ChatGPT et test de Turing inversé

    Erwan Le Merrer,  chercheur Inria, étudie le fonctionnement des plateformes du Web et analyse leurs comportements. Il préside le conseil scientifique de la Société informatique de France. Il nous propose une réflexion sur un sujet qui fait énormément parler aujourd’hui, ChatGPT et les modèles génératifs. Turing a proposé un test pour savoir si un humains pouvait distinguer des réponses émanant d’une intelligence artificielle de celles produites par d’autres humains. Erwan montre que dans une inversion étonnante, le test est aujourd’hui posé aux intelligences artificielles. Pierre Paradinas

    ChatGPT et les autres modèles génératifs sont amenés à modifier profondément nos usages. La génération instantanée de textes, d’images et de vidéos, inspire déjà quantité d’applications. Au delà de l’objectif affiché, la nature des sources de données sur lesquelles ChatGPT va poursuivre sa construction est critique.

    Image du jeu classique « snake »

    Le test de Turing est une expérience proposée en 1950 par Alan Turing et consistant pour un expérimentateur à deviner si la réponse à une question émane d’un être humain ou d’un ordinateur. L’expérimentateur est à l’aveugle par rapport au questionné, la vision de ce dernier étant occultée par un mur. La finalité du test est de questionner la distinguabilité de l’être humain des processus numériques en cours d’élaboration à l’époque. L’application aujourd’hui dans d’autres contextes est par exemple : étant donnée une copie de devoir à corriger pour un enseignant, a-t-elle été rédigée par l’étudiant ou par ChatGPT ?

    Les textes et données présents sur le web sont (encore) en grande partie le fait d’humains : journalistes, blogueurs, scientifiques, passionnés ou utilisateurs de réseaux sociaux. ChatGPT s’en nourrit pour construire le modèle probabiliste qui le dirige. Sans ces données, pas d’apprentissage et donc de génération satisfaisante. Mais voila, des textes ainsi générés sont déjà utilisés plus ou moins directement (peut-être sans modification) pour alimenter les sites web, et autres contenus de documents partagés [1].

    Il résulte la possibilité d’un cercle vicieux : ChatGPT devra être mis à jour fréquemment pour s’adapter aux événements ou nouvelles connaissances ; les nouveaux contenus aspirés pour être ingurgités seront ils alors des contenus déjà générés par ce même ChatGPT ? Ce serait problématique à plus d’un sens. On peut ici faire le parallèle avec des techniques relativement similaires dites de génération adversarielles (GANs), ou deux modèles d’apprentissage machine se font face. L’un pour améliorer sa génération de données essaie de tromper le second, qui lui essaie de discriminer ces données reçues d’autres données émanant cette fois d’êtres humains. L’intuition est simple : si le premier modèle génère par exemple des images trop facilement discriminables d’autres images réelles, alors il ne fait pas bien son travail. Il s’améliore alors jusqu’à ce que cette génération ne permette plus au second modèle de juger correctement du fait que ces images sont générées, avec plus d’une chance sur deux. Le premier modèle a alors “convergé” et atteint son objectif de génération indistinguable de données.

    Nous revoilà devant cette question d’indistinguabilité, cette fois concernant les données d’apprentissage de ChatGPT : les données glanées sur le web sont-elles le fait d’humains, de ChatGPT, ou d’autres modèles génératifs ? Mais l’expérimentateur du test de Turing est cette fois un processus numérique — ChatGPT lui même — plutôt qu’une personne : à ChatGPT d’arriver à distinguer sa propre création, ou des variantes manipulées par des personnes, dans cette instance inversée du test de Turing.

    Et on peut douter du succès de ChatGPT sur ce test, même à court terme. Ce dernier est bien précisément entrainé pour produire des sorties indistinguables de textes produits par des humains. Des chercheurs proposent de forcer ces modèles génératifs à embarquer des traces qui les confondent dans chacun de leurs textes générés (techniques dites de “tatouage” [2]). D’autres proposent au contraire une attaque pour contrer le tatouage qui paraphrase le texte généré pour ainsi permettre de rendre inopérant ce tatouage [3].  Ils fournissent au contraire une preuve d’impossibilité (i.e., d’indistinguabilité), qui s’appuie sur la nécessaire convergence de la distribution des mots dans les phrases générées vers celle naturellement présente dans les textes humains [3], au fur et à mesure de l’amélioration des capacités de ChatGPT ou de ses compétiteurs. Le problème est évidemment le même pour un système concurrent (e.g., Bard de Google) qui consommerait du ChatGPT, et inversement.

    Il est ici central de rappeler que l’indistinguabilité statistique de la formation de phrases n’a rien à voir avec l’indistinguabilité de la véracité ou non de ce que disent ces mêmes phrases : elles peuvent être syntaxiquement parfaites et sembler cohérentes, mais contenir des erreurs factuelles. Or ChatGPT est entraîné pour répondre parfaitement à ce premier objectif, mais pas au second. Lorsque le web sera alors peuplé de données non distinguables, le problème technique sera d’imaginer ce qu’il adviendra de la convergence d’un ré-apprentissage périodique pour ChatGPT, qui n’a aucun intérêt pratique à ingurgiter ses propres sorties. Un regain du nombre d’erreurs factuelles peut alors survenir dans ces textes générés, pour être ensuite intégrés sur le web de façon consciente ou non. Et ce dans une itération continue de la forme “génération, insertion sur le web, ingestion, ré-apprentissage”, etc.

    Les conséquences sociétales à craindre sont probablement une dilution encore plus grande de la capacité d’attribution aux créateurs ou penseurs, et conséquemment un risque de confusionnisme accru par la présence en ligne d’affirmations contraires concernant tous les faits possibles.

    Que deviendra le ver quand le fruit sera pourri ?

    Erwan Le Merrer, Inria

    Références :

    [1] https://www.theguardian.com/technology/2023/may/02/chatbot-journalists-found-running-almost-50-ai-generated-content-farms
    [2] A Watermark for Large Language Models, Arxiv, 2023.
    [3] Can AI-Generated Text be Reliably Detected?, Arxiv, 2023.

  • ChatGPT ? Voulez-vous comprendre ce que c’est ?

    ChatGPT. Avant d’en parler, de croire qu’il va tout faire, même la vaisselle, d’en avoir peur parce qu’il va détruire les emplois, de s’émerveiller parce qu’il a dit quelques phrases qui avaient l’air intelligentes, de le traiter de nul parce qu’il dit des bêtise, de l’engueuler parce qu’il refuse de dire une absurdité, avant de nous faire une opinion, peut-être  pourrions-nous passer un peu de temps à essayer de comprendre ce que c’est ? Serge Abiteboul.

    Chiche ?

    Pour ça, vous pouvez écouter David Louapre qui explique si bien, les bases de ChatGPT, et comment il a été conçu à partir du modèle de langage GPT :

    Et vous pouvez trouver quelques mots de plus sur son blog pour en savoir plus (en particulier sur la notion de « transformer »), ou même, aller en discuter dans son salon discord.

    Et bien entendu vous pouvez bien sûr, soyez fous, essayer ChatGPT !

    Oui, mais encore ? Comment mieux comprendre comment se manipule le langage humain au sein de tels algorithmes ? C’est dans cette vidéo que David vous expliquera cette mécanique :

    Il l’explique aussi de manière textuelle sur son blog.

    Attendez … peut-être souhaitez-vous aussi retourner aux bases et mieux comprendre ces histoires d’apprentissage machine, en particulier l’apprentissage profond, si performant et tant utilisé ? David est encore là :

    Et il propose même une version textuelle des explications.

    Alors ChatPGT et cie. ? Peut-être avant de se faire une opinion, cela vaut le coup de le démystifier, de comprendre ce que c’est, ce que l’on peut et veut en faire, de manière sereine et éclairée et, au-delà, de se doter d’une culture scientifique en informatique.

    En tout cas, retenons que les informations fournies par ChatGPT peuvent être erronnées, y compris en violation du RGPD , qui stipule que les données personnelles traitées doivent être exactes, comme cela est discuté ici, tandis que nou nous sommes tous amusés à tester cela sur nous même.

    Thierry Viéville, chercheur Inria, et surtout merci à David Louapre.

    Pour aller plus loin

    – Une vidéo de l’équipe de recherche Inria flowers visant collégiens et lycéens en particulier

    – On a aussi cette très intéressante discussion radiophonique qui discute des usages avec ces risques.

    – Une formation citoyenne https://classcode.fr/iai développée avec des spécialistes en sciences du numériques et sciences de l’éducation (voir cet article scientifique) est librement utilisable et réutilisable.

    – Pour se former aux sciences du numérique en général https://classcode.fr/snt (en particulier avec un résumé sur l’histoire de l’intelligence artificielle) est en partage.

     

     

  • Les données au service des ressources humaines

    Les nouvelles technologies participent au changement profond du monde. Ce domaine s’impacte aussi bien lui-même que les métiers auxquels il est associé. Comment la gestion des ressources humaines, centrée sur l’humain, mesure cet impact sur son métier et s’y adapte ? Merci à Valérie Genoud, DRH à l’Agence Régionale de Santé (ARS) Auvergne Rhône Alpes, de nous partager sa vision et son retour d’expérience à ce sujet. Ikram Chraibi Kaadoud, Charlotte Truchet et Thierry Vieville

    La gestion des ressources humaines (GRH) correspond à l’ensemble des pratiques déployées pour développer, gérer et administrer le capital humain impliqué dans l’activité d’une structure, entreprise, organisation ou institution.  Les fonctions traditionnelles de la GRH sont la gestion de la paie, le recrutement, l’accompagnement à la formation, la gestion des temps, des contrats de travail.

    Outre ces fonctions, la direction des ressources humaines (DRH) a pour mission de s’assurer en permanence du bon ajustement des ressources humaines aux besoins des organisations. La DRH pilote les politiques RH au service de la stratégie de l’entreprise : l’accompagnement au changement des évolutions des organisations et des technologies, la politique de qualité de vie au travail, de santé sécurité au travail, d’égalité des chances et d’inclusion, la politique de recrutement, etc.

    La DRH a ainsi pour but de développer une offre de service auprès de ses clients internes qui sont les salariés, les managers et la direction générale (autres parties prenantes), tout en prenant en compte les caractéristiques de l’organisation: contexte économique, technologique et sociétal.

    Le double défi du numérique dans la gestion des ressources humaines

    Les derniers bouleversements du monde numérique, notamment l’intelligence artificielle et la science des données ou data science, place la gestion des ressources humaines (RH) face à un double défi :

    1. La nécessité impérative de veiller à la bonne adaptation des moyens techniques aux besoins des ressources humaines :  ce qui demande anticipation et prévoyance dans les recrutements et les formations ; comment accompagner les transformations de nos organisations ?
    2. L’obligation de revisiter les fonctions RH à l’aune des nouvelles technologies disponibles qui ouvrent des perspectives de transformation des métiers ; comment travailler autrement pour mener à bien les missions ?

    Ce double mouvement doit conduire les directions RH à faire évoluer les méthodes et les manières de travailler. Cela est notamment dû au fait que l’univers de la data améliore les capacités analytique et prédictive des services, permettant ainsi de développer les offres de service, la qualité de celui-ci, et le partage de l’information avec les parties prenantes (organisations syndicales, managers, etc.).

    Cela ne signifie nullement une robotisation de la fonction même de RH, au contraire.  L’accessibilité et la fiabilité des informations et des données, ainsi que la mise à disposition d’outils IA, doivent permettre au personnel RH de rester centré sur l’écoute, l’accompagnement, et les urgences. Autrement dit, pouvoir mieux se concentrer sur la relation aux collaborateurs.

    Cette transformation des organisations nécessite toutefois que les équipes RH et leur direction développent d’autres compétences que celles à l’œuvre aujourd’hui, et soient en mesure de se saisir des enjeux liés la data.

    En effet, insuffler une nouvelle culture fondée sur les données, centrée sur les parties prenantes qui demande agilité et vision globale des besoins RH, nécessite un accompagnement global des organisations évitant les points de ruptures et les clivages.

     Autrement dit, il est important d’accompagner la transformation des RH pour accompagner celles des organisations.

    Commencer petit, voir loin ou comment insuffler une nouvelle data culture 

    « Offrir des perspectives plutôt que des contraintes »

    L’agence régionale de santé  Auvergne Rhône Alpes a eu l’opportunité dans le cadre d’un appel à projet interministériel « Entrepreneur d’Intérêt Général » (un programme d’Etalab – Direction Interministérielle du numérique) de pouvoir accélérer l’intégration de la data dans l’univers RH avec l’arrivée de compétences ciblées comme des data stewards[1], UX/UI designers, data analyste.   

    Le projet a trouvé sa source dans l’exigence réglementaire de mise en œuvre d’une base de données sociales (201 indicateurs RH à fournir et visualiser), un rapport social unique à définir en lieu et place du traditionnel bilan social et des autres rapports obligatoires tels que par exemple la sécurité et santé au travail, l’index égalité homme femme, etc. La Direction des Ressources Humaines (DRH) et la Direction des Systèmes Informatiques (DSI) ont jeté les bases d’une acculturation très concrète de l’ARS ARA au monde de la data. Au-delà de jeux et de challenges indispensables pour toucher le plus grand nombre, les équipes RH et les parties prenantes (directeurs, représentants syndicaux, managers, gestionnaires RH) ont pu s’approprier de nouvelles méthodes de travail et d’animation comme la méthode itérative[2], des ateliers d’idéation[3], la ritualisation inspirée des méthodes agiles. Le but est d’étendre l’utilisation de ces méthodes à l’ensemble des projets RH (pas forcément informatique) et de faire évoluer les modes de coopération et de collaboration.

    Il s’agissait avant tout de sortir des processus analytiques : phase de diagnostic et expression de besoin, présentation des scénarii, choix et spécification fonctionnelles (et techniques) pour enfin pouvoir démarrer la mise en œuvre. A savoir donc :

    • Mettre en place des équipes pluridisciplinaires, et intégrer le « client final » dès le début du projet dans des ateliers.  Par exemple, dans les ateliers UX/UI, « Le persona » est un outil qui permet à l’équipe projet de se référer à des personnages fictifs qui représentent des profils types des différents utilisateurs finaux et qui est élaborés à partir d’enquêtes d’interview des différentes parties prenantes.
    • Expérimenter pour partager et progresser ensemble : un premier niveau d’expérimentation ou de prototype est essentiel, il est permis de donner à voir du concret, de définir les marges de progressions (boucle idéation – prototypage – test)
    • Accepter de faire de erreurs pour progresser au plus vite vers une solution rapide mieux adaptée aux attentes

    Chaque pas est une avancée vers la résolution de cas d’usage. Des solutions répondant à des besoins opérationnels sont dégagées au fur et à mesure, acceptées plus rapidement par toutes les parties prenantes.

    Ces modes de travail garantissent l’implication de chacune des parties dans le partage d’une vision, et au-delà l’écoute de leurs besoins et de leurs inquiétudes. L’ensemble de la démarche a favorisé une adhésion plus rapide au projet, la confiance dans ces nouvelles technologies, la promotion du développement et de la croissance des collaborateurs.

    La promesse d’une gestion des ressources humaine réinventée

    « Les transformations des métiers RH engagent le collectif et l’accompagne» 

    L’utilisation de nouvelles technologies va permettre d’automatiser les tâches les plus répétitives pour permettre aux collaborateurs RH de concentrer leurs activités à répondre aux besoins des utilisateurs, et à devenir plus proactifs en proposant des offres de service aux collaborateurs-usagers. Par exemple grâce aux algorithmes IA, proposer aux salariés des parcours de formation adaptés, et une mobilité interne plus individualisés: proposer aux directeurs des recrutements plus adaptés, une recherche de talent plus ciblée, …

    L’utilisation de telles technologies doit permettre aux DRH et ses services de répondre aux exigences des collaborateurs-usagers d’accéder de plus en plus à des services fiables et rapides.

    L’amélioration de la capacité à anticiper, prévoir et donc à conseiller les directeurs dans leurs prises de décisions assurent ainsi à la fonction de gestion des ressources humaines une dimension plus stratégique.

    La Gestion RH se réinvente!

    Le partage de données et des compétences ainsi que les interactions transversales au sein des directions viennent questionner le rôle de chacun et bousculer les visions hiérarchiques.

    Les outils RH (fiche de poste, d’évaluation, etc.), les leviers de motivation (autonomie, développement des compétences, etc.) doivent être adaptés pour mieux définir les rôles et les attributions de chacun dans la transformation des organisations vers plus de transversalité.

    Les services RH doivent se former aux nouvelles méthodes de travail à fois techniques et d’intelligence sociale (aptitude à travailler à équipe) et collective (capacité d’innovation idéation) pour accompagner le changement.

    Le dialogue social peut être rénové par l’accès direct des organisations syndicales à l’information, et aux données rendues opposables par la sécurisation autour la gouvernance de la donnée[4]

    Cette transformation contribuerait ainsi à étayer un rapport de confiance dans des travaux d’échanges autour des indicateurs sociaux et des leviers d’amélioration à mettre en œuvre.

    On comprendra donc que l’enjeux majeur est d’engager l’ensemble du collectif à travailler à la qualité de la donnée tout autant que de la rendre disponible, ce qui est un défi au quotidien.

     Valérie Genoud, DRH à l’ARS Auvergne Rhône Alpes

    Directrice déléguée aux ressources humaines au sein de l’Agence régionale de la santé d’Auvergne-Rhone-Alpes depuis plus de 7 ans, Valérie Genoud a une expérience forte de pilotage et de management de la direction des ressources humaines et de pilotage de projets d’innovation et de digitalisation. Elle nous partage son avis sur les challenges et les défis du métier de DRH et de GRH à l’ère de la transformation digitale par la Data Science et l’IA.

    [1] Expert qui coordonne la collecte de la donnée, organise son stockage, son utilisation et sa gestion.

    [2] Itération : fait appel à des prototypes et permet de repérer les difficultés de façon précoce, cela repose sur l’idée que les tentatives infructueuses font partie du processus de réussite

    [3] Atelier idéation : méthode qui appartient au design thinking : approche de l’innovation centrée sur l’utilisateur ( ou l’humain) dans une vision de service rendu

    [4] La gouvernance des données se compose des normes et des principes régissant les divers types de données de l’entreprise.

     

     

  • Communiqué de la SIF sur ChatGTP et les modèles génératifs

    Curiosité, questionnement et inquiétudes parfois extrêmes du public, telles ont été les réactions à ChatGPT depuis sa mise en accès.  La société informatique de France, SIF a pris position le 6 mars 2023 à travers un communiqué que nous relayons ici,  après une brève présentation de cette structure. L’équipe Binaire

    Société informatique de France, alias SIF

    La SIF rassemble toutes celles et ceux qui font progresser l’informatique – au sens large des sciences et technologies au cœur du numérique — que ce soit par le biais de leur métier, ou de leur passion.
    Il s’agit d’un espace de réflexion, de concertation sur les enjeux de l’informatique et surtout un espace d’action, d’amplification des initiatives issues des travaux de la communauté.
    Les missions de la SIF sont nombreuses et pilotées par son conseil d’administration, son conseil scientifique et divers groupes de travail. Elle vise en effet à :

    * promouvoir l’informatique et animer sa communauté

    * élaborer et partager largement des préconisations sur des questions relatives aux enjeux scientifiques, à l’impact économique et sociétal en s’appuyant notamment sur les réflexions du conseil scientifique

    * dialoguer et créer des partenariats nationaux, européens, et internationaux

    * participer aux réflexions et aux initiatives sur la formation et l’emploi des informaticiens contribuer à la culture citoyenne et à l’enseignement de la discipline à tous les niveaux, et concourir ainsi à nourrir les débats de société.

    ChatGPT, un sujet de société ? 

    Dans le cadre de l’accompagnement de la société, la SIF nous partage un communiqué sur ChatGPT et plus globalement les modèles génératifs, afin d’expliquer brièvement mais clairement le fonctionnement de ce type d’outils, d’alerter sur les limites, risques et insister sur la nécessaire formation à ces outils et sur leur utilisation raisonnée.

    Voici son communiqué disponible ici

    Lien Société informatique de France: https://www.societe-informatique-de-france.fr/la-sif/

    Lien vers le communiqué: https://www.societe-informatique-de-france.fr/wp-content/uploads/2023/03/2023-03-06-Communique_SIF_chatgpt.pdf

    Ikram Chraibi Kaadoud

  • Penser, calculer, délibérer

    Penser et délibérer à l’heure où l’intelligence humaine utilise l’intelligence artificielle pour démultiplier ses capacités d’études des données ? Dans un ouvrage pluri-disciplinaire dont deux collègues partagent ici les versions préliminaires des chapitres en lien avec l’informatique, chercheurs en sciences humaines et formelles se répondent pour relever le défi d’approfondir la réflexion sur ce sujet. Lonni Besançon et Ikram Chraibi Kaadoud.

    La numérisation de la société, le traitement automatique de l’information et les techniques d’intelligence artificielle induisent des ruptures dans notre façon de penser, de calculer, de délibérer.

    ©mare & martin

    Comprendre comment fonctionnent les capacités cognitives et comment elles sont affectées par la révolution numérique est essentiel pour le devenir de nos sociétés. Un dialogue interdisciplinaires entre juristes, philosophes et spécialistes des neurosciences et de l’intelligence artificielle, permet de mieux connaître les nouveaux enjeux et de répondre aux défis technologiques du XXIe siècle. 

    Comme l’explique Jean-Sylvestre Bergé dans sa préface,  ce livre tente une approche pluri-disciplinaire sur les triples terres de la pensée, du calcul et de la délibération, en questionnant comment la pensée humaine elle même évolue à l’heure d’une révolution numérique qui va jusqu’à bouleverser notre vision du droit comme on en parle souvent sur binaire: en insistant sur l’aspect des données avec “Numérique est mon droit” de Célia Zolynski, ou les liens entre le “Code et le Droit” avec Lêmy Godefroy, ou les “Communs numériques dans la justice” avec Benjamin Jean, …

     

    © Learning Lab Inria

    Un point clé est d’approfondir le lien entre calcul algorithmique et responsabilité humaine. Si la complexité de ces systèmes ne permet plus  de réduire la responsabilité de leur fonctionnement  à une ou des responsabilité individuelles et qu’il y a besoin de reconstruire le droit autour de ces objets, cela n’a pas de sens de parler de responsabilité de la machine, la responsabilité doit demeurer humaine. Cela est vrai y compris pour des tâches qui relevaient auparavant de capacités cognitives humaines, voire des décisions sans arbitrage humain (par exemple dans des situations d’urgence où retarder la décision serait pire que la déléguer à un algorithme, malgré les risques inévitables), mais mis en place par des humains. Cette réflexion est proposée par Raja Chatila, spécialiste des systèmes cognitifs robotiques.

    © Nicolas Rougier

    Dans l’ouvrage on prend aussi le temps d’expliquer ce que nous comprenons aujourd’hui de notre intelligence biologique qui pense, ce qui offrira un éclairage crucial sur ce qui se passe quand on utilise des machines qui calculent, avant de conclure en quoi cela aide à réfléchir sur comment délibérer. Car oser comprendre les aspects scientifiques et techniques de la pensée  et du calcul est essentiel pour se donner les moyens de délibérer en toute conscience avec les outils intellectuels et numériques qui nous sont donnés. On discute ainsi comment délibérer avec l’intelligence artificielle pour la mettre au service de l’intelligence naturelle avec Frédéric Alexandre et ses collègues, que l’on peut lire directement ici.

    Au-delà, le cheminement intellectuel proposé s’est formé pendant plus de dix ans au sein du groupe informel de recherche « Limites et frontières », animé par les professeurs Philippe Pédrot et Alain Papaux, co-éditeurs de l’ouvrage.

    Frédéric Alexandre, Raja Chatila, Marie-Hélène Comte, Philippe Pédrot et Thierry Viéville.

  • Mon rosbif est biaisé

    Avant de vous souhaitez de joyeuses fêtes de fin d’année, partageons cette petite fiction qui nous aide à comprendre la notion de biais des algorithmes et leurs origines possibles à travers des exemples tirés de la vie quotidienne. Nous avons emprunté cet article du  numéro 20 de 1024, le bulletin de la Société Informatique de France, qui vient de sortir. Merci à Serge Abiteboul et Julia Stoyanovich. Thierry Viéville.

    Une discrimination systématique par un algorithme est appelée un biais. Les biais peuvent avoir différentes origines, et ils correspondent tous à des situations de la vie réelle. Pour illustrer cela, pensez à cuisiner du rosbif.

    Pat décide de publier un site internet de recettes familiales en commençant par la plus populaire : le rosbif. La mère de Pat, sa sœur et son frère préparent tous le rosbif à peu près de la même manière : « comme le fait grand-mère ». Ils utilisent tous la même recette — le même algorithme. Leur choix de cuisiner le rosbif de cette manière montre une sorte de biais de familiarité — privilégiant les goûts et les expériences familiers par rapport aux nouveaux.

    Lorsqu’elle sélectionne une recette de rosbif familière de manière biaisée, Pat ne fait rien de mal — elle suit simplement une tradition familiale agréable. Mais dans d’autres cas, le biais d’habitude peut être nocif : il peut conduire à une discrimination illégale dans l’embauche, le prêt ou l’octroi d’une libération conditionnelle. Aussi inoffensive soit-elle, la recette de rosbif de la famille de Pat nous permettra de discuter différents types de préjugés.

    Comment choisir une recette de rosbif à suivre ? Commencez par sélectionner vos données d’entraînement, une recette « générique » que vous avez vu d’autres utiliser, et faites-la vôtre ! Dans le cas de Pat, le type de préjugé le plus visible vient des personnes dont elle adopte la recette : sa famille. Par exemple, au Maroc, la recette générique serait de préparer du bœuf avec du curcuma, du gingembre, du cumin et de la coriandre, ainsi que du jus de grenade. Par contre, en Alsace, la base du rossbif n’est pas du tout du bœuf, mais de la viande de cheval (ross signifie cheval en alsacien). En clair, selon les personnes qu’on choisit, on obtient des recettes différentes. La famille de Pat est plutôt traditionnelle, ils utilisent du bœuf et le garnissent de persil, de sauge, de romarin et de thym (comme dans la chanson). Le biais introduit par la sélection des données d’entraînement est parfois appelé biais préexistant, car il provient de recettes qui existaient avant que vous n’envisagiez même de faire vous-même ce rosbif.

    Une pratique s’avère assez particulière dans la famille de Pat : ils découpent des tranches aux deux extrémités du rôti avant de le mettre au four. Pourquoi font-ils cela, demande Pat ? Un cousin propose : à cause de l’oxydation du rôti aux extrémités. Un autre n’est pas d’accord : parce que nous, les enfants, aimons notre rosbif bien cuit, et les petits morceaux sont alors hyper cuits. Pat demande à sa mère, sa tante et son oncle qui répondent : nous faisons ceci parce que maman faisait cela. Alors, quand elle en a l’occasion, elle demande à sa grand-mère qui répond : ma mère faisait comme ça. Mais pourquoi ? Parce que son four était trop petit pour contenir tout le rôti. C’est ce qu’on appelle le biais technique. En informatique, un tel biais peut être introduit, par exemple, parce qu’une représentation incorrecte des données a été choisie. Et ce n’est peut-être pas si facile à détecter car les programmeurs ont toujours tendance à supposer la perfection de leur code. Ou, du moins, ils remettent rarement en question un morceau de code qui fonctionne.

    Pour introduire le dernier type de biais, revenons à l’Angleterre médiévale*. Il était une fois une ville avec deux chefs qui avaient inventé des recettes de rosbif concurrentes. Le duc qui avait entendu parler de ces deux nouvelles recettes se déplaça pour venir les déguster. Malheureusement, l’un des deux chefs eut un rhume ce jour-là. Ainsi, seul Maistre Chiquart, un chef français originaire de Lyon, put faire déguster son rosbif. Le duc l’apprécia tant qu’il l’introduisit à la cour du roi. Ce fut le début de la saga de la recette du rosbif que l’on connaît aujourd’hui, alors que la recette de l’autre chef se perdit dans l’histoire, jusqu’au nom de ce chef. Sans ce rhume ce jour fatidique, la recette de rosbif de Pat aurait peut-être été très différente. C’est ce qu’on appelle le biais émergent : plus les gens utilisent la recette de Chiquart, plus elle deviendra populaire et plus les gens l’utiliseront. Cela rendra la préparation du rosbif de plus en plus uniforme.

    Le site web de Pat n’est pas très populaire auprès des millenials, la génération Y ; beaucoup d’entre eux sont végétariens et se soucient peu de recettes de rosbif. Un biais générationnel ?

    Serge Abiteboul, Inria et ENS Paris, Julia Stoyanovich, Professeure à New York University.

    [*] Attention : cette histoire est une pure fiction. Il n’y a aucune preuve réelle que le rosbif ait été inventé par un chef français, même si cela est fort probable.

  • Urgence d’Agir : le sommet de la finance durable et accélération des objectifs par l’IA

    Patricia Gautrin,  doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, aborde ici, d’un point de vue québecois, le concept de finance durable, et comment l’IA peut aider à cela. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères au lien suivant. Ikram Chraibi Kaadoud  et Thierry Viéville.

    Au-delà du Net zéro : la finance sera-t-elle le catalyseur du changement? C’est la grande question posée au Sommet de la finance durable mené par Finance Montréal, les 18 et 19 mai derniers. Les banques, comme le Mouvement Desjardins, sont à la table!

    Il faut savoir qu’à la Conférence de Glasgow sur les changements climatiques, les banques des pays signataires se sont effectivement engagées pour le « Pacte de Glasgow pour le climat » envers la neutralité carbone. Avec tous types d’institutions financières (assureurs, fonds de pension, gestionnaires d’actifs), elles ont fait un choix vert. Mais comment se manifeste cet engagement de la part de la Finance? À quoi renvoie ce qu’on nomme l’investissement durable?

    Sommet de la finance durable 2022

    Florian Roulle, suivi de Guy Cormier, président et chef de la direction du Mouvement Desjardins, pour une discussion sur la terrasse du Centre PHI

    Selon Florian Roulle, directeur principal, stratégie et partenariats et responsable finance durable chez Finance Montréal, « alors que les défis mondiaux de la durabilité deviennent de plus en plus interconnectés, la finance est dans une position unique pour agir en tant que catalyseur du changement systémique. »

    LA CARBONEUTRALITÉ, LE NET ZÉRO, LE ZEN, ET LA DÉCARBONATION

    Une carboneutralité signifie une économie qui n’émet pas de gaz à effet de serre. C’est l’équivalent du Net zéro et du Zen. La « décarbonation » est l’action de limiter ces gaz. Pour nuancer son obligation, la carboneutralité admet une certaine compensation carbone qui consiste soit en des mesures physiques, comme la plantation d’arbres, soit technologiques permettant la réduction des émissions.

    « Nous devons passer d’un comportement négatif envers la nature, à un comportement positif. »  Elizabeth Maruma Mrema, secrétaire exécutive à la Convention des Nations Unies sur la diversité biologique

    Or, la neutralité carbone paraît encore floue car elle est définie de plusieurs manières, avec différentes balises et peut laisser place à l’écoblanchiment. De plus, la neutralité carbone renvoie à des réalités plutôt disparates, selon les pays et les industries.

    Sommet de la finance durable

    Elizabeth Maruma Mrema, secrétaire exécutive à la Convention des Nations Unies sur la diversité biologique, au centre et Hugo Lacroix, surintendant, marchés de valeurs, Autorité des marchés financiers, à droite.

    La neutralité carbone n’a véritablement de sens qu’à l’échelle de la planète, c’est la raison pour laquelle le milieu de la finance élabore des cadres internationaux afin d’orienter l’investissement en faveur d’une économie durable. Le GIEC (Groupe intergouvernemental d’experts sur l’évolution du climat), par exemple, fournit des évaluations quant aux changements climatiques.

    De plus, « les grandes chaleurs vécues au Soudan, ces jours-ci, s’ajoutent à la crise du blé et affichent l’urgence planétaire d’agir pour le climat », précise Nisreen Elsaim, présidente du Groupe consultatif des jeunes sur le changement climatique au Cabinet du Secrétariat général de l’ONU.

    Par ailleurs, Elizabeth Maruma Mrema, nous rappelle les enjeux majeurs de la biodiversité et la nécessité d’agir sur plusieurs fronts en matière d’écologie. Il faut prendre en compte 4 secteurs majeurs (la terre, la mer, l’atmosphère et l’eau potable) pour répondre aux enjeux critiques et complexes de la nature.

    NORMES COMPTABLES INTERNATIONALES

    L’IFRS (International Financial Reporting Standards) qui impose une transparence dans la divulgation a mis en place l’ISSB (International Sustainability Standards Board) afin de mesurer les résultats de la finance durable sur une base commune et de lutter contre l’écoblanchiment. D’ailleurs, Montréal accueillera prochainement un bureau de l’ISSB.

    « La route est longue, mais nous avons les standards ! » – Hugo Lacroix, surintendant, marchés de valeurs, Autorité des marchés financiers

    Sommet de la finance durable 2022

    Centre PHI, Sommet de la finance durable 2022

    Hugo Lacroix énonce alors les 3 principes clés, en faveur de l’intégration de ces normes, dans les plans de transition :

        • Identifier l’engagement commun
        • Calculer les impacts de la transition
        • Se conformer aux normes canadiennes et internationales

    En Europe, l’EFRAG (European Financial Reporting Advisory Group), est un autre régulateur possédant ses propres standards.

    LES CRITÈRES ESG

    Or, l’ISSB n’est pas le seul cadre commun auquel les institutions financières doivent se plier, les critères ESG font également office de régulation.

    « Le secteur financier doit se mobiliser bien au-delà du Net zéro. » – Florian Roulle, Finance Montréal

    En effet, le secteur financier doit mesurer l’impact des activités d’une entreprise, non seulement sur l’Environnement, mais aussi sur la Société et la Gouvernance, tel que le recommande les critères financiers ESG. La finance responsable, devient la finance durable à travers ces critères.

    Sommet de la finance durable au Centre PHI

    Sommet de la finance durable au Centre PHI

    Or, en investissant selon des normes ESG, les entreprises font face à de nouveaux risques. De surcroît, les PME ont de la difficulté à estimer ce qui sera demandé par les acteurs financiers. La plupart voient les nouvelles normes comme des contraintes additionnelles et ne sont pas en mesure d’en évaluer les bénéfices. Très peu d’entreprises sont en mesure de fournir un plan de décarbonation et même une comptabilisation de l’empreinte carbone. Or, elles manquent ainsi des opportunités d’affaires.

    Alexandre Bernhardt, responsable mondial de la recherche sur le développement durable chez BNP Paribas, conseille alors d’éviter de recourir à la diversification des portefeuilles, afin de miser davantage sur l’engagement des tiers parties. Ceci permettra de faciliter l’intégration des PME.

    Il faut établir un chemin clair et crédible avec des cibles basées sur la science et des données fiables et accessibles.

    LA SCIENCE DES DONNÉES ET L’IA

    Les données ESG sont considérées comme des données extrafinancières, mais elles sont de plus en plus recueillies par les investisseurs. Les grands groupes financiers fournissent désormais des données ESG, en plus des données financières traditionnelles.

    De plus, les investisseurs calculent de plus en plus l’E-réputation grâce à une analyse globale des données, sur les réseaux sociaux par exemple. Grâce aux données extrafinancières, on peut mesurer la notoriété publique des investissements. On procède ici à une analyse des propos sur les réseaux sociaux.

    Au niveau de l’empreinte carbone, peu d’outils numériques existent actuellement. Aussi, les PME ont de la difficulté à évaluer le bien-fondé de nouveaux outils. Certaines entreprises font appel à un service-conseil. D’autres s’inspirent des normes IASB. Par ailleurs, certaines données sont structurées, tandis que d’autres ne le sont pas.

    LE FLOU ENTOURANT LE SCOPE 3

    « 90% du carbone provient des compagnies en Scope 3. » – Alexandre Bernhardt, responsable mondial de la recherche sur le développement durable chez BNP Paribas.

    Le plus grand défi de la transition écologique pour les investisseurs est l’ajout du Scope 3, un périmètre de calcul supplémentaire, établi dans la méthodologie internationale de comptabilité carbone GHG Protocol. En bref:

      1. 1. Scope 1 = calcul des émissions directes de gaz à effet de serre
      2. 2. Scope 2 = calcul des émissions indirectes liées à l’énergie
      3. 3. Scope 3 = calcul des autres émissions dîtes indirectes

     

    Si les entreprises en Scope 3 sont les plus polluantes, elles sont aussi celles qui divulguent le moins l’impact environnemental et social de leurs activités.

    De plus, la distinction entre fonds ESG et fonds à impact social n’est toujours pas claire. Alors que certains investisseurs utilisent l’ESG comme outil de gestion du risque, d’autres l’utilisent pour améliorer leur position sur la finance durable afin de s’aligner sur les questions de société et d’impact.

    Isabelle Laprise, vice-présidente, stratégie d’investissement durable, et gestionnaire de portefeuille institutionnel chez Jarislowsky Fraser, rappelle l’importance de la Déclaration de la place financière durable et de la Déclaration de l’investissement canadien pour le changement climatique qui rassemblent autour des mêmes objectifs.

    Par ailleurs, Guy Cormier, président et chef de la direction du Mouvement Desjardins, affirme que l’écosystème québécois est petit, en matière de finance, mais très agile !

     

    Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.

  • IA explicable, IA interprétable: voyage dans les archives Binaires

    Peut-on comprendre et expliquer une décision automatisée prise par un système d’intelligence artificielle ? Pouvons-nous faire confiance à ce système autonome ? En tant qu’utilisateur, cela engage notre responsabilité et pose des questions. A travers Binaire, plusieurs chercheurs ont partagé leur travail à ce sujet ! Voici un résumé et récapitulatif autour de l’explicabilité et l’interprétabilité proposé par Ikram Chraibi Kaadoud chercheuse en IA passionnée de médiation ! Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

    Un petit rappel de contexte

    Dans de nombreux domaines, les mutations technologiques de ces dernières années ont mené à la disponibilité et à la prédominance de données complexes et hétérogènes. Par conséquent, de plus en plus de domaines d’application font appels aux systèmes d’intelligence artificielle (IA) dans le but de comprendre ces données, réaliser des prédictions jusqu’à aider l’humain à prendre des décisions.  Dans notre quotidien, les prises de décisions assistées par  des systèmes d’IA (voir automatisées quand urgence oblige) sont ainsi devenues une réalité quasi-omniprésente : algorithme de recommandation de médias, identification ou reconnaissance d’espèces animales et végétales, détection de pathologies, etc. 

    Dans ce contexte, l’humain, à la fois concepteur et utilisateur de tels systèmes d’IA, est un acteur incontournable. Amené à prendre des décisions basées sur ces systèmes, il engage sa responsabilité dans les choix qu’il effectue ce qui entraîne une exigence forte en termes de transparence et de compréhension des comportements de ces systèmes d’IA. Or, cette compréhension est loin d’être garantie puisque l’explicabilité* des modèles (notamment les propriétés d’interprétabilité des modèles à base de réseaux de neurones) est actuellement un sujet très complexe, objet d’études et de débats au sein même de la communauté scientifique en IA.  Ce qui se traduit par de la méfiance de la part du grand public, face à ces systèmes considérés  comme opaques parfois qualifiés de « boîtes noires ». 

    L’explicabilité* d’une IA vs celle d’un expert: Quand un expert humain prend une décision, il peut expliquer sur quelles connaissances, à partir de quels faits et quelles inférences il a utilisées pour arriver à sa conclusion. On parle d’explicabilité pour un système d’IA quand il peut lui aussi décrire comment a été construite sa décision. Dans certains cas, cette explication peut-être très complexe, voire impossible à appréhender par un humain ; en effet, un système de raisonnement automatisé peut enchaîner un très grand nombre de données, d’inférences qui dépassent de loin la capacité de nos cerveaux. Et c’est d’ailleurs bien pour ça que nous faisons appels à des machines qui ne sont pas intelligentes mais qui savent traiter des masses gigantesques d’informations.

     

    Depuis 2018, l’entrée en vigueur du règlement européen général de protection de données (RGPD), ainsi que les exigences sociétales en faveur de systèmes IA de confiance, ont permis l’essor d’algorithmes d’IA explicables et transparents dans le paysage informatique. Chacune et chacun a, en théorie, le droit et la possibilité d’exiger une explication des processus de traitement automatique de données tels que justement les systèmes d’IA, mais pouvoir le faire au niveau des connaissances de toutes et tous est un défi culturel et pédagogique.

    Cela a eu comme conséquence une explosion des travaux de recherche publiés sur ces sujets (explicabilité, interprétabilité, transparence, éthique, biais), et également une restriction de l’utilisation et l’amélioration d’un certain nombre de modèles existants autant dans l’industrie que – et surtout – dans la recherche.

    Mais qu’est-ce que l’IA explicable (ou XAI pour eXplainable Artificial Intelligence) ?

    En résumé, l’IA explicable peut être considérée comme une solution permettant de démystifier le comportement des systèmes d’IA et les raisons à l’origine de ce dernier. Il s’agit d’un ensemble d’approches et d’algorithmes permettant de proposer, par exemple,  des systèmes d’aide à la décision et d’explication de ces décisions. Expliquer le raisonnement d’un système, avec ses points forts et faibles, ainsi que son potentiel comportement dans le futur est le but de ce domaine. Pourquoi cela ? Entre autres: 1) favoriser l’acceptabilité de ces systèmes en prenant en compte les aspects éthiques et transparents, et le profil de l’utilisateur cible de cette explication, 2) veiller au respect de l’intégrité morale et physique de chacune et chacun, 3) augmenter les connaissances des experts grâce à la connaissance extraite par ces mécanismes d’IA explicable.

    En résumé, la dimension humaine est donc omniprésente depuis la conception jusqu’ à l’utilisation en passant par l’évaluation de modèle d’IA explicable.

    Pour en savoir plus, le blog binaire récapitule  les liens vers les articles que nous avons déjà partagés sur ces sujets :

    Comment comprendre ce que font les réseaux de neurones est le point d’entrée de ce sujet. Voici une série de trois articles grand public pour commencer de Marine LHUILLIER , Ingénieure d’études et Data engineer (spécialiste des données et de leur traitements) :  

     

    Démystifier des systèmes d’IA d’aide à la décision et les expliquer, permet également d’amener une connaissance pertinente à la portée du public ciblé. Un médecin peut donc voir en un système d’IA un moyen d’acquérir plus de connaissances sur une pathologie par exemple. L’IA transparente devient alors un outil d’apprentissage au service d’une expertise. Le Dr Masrour Makaremi nous avait partagé son point de vue sur cet aspect :

     

    Les algorithmes d’explicabilité peuvent être aussi être utilisés dans des contextes très ludiques comme le jeu de bridge. Il s’agit d’un jeu de cartes qui nécessite de maîtriser plusieurs compétences intéressantes à modéliser artificiellement et à démystifier, telles que faire des déductions, émettre et réviser des hypothèses, anticiper les coups de l’adversaire ou encore évaluer les probabilités. Marie-Christine Rousset, Professeur d’informatique à l’Université Grenoble Alpes, se penche et explique comment fonctionne le robot de bridge Nook, développé par NukkAI,  laboratoire privé d’Intelligence Artificielle français dédié aux développements d’IA explicables :

     

    L’IA explicable peut aussi être un moyen de favoriser l’acceptabilité de l’IA dans l’agriculture. Dans ce domaine, où la compétence de terrain est très présente, l’IA peut se révéler être un objet de frustration car elle ne permet pas de comprendre les tenants et les aboutissants. Emmanuel Frénod, mathématicien et professeur à l’Université de Bretagne Sud, au sein du Laboratoire de Mathématiques de Bretagne Atlantique, aborde le sujet de l’intégration d’outils en IA en agriculture et de la problématique des boîtes noires dans ce domaine :

     

    NOTRE PETIT PLUS : UNE NOUVELLE VIDÉO !

    Deux chercheuses en IA de l’IMT Atlantique, Lina Fahed et Ikram Chraibi Kaadoud, sont intervenues à Women Teckmakers Montréal et Québec 2021, un programme mis en place par le Google developpers Group afin de souligner le talent des femmes dans le milieu de l’informatique, de promouvoir la passion et d’accroître la visibilité de la communauté technologique féminine. Ces chercheuses ont ainsi abordé des éléments de réponses aux questions de confiance en IA et ont discuté des concepts de transparence et d’éthique à travers l’explicabilité en IA, un sujet de recherche toujours d’actualité.

    Cette présentation en français (avec des planches en anglais facilement lisibles, nous permettant aussi de se familiariser avec ce vocabulaire anglo-saxon) introduit aux concepts d’explicabilité et d’interprétabilité en IA, et fournit une description des grandes familles de stratégies en explicabilité, y compris d’un point de vue technique.  Il aborde également les difficultés inhérentes au domaine notamment lorsque les données sont hétérogènes (c’est à dire de différents formats) , ou encore en questionnant l’impact éthique et sociétale du sujet au vu de l’omniprésence des systèmes IA dans notre environnement. 

    Ikram Chraibi Kaadoud , chercheuse postdoctorale travaillant actuellement sur le sujet de l’intelligence artificielle eXplainable (XAI) sur des séries temporelles hétérogènes à l’Institut des Mines Télécom Atlantique.

  • L’IA contre l’inaction climatique et pour activer la transition énergétique

     Patricia Gautrin , doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA,   nous présente et discute ici le rôle potentiel de l’IA pour l’inaction climatique et comment cet outil peut aider à activer la transition énergétique. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères sur le lien suivant. Ikram Chraibi Kaadoud et Thierry Viéville.

    Grâce à l’explosion des données sur le climat, l’IA offre des possibilités de visualisation de scénarios nous permettant de prendre conscience de notre inaction climatique. Elle déploie également l’étude des changements climatiques et facilite une transition efficace vers des énergies propres.

    Rappelez-vous de la marche de Montréal pour le climat du 27 septembre 2019, avec Greta Thunberg, de la ferveur des militants rassemblés près du monument George-Étienne Cartier, sur l’avenue du Parc… Mises au pied du mur, nos sociétés réagissent et emboîtent nécessairement le pas vers la transition énergétique. Or, comment atteindre plus rapidement nos objectifs de décarbonation? Comment changer drastiquement nos habitudes et ne plus dépendre des énergies non renouvelables?

    « Prendre d’urgence des mesures pour lutter contre les changements climatiques et leurs répercussions. »– Objectif 13 des Nations Unies

    CONSTAT ALARMANT ET INACTION CLIMATIQUE

    Année après année, nous ne pouvons que constater les effets dévastateurs des changements climatiques. Désormais, ils affectent tous les pays du monde, en perturbant les vies et les économies nationales. Selon le rapport 2021 du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC): « la température de la planète devrait augmenter de 1,5°C dès 2030, soit dix ans plus tôt que la précédente prévision du GIEC. Le GIEC étudie cinq scénarios et le plus pessimiste prévoit un réchauffement compris entre 3,3 et 5,7°C

    « Le niveau des océans s’est élevé de 20 cm depuis un siècle, et le rythme de cette hausse s’est accéléré durant la dernière décennie avec la fonte des calottes glaciaires. D’après les prévisions, la mer pourrait gagner 1 mètre d’ici 2100 et 2 mètres d’ici 2300

    Le GIEC montre que la concentration de gaz carbonique (CO2) dans l’atmosphère depuis 2011 est en moyenne de 410 ppm (parties par million), un niveau jamais atteint depuis 2 millions d’années. Sachons que le CO2 est le principal agent des gaz à effet de serre à l’origine du réchauffement climatique. De plus, les émissions de CO2 sont dues aux énergies fossiles. D’après la NASA, « 19 des années les plus chaudes se sont produites depuis 2000, à l’exception de 1998.»

    « Toute la planète chauffe et certaines régions plus que d’autres. Selon les experts, la fonte des calottes glaciaires constitue un point de rupture. Elle aura des conséquences dévastatrices, radicales et même irréversibles pour la planète et l’humanité », confirme le GIEC. L’inaction climatique finira par nous coûter bien plus que de s’engager dans la transition énergétique. Cependant, réduire les émissions de gaz à effet de serre, tout en renforçant la résilience climatique, ne peut que créer prospérité et vie meilleure.

    L’IA POUR VISUALISER LES IMPACTS DU CLIMAT

    L’apprentissage automatique permet de scénariser et d’amplifier nos gestes pour voir où nous mènerait l’inaction climatique. Alors, pour visualiser l’effet des changements climatiques sur une zone donnée, une équipe de recherche en intelligence artificielle du Mila a développé un site Web. Le site Ce climat n’existe pas génère un filtre réaliste de l’effet des changements climatiques à partir de Google Street View.

    Cette expérience nous permet de voir les scénarios envisageables si l’inaction climatique demeure le réflexe global. Conçu par une classe d’algorithmes d’apprentissage automatique, ce projet a mobilisé des spécialistes et de collaborateurs sous la direction de Yoshua Bengio.

    L’IA AMASSE DES DONNÉES SUR LE CLIMAT

    Les données amassées sur le climat sont de plus en plus nombreuses et leur variété de même que leur hétérogénéité s’amplifient. Or, les méthodes de traitement et d’analyse deviennent de plus en plus complexes.

    Grâce à de nouveaux capteurs, nous avons accès aux données satellitaires, aux stations météorologiques et aux simulations qui nous permettent de faire des observations climatiques sans pareil. De surcroît, les données de production et de consommation d’énergie sont de plus en plus accessibles. Cependant, de grands défis persistent quant à l’extraction de ces données et à leur analyse. L’apprentissage statistique offre alors de bons outils de calcul.

    L’IA POUR ANALYSER LE CLIMAT

    Bien que nous soyons souvent témoin de prévisions météorologiques fautives, les estimations sur les variations climatiques sont beaucoup plus fiables, car elles reposent sur des données stables, comme les saisons ou la géographie.

    « On peut prévoir le climat alors même qu’on ne sait pas prévoir la météo au-delà de quelques jours.» – Olivier Talagrand, directeur de recherche émérite CNRS au Laboratoire de Météorologie Dynamique.

    L’IA engendre une approche pilotée par les données, pour extraire les caractéristiques primordiales du climat. Ce qui permet de procéder à la classification :

        • des régimes météorologiques ;
        • des modes de variabilité climatique ;
        • des chaînes de causalité.

    ANALYSE DE CAS EXTREMES

    L’IA offre également la possibilité d’analyser et de simuler des cas extrêmes, parfois très impactants. Elle permet de déceler ces conditions climatiques extrêmes et leurs changements, et ensuite de modéliser les relations entre extrêmes météorologiques. Enfin, l’analyse peut montrer les impacts potentiels sur les sociétés ou sur les écosystèmes de ces situations extrêmes. On procède alors à une analyse de la chaîne de causalité de ces extrêmes.

    LA MODELISATION CLIMATIQUE

    L’IA permet l’élaboration de paramètres physiques, comme la convection, le rayonnement ou encore la micro-physique, pour produire des modèles climatiques. Ces modèles sont alors fondés sur des méthodes d’apprentissage de type physics-inspired AI (IA inspirée par la physique).

    En effet, une intelligence artificielle pure, ou sans contrainte physique, n’est pas pertinente dans le cas des changements climatiques et ne fournit pas de bonnes extrapolations ou généralisations. Elle doit être alimentée par des données physiques.

    L’IA POUR ACTIVER LA TRANSITION ÉNERGÉTIQUE

    Tout d’abord, il faut comprendre que les données climatiques seraient inexploitables sans l’intelligence artificielle. Puis, sachons que l’IA est en mesure de développer des scénarios de transition énergétique.

    « L’IA sera utilisée dans la supervision et le contrôle du trafic des véhicules autonomes dans le but de réduire l’empreinte énergétique et environnementale des transports.» – Institut EuropIA

    Les actions concrètes permises par l’IA:

        • Modélisation de la topologie des réseaux
        • Gestion de contraintes comme l’intermittence
        • Modélisation du comportement des consommateurs et des producteurs
        • Estimation des modèles prédictifs profonds de séries temporelles
        • Identification des ressources renouvelables
        • Gestion du réseau pour assurer son équilibre optimal, sa résilience et sa flexibilité

    Comment une entreprise peut-elle lutter contre les changements climatiques avec l’IA ?

    Les entreprises peuvent faire partie de la solution en s’engageant à décarboner leurs activités et chaînes d’approvisionnement. Pour ce faire, elles peuvent :

        • améliorer leur efficacité énergétique par des calculs prévisionnels ;
        • réduire l’empreinte carbone de leurs produits, services et processus grâce aux données recueillies et aux analyses ;
        • fixer des objectifs de réduction des émissions en phase avec les recommandations des spécialistes du climat ;
        • augmenter leurs investissements dans le développement de produits, services et solutions sobres en carbone ;
        • automatiser la chaîne d’approvisionnement.

     

    En somme, l’IA transforme complètement le monde de l’énergie et de l’environnement, grâce aux performances de l’apprentissage et aux capacités phénoménales de traitement massif de données. La mobilité change grâce à la conduite autonome. La gestion globale de la demande énergétique et des systèmes complexes, comme la production décentralisée d’énergie renouvelable ou l’optimisation de procédés industriels, ce fera grâce à l’IA.

    « L’électrification croissante du mix énergétique et la diversification des sources de production, intermittentes, variables, distribuées, les multiples techniques algorithmiques incluant l’IA engendrent un formidable potentiel de nouvelles fonctionnalités au service des secteurs de l’énergie, de la mobilité et de l’environnement grâce à des moyens de communication autorisant des transferts massifs de données et à l’augmentation phénoménale des puissances de calcul », selon l’Institut EuropIA.

    L’intelligence artificielle est source d’innovation. Elle attire le monde des start-ups et transforme radicalement « tant l’offre d’énergie que le rapport du citoyen à son usage de l’énergie. »

    Autres articles sur le même thème :

     

    Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.

     

  • Robotique développementale, ou l’étude du développement des connaissances dans une Intelligence Artificielle

    Intelligences naturelles et artificielles peuvent apprendre les unes des autres. De nombreux algorithmes s’inspirent de notre compréhension des mécanismes du vivant et les modèles utilisés en intelligence artificielle peuvent en retour permettre d’avancer dans la compréhension du vivant. Mais comment s’y retrouver ? Donnons la parole à Ikram CHRAIBI KAADOUD qui nous offre ici un éclairage. Pascal Guitton et Thierry Viéville.

    Cet article est publié conjointement avec le blog scilog qui nous offre ce texte en partage. Une version en anglais est disponible au lien suivant

    Apprendre à apprendre, une problématique IA  mais pas seulement

    Photo de Andrea De Santis de Unsplash

    Il est souvent dit et admis que de nombreux algorithmes s’inspirent du vivant et qu’inversement l’artificiel peut permettre d’avancer la compréhension du vivant*.

    S’inscrivant dans cette démarche, le développement des connaissances chez les humains est un domaine qui a été largement étudié par exemple,   par des méthodes informatiques utilisant des approches d’apprentissage automatique (Machine Learning) ou encore des approches robotiques (Cangelosi, 2018). L’objectif:  réaliser des algorithmes ou robots flexibles et performants capables d’interagir efficacement avec les humains et leur environnement.

    * Attention cher lecteur, chère lectrice, s’inspirer du vivant n’implique pas de créer un double artificiel ; par exemple mimer ou dupliquer:  la conception d’avions peut s’inspirer des oiseaux mais ce n’est pas pour autant que les avions battent des ailes !

    L’un des défis principaux qui existe lors d’une interaction humain-machine est la prise en compte de la variabilité de l’environnement. Autrement dit l’évolution du contexte de l’interaction. Une réponse d’une machine pertinente à un instant donné, ne sera peut-être plus la bonne quelques instants plus tard. Cela peut être dû à l’environnement (changement de lieu, d’horaire) ou à l’individu avec lequel la machine interagit. 

    Par exemple, si je vous dis « Mon train est dans 10 min » et que je suis à l’autre bout de la ville (la gare étant à l’opposé de ma localisation), il est évident que celui-ci partira sans moi. Si je suis devant la gare, alors il serait adéquat de me dépêcher ! Enfin si je suis dans le train au moment où je prononce ces mots, alors tout est bon pour moi !*
    *Merci au Dr. Yannis Haralambous, chercheur en Traitement du langage naturel, fouille de textes et grapho linguistique de IMT atlantique et l’équipe DECIDE du LAB-STICC, CNRS pour le partage de cet exemple 

    La compréhension du contexte et son assimilation est un sujet à part entière entre humains et par extension, également entre Humains et Machine.

    Alors comment faire pour qu’une machine apprenne seule à interagir avec un environnement changeant ? Autrement dit, comment faire pour que cet agent apprenne à raisonner : analyser la situation, déduire ou inférer un comportement, exécuter ce dernier, analyser les résultats et apprendre de sa propre interaction ?

    Il existe déjà nombre de travaux dans les domaines de l’apprentissage par renforcement en IA qui s’intéressent aux développements d’agents artificiels, ou encore de la cobotique où le système robotique doit prendre en compte la localisation des opérateurs humains pour ne pas risquer de les blesser. Mais il existe aussi des approches qui tendent à s’inspirer de la cognition et notamment de celle des enfants :  les approches de robotique développementale.

    “L’un des paradigmes les plus récents, la robotique développementale, propose de s’intéresser non pas à l’intelligence « adulte » d’un individu capable de résoudre a priori une large classe de problèmes, mais plutôt d’étudier la manière dont cette intelligence se constitue au cours du développement cognitif et sensori moteur de l’individu. On ne cherche pas à reproduire un robot immédiatement intelligent, mais un robot qui va être capable d’apprendre, en partant au départ avec un nombre réduit de connaissances innées. Le robot apprend à modéliser son environnement, les objets qui l’entourent, son propre corps, il apprend des éléments de langage en partant du lexique jusqu’à la grammaire, tout cela en interaction forte à la fois avec le monde physique qui l’entoure mais également au travers d’interactions sociales avec les humains ou même d’autres robots. Le modèle qui préoccupe le chercheur en intelligence artificielle n’est plus le joueur d’échec, mais tout simplement le bébé et le jeune enfant, capable d’apprendre et de se développer cognitivement.”
    Extrait de la page de présentation d’une série de conférences sur ce sujet en 2013 : https://x-recherche.polytechnique.org/post/Conf%C3%A9rence-Robotique-D%C3%A9veloppementale

    Quelques définitions avant d’aller plus loin ! 

    Reprenons d’abord quelques définitions avant d’aborder ce sujet passionnant de cognition artificielle.

    Alors qu’est-ce que l’apprentissage par renforcement, ou Reinforcement Learning ? Il s’agit d’un domaine de l’apprentissage automatique, Machine Learning, qui se concentre sur la façon dont les agents artificiels entreprennent des actions dans un environnement par la recherche d’un équilibre entre l’exploration (par exemple, d’un territoire inexploré) et l’exploitation (par exemple, de la connaissance actuelle des sources de récompense)(Chraibi Kaadoud et al, 2022). Ce domaine aborde la question de la conception d’agents autonomes qui peuvent évoluer par l’expérience et l’interaction (Sutton, Barto, et al., 1998).

    Le second concept à éclaircir est celui de Robotique :

    La robotique est un domaine scientifique et industriel qui a pour objet d’étude le robot en lui-même. Cela englobe, ses performances, ses caractéristiques énergétiques, électroniques, mécaniques et même automatiques.  

    La cobotique est un domaine scientifique qui étudie les systèmes hommes-robots collaboratifs. Un cobot se définit donc comme un robot collaboratif travaillant dans le même espace de travail que l’humain. Par exemple, un robot jouet ou robot d’accueil. La cobotique est très proche de la robotique, cependant elle n’englobe pas toutes les problématiques de la robotique. En effet, en cobotique, le cœur du sujet est la perception du cobot de son environnement, son interaction avec l’humain et inversement, la perception, l’interaction et l’acceptabilité de l’humain de son cobot. La cobotique se distingue par un volet ergonomie et ingénierie cognitique, absente de la robotique.

    La cobotique est donc de nature pluridisciplinaire et se situe à l’intersection de trois domaines : robotique, ergonomie et cognitique (Salotti et al, 2018). Notons que la cobotique n’est pas directement liée au sujet de la robotique développementale mais il est essentiel de distinguer ces deux sujets, d’où cette petite parenthèse.

    Enfin cela nous amène à la robotique développementale ou Developmental robotics. Ce domaine est aussi connu sous d’autres synonymes : cognitive developmental robotics, autonomous mental development, ainsi que epigenetic robotics.

    Ce champ de recherche est dédié à l’étude de la conception de capacités comportementales et cognitives des agents artificiels de manière autonome. Autrement dit, ce domaine s’intéresse au développement des comportements de robots et de leur représentation du monde avec lequel ils interagissent et de tout ce qui a trait à leur connaissance.

    Intrinsèquement interdisciplinaire, ce domaine s’inspire directement des principes et mécanismes de développement observés dans les systèmes cognitifs naturels des enfants. 

    Photo de Ryan Fields de Unsplash

    En effet, quoi de plus curieux et autonome qu’un enfant dans la découverte de son monde ?

     Ce domaine tend ainsi à s’inspirer du développement des processus cognitifs des enfants pour concevoir des agents artificiels qui apprennent à explorer et à interagir avec le monde comme le font les enfants (Lungarella, 2003; Cangelosi, 2018).

    Comment ? L’approche traditionnelle consiste à partir des théories du développement humain et des animaux appartenant aux domaines de la psychologie du développement, des neurosciences, du développement, de la biologie évolutive, et de la linguistique pour ensuite les formaliser et implémenter dans des robots ou agents artificiels.

    Attention, précisons que la robotique développementale est disjointe de la robotique évolutionnelle qui utilise des populations de robots interagissant entre eux et qui évoluent dans le temps.

    En quoi la robotique développementale est intéressante ?

    Afin d’avoir des agents artificiels qui évoluent et s’adaptent au fur et à mesure de leur expérience, des chercheurs se sont attelés à observer des enfants à différents stade de leur apprentissage et le développement de cette capacité d’apprentissage. Les nourrissons en particulier créent et sélectionnent activement leur expérience d’apprentissage en étant guidés par leur curiosité. Des travaux se sont donc penchés sur la modélisation de la curiosité en IA afin de déterminer l’impact de celle-ci sur l’évolution des capacités d’apprentissage des agents artificiels (Oudeyer et Smith, 2016). Les domaines d’applications sont nombreux et peuvent permettre par exemple la conception de robots capables d’apprendre des choses sur le long terme et d’évoluer dans leur apprentissage ou encore des algorithmes performants capables de générer des explications adaptées au contexte en langage naturel par exemple.

    Au-delà de la conception d’agents intelligents, l’expérimentation de ces modèles artificiels dans des robots permet aux chercheurs de confronter leur théorie sur la psychologie du développement à la réalité et ainsi confirmer ou infirmer leur hypothèse sur le développement des enfants par exemple. La robotique développementale peut ainsi être un outil d’expérimentation scientifique et d’exploration de nouvelles hypothèses sur les théories du développement humain et animal. Un outil au service de l’enfant, s’inspirant de ce dernier.

    Une meilleure compréhension du développement cognitif humain et animal, peut permettre alors de concevoir des machines (robots, agents artificiels) adaptées à l’interaction avec des enfants au fur et à mesure qu’ils grandissent et que leur contexte évolue. Cela permet également de créer des applications plus adaptées aux enfants dans les technologies éducatives comme le montre le schéma “Qu’est ce que la robotique développementale ?”.

    Au-delà de l’interaction humain-machine, ce domaine passionnant amène à se poser également des questions sur la curiosité artificielle, la créativité artificielle et même celle de la question de la motivation d’un agent artificiel ou robot ! Autrement dit, la robotique développementale permet également des découvertes scientifiques au service de la compréhension du développement cognitif des enfants et celui de la conception d’agents ou machines artificiels qui apprennent à apprendre tout au long de leur expérience.

    Schéma: Qu’est ce que la  robotique développementale ? l’alliance de modèle de sciences cognitives et d’intelligence artificielle au service de la compréhension du développement cognitif et de l’apprentissage autonome tout au long de la vie. Images: @Pixabay

    Que retenir ?

    La conception d’une interaction humain-machine réussie est une quête en soit pour laquelle différentes approches sont possibles : celle de l’apprentissage par renforcement qui se focalise sur l’agent artificiel comme objet d’étude dans un contexte donné, celle de la robotique qui se focalise sur le robot en tant que sujet d’étude d’un point de vue mécanique et logiciel, et enfin celle de la robotique développementale qui s’inspire du développement cognitif des enfants afin de créer des machine/agents artificiels flexibles, adaptée et adaptable qui évoluent. Cette épopée en est à ses prémisses et de nombreuses découvertes sont encore à venir. Toutefois retenons une chose : comment apprendre à apprendre est bien une question autant d’humains que de robots ! 

    Références & pour en savoir plus :

    Cangelosi, A., Schlesinger, M., 2018.  From babies to robots:  the contribution of developmental robotics to developmental psychology.  Child Development Perspectives 12, 183–188.

    Chraibi Kaadoud, I., Bennetot, A., Mawhin, B., Charisi, V. & Díaz-Rodríguez, N. (2022). “Explaining Aha! moments in artificial agents through IKE-XAI: Implicit Knowledge Extraction for eXplainable AI”. Neural Networks, 155, p.95-118. 10.1016/j.neunet.2022.08.002 

    Droniou, A. (2015). Apprentissage de représentations et robotique développementale: quelques apports de l’apprentissage profond pour la robotique autonome (Doctoral dissertation, Université Pierre et Marie Curie-Paris VI).

    Lungarella, M., Metta, G., Pfeifer, R., Sandini, G., 2003.  Developmental robotics:  a survey.  Connection science 15,151–190.

    Oudeyer, P. Y., & Smith, L. B. (2016). How evolution may work through curiosity‐driven developmental process. Topics in Cognitive Science, 8(2), 492-502.

    Padois Vincent (2011) Dossier « iCub et les robots de services » pour le site www.Futura-sciences.com URL : https://www.futura-sciences.com/tech/dossiers/robotique-icub-robots-service-1143/

    Salotti, J. M., Ferreri, E., Ly, O., & Daney, D. (2018). Classification des systèmes cobotiques. Ingénierie cognitique, 1(1). https://hal.archives-ouvertes.fr/hal-01943946