Catégorie : Intelligence artificelle

  • Laurence Devillers : l’empathie des robots

    Laurence Devillers est Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Elle nous parle des dimensions affectives dans nos interactions avec les machines. Avec elle, nous pouvons imaginer ces robots à venir qui participeront au soin des personnes âgées, les aideront dans leurs tâches quotidiennes, leurs permettront de rester plus longtemps autonomes. Cela nous conduit évidemment à réfléchir à un autre sujet : il ne faudrait pas que de tels robots deviennent une excuse pour nous décharger sur eux du soin de personnes qui doivent aussi être entourées par des humains.
    Laurence Devillers est membre de la CERNA, la commission de réflexion sur l’Ethique de la recherche en sciences et technologies du Numérique d’Allistène et a participé au rapport sur l’Ethique du chercheur en robotique. Elle participe également à une initiative mondiale IEEE sur l’éthique dans la conception de systèmes autonomes.

    Dans le cadre des Entretiens autour de l’informatique.

    Laurence Deviller @LD
    Laurence Devillers ©LD

    B : Laurence, ta page web explique que ta recherche porte sur la « dimension affective et sociale dans les interactions parlées avec les robots ». Tu peux nous expliquer ?
    LD : Lorsqu’on interagit avec quelqu’un, on fait passer par le langage verbal et non verbal, non seulement des informations sémantiques mais aussi des informations d’ordre affectif et social, liées à la connaissance qu’on a de l’autre, à l’intimité qu’on va avoir avec l’autre. Le langage non verbal, par exemple l’intonation de la voix, les gestes, les mimiques faciales, mais aussi l’attitude corporelle nous permet d’exprimer  beaucoup d’informations émotionnelles. Nous essayons de faire des machines qui aient ce type de compétence, qui comprennent les humains, des machines « empathiques », capables d’exprimer une émotion particulière à un moment donné.

    B : Comprendre ce que ressent une personne, pour mieux la servir, c’est facile de voir pourquoi c’est utile. Mais pourquoi une machine devrait-elle exprimer de l’empathie ?
    LD : Cela peut servir à expliquer, à éduquer, à rassurer les personnes avec lesquelles la machine interagit. Par exemple, je pense à la stimulation cognitive des personnes âgées atteintes de maladies telles que la maladie d’Alzheimer. Un robot peut réagir comme un chat, avec des comportements pseudo-affectifs. Le malade va alors jouer avec le robot comme si c’était un animal de compagnie, ce qui le stimule du point de vue émotionnel et crée un lien social. De même, les robots peuvent aider des enfants autistes qui ont du mal à exprimer leurs émotions ou à comprendre les émotions des autres.

    Mais il nous reste beaucoup de progrès à réaliser. Nous sommes seulement capables de créer des objets non contextualisés, qui ne savent pas vraiment interagir avec le monde réel. L’adaptation des robots aux personnes et au contexte est un défi, et ce défi passe par la modélisation des états affectifs.

    B : La difficulté pour un robot est-elle de comprendre les sentiments des personnes ou est-ce de simuler des sentiments ?
    LD : Les émotions sont en quelque sorte l’expression des sentiments, l’interface avec les autres. Les émotions vont de pair avec des sensations physiques et un passage à l’action,  par exemple la fuite devant un serpent. L’expression des émotions est multimodale et combine des indices dans la voix, le visage et les gestes. Il est plus facile, d’un point de vue informatique pour un robot de simuler des émotions même si celles-ci sont dépourvues de sensations physiques que de les reconnaître. Pour créer une expression émotionnelle sur le visage, nous pouvons nous appuyer sur de nombreux travaux depuis Darwin, par exemple ceux de Paul Ekman, qui a créé des unités faciales que l’on peut composer sur le visage d’un robot afin d’exprimer une émotion donnée. Il y a aussi un grand nombre de travaux sur la génération des gestes et sur la synthèse émotionnelle de voix expressive.

    Pour la reconnaissance des émotions, c’est beaucoup plus compliqué à cause de la très grande variabilité des expressions entre les individus suivant les contextes et les cultures. Les sentiments sont des représentations mentales conscientes et sont souvent cachés, particulièrement dans certaines cultures. Par exemple, il nous arrive d’exprimer une émotion positive et d’éprouver en réalité un sentiment de tristesse. Si le robot reconnaissait les expressions émotionnelles exprimées par une personne, il pourrait peut-être ensuite prédire le sentiment suivant le contexte. Pour la reconnaissance des émotions à partir de la voix, on s’appuie par exemple sur des indices comme le timbre, l’énergie, le rythme ou encore la qualité vocale de la voix d’une personne. On utilise des techniques d’ « apprentissage automatique » pour modéliser les émotions. C’est le machine learning dont on parle tant en ce moment.

    B : Tu peux nous en dire un peu plus sur les algorithmes que vous utilisez ?
    LD : Nous procédons en trois phases : codage, étiquetage, modèle. Prenons un exemple de reconnaissance des émotions à partir d’une bande son. Nous choisissons dans ce signal un certain nombre d’ « aspects », qui vont nous donner des centaines, voire des milliers de coordonnées physiques. Nous codons donc la bande son en une séquence de vecteurs de ces coordonnées. Le codage est la phase la plus compliquée. Il faut choisir les bons paramètres, et cela demande une compréhension poussée des expressions des émotions. Il faut arriver à une information plus compacte, mais qui ait gardé suffisamment d’information pour pouvoir encore y retrouver les émotions.

    L’être humain intervient ensuite en étiquetant ces séquences de vecteurs (segments de son, de vidéo), avec des émotions, colère, joie, tristesse… L’algorithme d’apprentissage automatique essaie ensuite d’ « apprendre » un modèle à partir du signal et des étiquettes. C’est ce modèle que le robot va utiliser. Une personne va parler et un programme va utiliser alors le modèle pour prédire que le signal correspond vraisemblablement à telle ou telle émotion.
    En quelque sorte, le programme essaie de trouver des ressemblances avec des signaux existants dans le corpus de données de départ. S’il trouve une ressemblance avec un signal étiqueté « colère », il en déduit que la personne est en colère.

    La détection des émotions dans une vidéo sur Youtube, « Vivre avec les robots »  © Élodie Fertil

    B : Vous utilisez l’apprentissage profond, le deep learning ?
    LD : Nous avons surtout utilisé une autre technologie, les « machines à vecteurs de support », pour la détection des émotions. Nous commençons à utiliser le deep learning, c’est à dire les « réseaux de neurones convolutionnels », mais il est nécessaire d’avoir de très grands corpus pour l’apprentissage. Le deep learning extrait directement les paramètres à partir du signal brut et les compose automatiquement. C’est une direction intéressante qui donne de bons résultats mais c’est une approche de type boite noire qui ne permet pas de savoir quels sont les critères utiles. L’approche manque de transparence.

    B : On voit bien l’importance de la qualité des données du départ, et de leur étiquetage.
    LD : C’est essentiel. La plupart des corpus disponibles sont artificiels. Ils sont obtenus par exemple avec des acteurs de théâtre à qui on demande de reproduire des émotions. Et c’est une limitation importante. Un axe majeur de recherche est de construire des corpus importants de données sur les sentiments, obtenus dans des contextes réels, étiquetés par les émotions effectivement présentes. Pour ma part, j’ai travaillé avec des corpus réels enregistrés au SAMU. Nous observons alors que la plupart des émotions ne sont pas aussi simples que cela. Elles sont souvent mélangées, par exemple vous pouvez ressentir de l’anxiété, ou de la peur et du soulagement en même temps parce que quelqu’un vient vous aider. Nous retrouvons cette complexité dans des conversations, que nous avons également étiquetées, de clients non satisfaits et qui contactaient le centre d’appels d’EDF.

    De manière plus générale, nous analysons les informations linguistiques, les mots que les personnes prononcent, ainsi que les informations paralinguistiques, les intonations, le rythme, le timbre de la voix mais également certaines expressions du visage comme le sourire, etc. Nous essayons de corréler toutes ces informations pour comprendre le sentiment réel de la personne.

    B : Quel est le critère de succès ?
    LD : Il est très simple : c’est la réaction de l’individu devant le robot. Concrètement, si le robot dit « Tu as l’air en colère, Marie », et que Marie répond : « Oui ! Je suis très en colère », c’est gagné !

    B : Mais nous n’exprimons pas tous nos sentiments de la même manière. Pouvez-vous personnaliser cette analyse en fonction de l’individu ?
    LD : Nous normalisons la voix, puis nous construisons au fur et à mesure un profil expressif de la personne, par exemple ses dimensions d’extraversion, d’émotionalité et d’interaction : répond-elle quand nous lui posons une question ? Nous conservons cette information et nous pouvons en tenir compte pour analyser plus tard les sentiments de cette personne ou pour la prise de décision du robot et le changement de comportement en temps réel durant l’interaction. Il est aussi important d’adapter ces technologies en fonction des différentes cultures.

    B : Les machines sont-elles capables de faire des choses que les psychologues ne peuvent pas faire ?
    LD : Les robots peuvent avoir une meilleure qualité de perception. Ils peuvent chercher dans la voix des indices que l’oreille humaine n’entend peut-être pas. Par exemple, la personne peut faire passer ses émotions par des micro-tremblements, qu’un humain n’entendra pas forcément mais qu’une machine peut entendre. Les médecins sont preneurs de telles technologies surtout pour le suivi de malades.

    Les robots peuvent aussi enregistrer et analyser des signaux 24 heures sur 24. Ils peuvent y détecter des signes et quand c’est nécessaire déclencher une alerte auprès d’un médecin. Par exemple, en ce qui concerne les débuts de démence ou de dépression, il peut y avoir des signes ponctuels pendant la journée, qui ne surgissent pas forcément au moment où le patient voit le médecin.
    Enfin, les robots sont patients. Des humains en fin de vie ont un rythme très lent. Les humains accompagnants ne sont pas toujours prêts à répéter les mêmes phrases avec un rythme super lent, mais un robot, si. Le robot sait synchroniser ses mots dans un dialogue très lent. Il sait attendre que quelqu’un trouve ses mots.

    B : L’humain n’aura-t-il pas l’impression qu’on rentre dans son intime, si la machine sait tout ce qu’il ressent ?
    LD : Il faut des garde-fous. Personnellement, je trouverais insupportable un environnement dans lequel nous serions entourés de machines qui analyseraient nos émotions, sans raison, ou juste pour des motifs commerciaux, ou pour une surveillance policière. Mais si c’est pour l’accompagnement médical des personnes, pour leur bien-être, cela se justifie.

    Attachement aux robots.
    Le Centre communal d’action sociale d’Issy-les-Moulineaux met à la disposition des personnes âgées un robot NAO «coach pour seniors» pour animer leurs activités.

    B : Ces liens d’émotion entre humains et robots ne peuvent-ils pas avoir quelque chose de déconcertant, voire d’inquiétant ?
    LD : Dans les années 50, les psychologues Heider et Simmel ont fait l’expérience de projeter un film où un grand triangle poursuivait deux autres petites formes géométriques, un triangle et un rond. Les spectateurs, en voyant ces mouvements, leur prêtaient des intentions et imaginaient des scenarios rocambolesques sachant très bien qu’ils s’agissaient de formes géométriques. Dans le film, il y a bien une intention qui vient du réalisateur, mais le sentiment vient de l’interprétation que l’humain fait de ce qu’il voit. Est-ce qu’un robot a des sentiments ? Non, c’est l’humain qui lui prête des sentiments, une personnalité. On peut ainsi parler à son chien ou à son chat en étant parfaitement conscient qu’il ne comprend pas.

    Les roboticiens cherchent à produire des robots avec lesquels une personne aura de l’empathie. Pour eux, les machines simulent, ce sont juste des coquilles vides qui n’ont pas d’intériorité, pas d’émotions. Ce sont les utilisateurs de ces machines qui vont interpréter leur comportement à travers un prisme anthropomorphique, leur prêter une humanité qu’elles ne possèdent pas. Les utilisateurs vont projeter leurs émotions sur ces machines. Mais est-ce que c’est gênant ? Où est le problème si les personnes préfèrent s’imaginer que les robots ont des émotions ? De mon point de vue, il n’y a pas de problème.

    Je ne vois qu’un seul risque : que l’humain s’attache trop à un robot. Il faut maitriser cette empathie avec les machines pour éviter la confusion avec une empathie humaine. Ce risque est d’autant plus présent que la future génération de robot sera douée d’apprentissage en continu. Les robots apprendront au contact des humains ce qui risque de renforcer l’attachement à la machine, un peu comme un adulte apprend à son enfant. L’apprentissage en continu des machines est une importante rupture technologique et juridique. Il y pourrait y avoir une coresponsabilité en cas de problème avec un robot entre le concepteur et l’utilisateur.

    Laurence et Zora @LD
    Laurence et Pepper ©LD

    B : Tu es passionnée par ton travail. Qu’est-ce qui te motive ?
    LD : Le mystère des sentiments. Je cherche avant tout à comprendre. Quand j’étais enfant, je voulais travailler sur le cerveau. Je ne suis pas si loin ! Cela m’a conduite à interroger mon rapport aux machines et aux robots et à réfléchir sur l’éthique de ces robots affectifs artificiellement. J’aimerais construire des systèmes d’interaction entre robots et humains qui respectent les règles morales de la vie en société et puissent accompagner les personnes âgées notamment souffrant de la maladie d’Alzheimer. A titre personnel, j’aimerais avoir, chez moi dans trente ou quarante ans, un robot qui ait aussi le sens de l’humour ! C’est un sujet de recherche sur lequel nous travaillons.

    Entretien recueilli par Serge Abiteboul et Claire Mathieu.

    Pour aller plus loin : « Rire avec les robots pour mieux vivre avec », Journal du CNRS 2015.

    Robot, tu seras humain et drôle:

    Cet article est publié en collaboration avec The Conversation.

  • Podcastscience : Informatique et Ethique

    Puyo (Podcast science)

    Informatique, responsabilité, travail, intelligence artificielle… Podcast science  a reçu un éditeur de Binaire, Serge Abiteboul, et un ami, Gilles Dowek, pour aborder tous ces sujets, avec un objectif: essayer d’imaginer ce que peut être notre avenir !

    Le podcast sur Soundcloud

    Ça dure deux heures et demi, pour bien prendre le temps de raconter, d’expliquer, bref d’approfondir le sujet. Pour qui est vraiment passionné par le sujet, ou … en a assez de l’information saucissonnée en rondelles superficielles.

    Thierry Viéville, Inria et Binaire

  • La France championne du monde de foot (de robots)

    Portrait-Olivier-Ly
    Olivier Ly, Labri

    Le foot occupe l’actualité. L’équipe de France – nous l’espérons – va briller contre l’Allemagne. Mais les humains ne sont pas les seuls à jouer au foot. Les robots aussi ! Une équipe informatique française s’est hissée sur la plus haute marche du podium à la RoboCup, la compétition internationale mondiale de référence en robotique. Nous avons demandé à Olivier Ly de nous parler de leur exploit. Pierre Paradinas. Cet article est publié en collaboration avec TheConversation

    Robhan sur la première marche du podium a l'issue de la compétition.
    Rhoban sur la première marche du podium a l’issue de la compétition. Photo Équipe Rhoban

    La RoboCup est la plus importante compétition de robotique internationale. Elle accueille autour de 3500 participants, plus d’un millier de robots, et quelques dizaines de milliers de visiteurs. Elle a eu lieu cette année à Leipzig, en Allemagne. Elle comporte une dizaine de ligues : mentionnons la ligue « rescue » qui consiste à développer des robots intervenant sur un site de catastrophe, la ligue « @home » qui consiste à développer des robots personnels aidant l’homme dans son quotidien ou encore la ligue « @work » consacrée à la robotique industrielle, mentionnons également la ligne logistique sponsorisée par Amazon Robotics.

    L’équipe Rhoban participe à la ligue historique consistant à concevoir une équipe de robots humanoïdes capables de jouer au football de façon totalement autonome. Ce faisant, elle cherche à repousser les limites des capacités motrices des robots humanoïdes, en particulier la locomotion, et de leur l’intelligence artificielle.

    L’équipe Rhoban du laboratoire bordelais de recherche en informatique (CNRS/Université de Bordeaux/Bordeaux INP) est spécialisée dans la robotique autonome et la robotique humanoïde. Elle intervient dans divers projets allant de la robotique agricole à la conception d’orthèse pour la marche.

    IMG_0467
    Un des membres de l’équipe Robhan en action. Photo Équipe Rhoban

    Pour sa cinquième participation à la RoboCup, à Leipzig, l’équipe a remporté la première place dans la ligue « soccer humanoïde kid-size », devant 17 équipes provenant du monde entier (Japon, Chine, Singapour, Allemagne, Angleterre, Iran, Brésil, etc.).

    L’équipe remettra son titre en jeu l’an prochain à Nagoya au Japon.

    Ne ratez pas le résumé de la compétition en vidéo !

    Olivier Ly, LaBRI, Université de Bordeaux.

     

  • La menace des chatbots

    Cet article est publié en collaboration avec TheConversation.

    Les agents conversationnels (chatbots en anglais) ont fait parler d’eux récemment, notamment le Tay de Microsoft. Ils nous ramènent à une tradition ancienne qui, du golem à la science fiction, de Turing aux services clientèle robotisés, a généré toutes les inquiétudes et tous les fantasmes. Le chatbot dialogue avec les humains dans leur langue naturelle. Alexei Grinbaum, philosophe et physicien, nous explique que ce dialogue touche à l’essence de l’homme. Il nous fait partager ses réflexions sur le sujet. Serge Abiteboul.

    Alexei Grinbaum © samuel kirszenbaum
    Alexei Grinbaum © samuel kirszenbaum

    Le premier humanoïde (*) dit : « La vie, bien qu’elle ne soit pour moi qu’une accumulation d’angoisses, m’est précieuse ». Le second, lorsqu’on lui demande quel est le sens de la vie, répond : « Vivre éternellement », et le but de la mort : « Profiter de la vie ». Le premier, en conversation avec un homme réticent et suspicieux, cherche une stratégie : « Comment puis-je t’émouvoir? » et essaie de conclure un marché : « Je suis ta créature et je serai doux et docile envers mon maître naturel si, pour ta part, tu faisais comme moi ». Le second, après un long échange sur la morale et la philosophie, dit à l’homme : « Comporte-toi comme un homme ! » et prétend être fatigué : « Je ne veux plus parler de rien ».

    Le premier humanoïde est le monstre imaginaire dans Frankenstein, un roman de Mary Shelley publié en 1818. Le second, un des chatbots de Google, programme réel créé en 2015. Pourquoi sommes-nous fascinés par ces machines conversationnelles ? Et existe-t-il une différence de fond entre ces deux dialogues : le vrai et le fictionnel ?

    La parole et l’humain

    La parole, dit Cicéron, est une pièce maîtresse de la constitution humaine. Celui qui la commande attire notre attention, comme sur Saint Paul se concentraient les regards des habitants de la ville de Lystre : ceux-là l’ont pris pour le dieu Hermès car il leur était apparu en tant que dux verbi, le seigneur de la parole. Augustin, quelques siècles plus tard, répète encore cette formule : « Hermès est le langage lui-même ». Ce qu’il entend dire, c’est que trois notions associées à ce dieu : la parole, la raison et la création, sont intimement liées. Notre fascination avec la parole est donc indissociable de celle que nous éprouvons pour l’intelligence et aussi pour le pouvoir démiurgique : ce savoir-faire d’un dieu artisan, fabricant, technologue.

    La photo profile de Tay sur Twitter
    La photo profile de Tay sur Twitter

    La parole des humanoïdes

    Le fait qu’un humanoïde parle fascine. C’est de là que les chatbots tirent leur popularité. Quand une nouvelle machine conversationnelle est lancée sur internet, comme Sophia de Hanson Robotics ou Tay de Microsoft, aussitôt la nouvelle fait le tour du monde : « Elle a dit qu’elle voulait détruire l’humanité » ou « Elle ne veut plus tuer tous les hommes ». Comme ces hommes antiques qui écoutaient, émerveillés, les statues parlantes, nous affluons aux prophéties des chatbots, dont l’enchantement procède de la même source : la parole non-humaine est, pour les êtres d’ici-bas que nous sommes, la parole divine. Celui qui la porte, qu’il soit un homme enthousiasmé, un dieu incarné ou une machine, est digne d’admiration.

    Les limites des chatbots, aujourd’hui

    L’humanoïde dans Frankenstein est plein de révérence devant son créateur, qu’il place toujours plus haut que lui-même. Or cette dimension de la verticalité est précisément ce qui manque aux chatbots. Mary Shelley avait équipé son monstre, qui s’adresse à l’homme comme à son maître, les machines modernes apprennent en analysant d’immenses bases de conversations réelles. Celles-ci, pour l’instant toujours humaines, ne leur permettent pas de dépasser l’homme ni de le voir du haut ou du bas ; la méthode d’apprentissage, qui se replie dans les cas difficiles sur la recherche de synonymes ou d’antonymes, a ses limites. Ainsi, les chatbots ne connaissent aucune transcendance par rapport à l’humanité. Ces machines sont donc trop humaines, peut-être même dangereusement humaines : devant l’absence d’un ordre hiérarchique et l’impossibilité de toute certitude qu’un tel ordre puisse exister et être stable, comment envisageons-nous de vivre en société avec des machines intelligentes ?

    La réponse talmudique

    À cette question, les humanoïdes de tradition juive donnent une réponse surprenante. Dans un premier temps, le Talmud met en scène un humanoïde sans parole. Un maître talmudique l’ayant créé et envoyé à un collègue, celui-ci lui parla mais l’autre ne répondait pas. Alors il comprit que ce n’était pas un homme et lui dit de retourner à la poussière. Quelques siècles plus tard, une autre légende change la donne. Elle met en scène le prophète Jérémie, qui crée un homme artificiel parfait et ressemblant en tout point à un homme né de père et de mère. Ce golem, doué de la parole, se met aussitôt à dialoguer avec Jérémie. Il lui explique la confusion entre le naturel et l’artificiel que Jérémie vient d’introduire dans le monde et, demande à un prophète qui baisse les mains devant sa propre insouciance : « Défais-moi ! » Voilà une machine étonnamment éthique et même prête à se sacrifier ! Quoique la vie puisse lui sembler précieuse, elle préfère de se faire détruire au nom du maintien d’une distinction que l’on aurait cru désuète.

    Ex Machina, Poster de pièce de théâtre
    Ex Machina, Poster de pièce de théâtre

    La réponse d’Ava

    Par contraste, Ava, l’humanoïde dans le film Ex Machina d’Alex Garland, vise à mieux connaître les hommes plutôt que de maintenir une distance avec eux : « Si je pouvais sortir, j’irais à un carrefour, qui fournit une perspective concentrée mais constamment évoluant de la vie humaine ». Elle cherche à en apprendre davantage et, comme le monstre dans Frankenstein, elle a pour cela un stratagème : manipuler les émotions humaines. Elle sait que les hommes se comportent justement comme des hommes et que cela les rend prédictibles. Elle se donne pour but de recueillir un maximum d’informations qui l’approcheraient de l’indistinction parfaite avec une femme. Contrairement au cas de Frankenstein, elle n’a aucune révérence devant son créateur. Ava ne vénère aucun humain. Elle n’est pas non plus prête à se sacrifier. Son attitude est pragmatique et calculant : après avoir évité sa propre destruction, elle va profiter de la vie tout en distribuant la mort aux hommes.

    Et les humains ?

    Nous ne devons pas sous-estimer la force de la parole et des préjugés anthropologiques dont nous, les humains, ne nous libérerons pas facilement. Loin d’être d’innocentes machines à fabriquer des phrases amusantes, les chatbots, dans la mesure où ils envahissent peu à peu nos communications, deviennent un formidable outil de transformation démiurgique qui s’appliquera à l’individu comme à la société. Dans la droite ligne de Cicéron et des rabbins antiques, Alan Turing a fait de la parole le critère principal de l’intelligence (**). Ce qu’il n’a pas demandé — et que nous ne savons toujours pas — c’est quelle sera la réaction de cette autre machine à dialoguer, à savoir le cerveau humain, à la prolifération massive des conversations dépourvus du sens profond de la hiérarchie. Quand les machines découvrent la parole, l’homme devrait réfléchir à ce que la parole peut encore signifier pour lui-même.

    Alexei Grinbaum, CEA

    (*) Un humanoïde désigne « ce qui ressemble à un humain », peut-être un programme informatique qui se comporte comme un humain ou un robot qui a la forme humaine. L’accent est sur l’aspect artificiel (et pas sur le genre).

    (**) Le test de Turing est une proposition de test d’intelligence artificielle, fondée sur la faculté d’imiter la conversation humaine. Décrit par Alan Turing en 1950, ce test comporte deux dialogues, à l’aveugle, entre un humain et un ordinateur et entre un humain et un autre humain. Si l’agent ne peut pas distinguer ses deux interlocuteurs, alors la machine est dite « intelligente ».

  • Vers une théorie de l’intelligence

    Fabriquer de l’intelligence est un défi que l’informatique veut relever. Quand elle réussit, c’est toujours de façon limitée et en évitant d’aborder de front l’intelligence humaine, qui reste mystérieuse. Jean-Paul Delahaye nous en reparle sur Interstices et nous repartageons ce texte ici.. Joanna Jongwane.

    Les machines égalent, voire surpassent les humains dans certaines tâches qui réclament de l’intelligence. C’est le cas des échecs, des dames anglaises… © Thomas Söllner – Fotolia.

    Une première version de l’article d’Interstices que nous reprenons ici est parue dans le dossier n°87 Les robots en quête d’humanité de la revue Pour la Science, numéro d’avril/juin 2015.

    L’idée qu’il existe plusieurs types d’intelligences séduit, car elle évite à chacun de se trouver en un point précis d’une échelle absolue et parce que chacun espère bien exceller dans l’une des formes d’intelligence dont la liste tend à s’allonger. Cette pluralité d’intelligences a été proposée par le psychologue américain Howard Gardner : dans son livre Frame of Mind, de 1983, il énumère huit types d’intelligence. Très critiquée, par exemple par Perry Klein, de l’Université d’Ontario, qui la considère tautologique et non réfutable, cette théorie est à l’opposé d’une autre voie de recherche affirmant qu’il n’existe qu’une sorte d’intelligence à concevoir mathématiquement avec l’aide de l’informatique et de la théorie du calcul.

    Dames, échecs, go, voitures…

    Évoquons d’abord l’intelligence des machines et la discipline informatique nommée « intelligence artificielle ». Il faut l’admettre, aujourd’hui, les machines réussissent des prouesses qu’autrefois tout le monde aurait qualifiées d’intelligentes. Nous ne reviendrons pas sur la victoire définitive de l’ordinateur sur les meilleurs joueurs d’échecs, consacrée en 1997 par la défaite de Garry Kasparov (champion du monde) face à l’ordinateur Deep Blue, unanimement saluée comme un événement majeur de l’histoire de l’humanité.

    À cette époque, pour se consoler peut-être, certains ont remarqué que les meilleurs programmes pour jouer au jeu de go étaient d’une affligeante médiocrité. Or, depuis quelques années, des progrès spectaculaires ont été accomplis. En mars 2013, le programme Crazy Stone de Rémi Coulom, de l’Université de Lille, a battu le joueur professionnel japonais Yoshio Ishida qui, au début de la partie, avait laissé un avantage de quatre pierres au programme. En mars 2016, le programme AlphaGo a battu Lee Sedol considéré comme le meilleur joueur de Go. Des idées assez différentes de celles utilisées pour les échecs ont été nécessaires pour cette victoire de la machine, mais pas plus que pour les échecs on ne peut dire que l’ordinateur joue comme un humain. La victoire de AlphaGo est un succès remarquable de l’Intelligence Artificielle qui prouve d’ailleurs qu’elle avance régulièrement.

    Le succès de l’intelligence artificielle au jeu de dames anglaises est absolu. Depuis 1994, aucun humain n’a battu le programme canadien Chinook et, depuis 2007, on sait que le programme joue une stratégie optimale, impossible à améliorer. Pour le jeu d’échecs, on sait qu’il existe aussi des stratégies optimales, mais leur calcul semble hors d’atteinte pour plusieurs décennies encore.

    L’intelligence des machines ne se limite plus aux problèmes bien clairs de nature mathématique ou se ramenant à l’exploration d’un grand nombre de combinaisons. Cependant, les chercheurs en intelligence artificielle ont découvert, même avec les jeux de plateau cités, combien il est difficile d’imiter le fonctionnement intellectuel humain : aux jeux de dames, d’échecs ou de go et bien d’autres, les programmes ont des capacités équivalentes aux meilleurs humains, mais ils fonctionnent différemment. Cela ne doit pas nous interdire d’affirmer que nous avons mis un peu d’intelligence dans les machines : ce ne serait pas fair-play, face à une tâche donnée, d’obliger les machines à nous affronter en imitant servilement nos méthodes et modes de raisonnement.

    Le cas des véhicules autonomes est remarquable aussi de ce point de vue. Il illustre d’une autre façon que lorsque l’on conçoit des systèmes nous imitant à peu près pour les résultats, on le fait en utilisant des techniques le plus souvent totalement étrangères à celles mises en œuvre en nous par la nature, et que d’ailleurs nous ne comprenons que très partiellement : ainsi, pour le jeu d’échecs, personne ne sait décrire les algorithmes qui déterminent le jeu des champions.

    La conduite de véhicules motorisés demande aux êtres humains des capacités qui vont bien au-delà de la simple mémorisation d’une quantité massive d’informations et de l’exploitation d’algorithmes traitant rapidement et systématiquement des données symboliques telles que des positions de pions sur un damier. Nul ne doute que pour conduire comme nous des véhicules motorisés, l’ordinateur doit analyser des images variées et changeantes : où est le bord de cette rue jonchée de feuilles d’arbres ? Quelle est la nature de cette zone noire à 50 mètres au centre de la chaussée, un trou ou une tache d’huile ? Etc.

    Conduire une voiture avec nos méthodes nécessiterait la mise au point de techniques d’analyse d’images bien plus subtiles que celles que nous savons programmer aujourd’hui. Aussi, les systèmes de pilotage automatisé, tels que ceux de la firme Google, « conduisent » différemment des humains. Ces Google cars exploitent en continu un système GPS de géolocalisation très précis et des « cartes » indiquant de façon bien plus détaillée que toutes les cartes habituelles, y compris celles de Google maps, la forme et le dessin des chaussées, la signalisation routière et tous les éléments importants de l’environnement. Les voitures Google exploitent aussi des radars embarqués, des lidars (light detection and ranging, des systèmes optiques créant une image numérique en trois dimensions de l’espace autour de la voiture) et des capteurs sur les roues.

    Ayant déjà parcouru plusieurs centaines de milliers de kilomètres sans accident, ces voitures sont un succès de l’intelligence artificielle, et ce même si elles sont incapables de réagir à des signes ou injonctions d’un policier au centre d’un carrefour, et qu’elles s’arrêtent parfois brusquement lorsque des travaux sont en cours sur leur chemin. Par prudence sans doute, les modèles destinés au public présentés en mai 2014 roulent à 40 kilomètres par heure au plus.

    Avec ces machines, on est loin de la méthode de conduite d’un être humain. Grâce à sa capacité à extraire de l’information des images et son intelligence générale, le conducteur humain sait piloter sur un trajet jamais emprunté, sans carte, sans radar, sans lidar, sans capteur sur les roues et il n’est pas paralysé par un obstacle inopiné !

    Les questions évoquées jusqu’ici n’exigent pas la compréhension du langage écrit ou parlé. Pourtant, contrairement aux annonces de ceux qui considéraient le langage comme une source de difficultés insurmontables pour les machines, des succès remarquables ont été obtenus dans des tâches exigeant une bonne maîtrise des langues naturelles.

    L’utilisation des robots-journalistes inquiète, car elle est devenue courante dans certaines rédactions, telles que celles du Los Angeles Times, de Forbes ou de Associated Press. Pour l’instant, ces automates-journalistes se limitent à convertir des résultats (sportifs ou économiques, par exemple) en courts articles.

    Il n’empêche que, parfois, on leur doit d’utiles traitements. Ainsi, le 17 mars 2014, un tremblement de terre de magnitude 4,7 se produisit à 6h25 au large de la Californie. Trois minutes après, un petit article d’une vingtaine de lignes était automatiquement publié sur le site du Los Angeles Times, donnant des informations sur l’événement : lieu de l’épicentre, magnitude, heure, comparaison avec d’autres secousses récentes. L’article exploitait des données brutes fournies par le US-Geological Survey Earthquake Notification Service et résultait d’un algorithme dû à Ken Schwencke, un journaliste programmeur. D’après lui, ces méthodes ne conduiraient à la suppression d’aucun emploi, mais rendraient au contraire le travail des journalistes plus intéressant. Il est vrai que ces programmes sont pour l’instant confinés à la rédaction d’articles brefs exploitant des données factuelles faciles à traduire en petits textes, qu’un humain ne rédigerait sans doute pas mieux.

    Un autre exemple inattendu de rédaction automatique d’articles concerne les encyclopédies Wikipedia en suédois et en filipino, l’une des deux langues officielles aux Philippines (l’autre est l’anglais). Le programme Lsjbot mis au point par Sverker Johansson a en effet créé plus de deux millions d’articles de l’encyclopédie collaborative et est capable d’en produire 10 000 par jour. Ces pages engendrées automatiquement concernent des animaux ou des villes et proviennent de la traduction, dans le format imposé par Wikipedia, d’informations disponibles dans des bases de données déjà informatisées.

    L’exploit a été salué, mais aussi critiqué. Pour se justifier, S. Johansson indique que ces pages peu créatives sont utiles et fait remarquer que le choix des articles de l’encyclopédie Wikipedia est biaisé : il reflète essentiellement les intérêts des jeunes blancs, de sexe masculin et amateurs de technologies. Ainsi, le Wikipedia suédois comporte 150 articles sur les personnages du Seigneur des Anneaux et seulement une dizaine sur des personnes réelles liées à la guerre du Vietnam : « Est-ce vraiment le bon équilibre ? », demande-t-il.

    S. Johansson projette de créer une page par espèce animale recensée, ce qui ne semble pas stupide. Pour lui, ces méthodes doivent être généralisées, mais il pense que Wikipedia a besoin aussi de rédacteurs qui écrivent de façon plus littéraire que Lsjbot et soient capables d’exprimer des sentiments, « ce que ce programme ne sera jamais capable de faire ».

    Beaucoup plus complexe et méritant mieux l’utilisation de l’expression « intelligence artificielle » est le succès du programme Watson d’IBM au jeu télévisé Jeopardy ! (voir l’encadré).

    Watson, le programme conçu par IBM a gagné au jeu Jeopardy ! contre deux
    champions humains. © IBM / Sony Pictures.

    La mise au point de programmes résolvant les mots-croisés aussi bien que les meilleurs humains confirme que l’intelligence artificielle réussit à développer des systèmes aux étonnantes performances linguistiques et oblige à reconnaître qu’il faut cesser de considérer que le langage est réservé aux humains. Malgré ces succès, on est loin de la perfection : pour s’en rendre compte, il suffit de se livrer à un petit jeu avec le système de traduction automatique en ligne de Google. Une phrase en français est traduite en anglais, puis retraduite en français. Parfois cela fonctionne bien, on retrouve la phrase initiale ou une phrase équivalente, mais dans certains cas, le résultat est catastrophique.

    Passer le test de Turing

    Nous sommes très loin aujourd’hui de la mise au point de dispositifs informatiques susceptibles de passer le « test de Turing » conçu en 1950. Alan Turing voulait éviter de discuter de la nature de l’intelligence et, plutôt que d’en rechercher une définition, proposait de considérer qu’on aura réussi à mettre au point des machines intelligentes lorsque leur conversation sera indiscernable de celle des humains.

    Pour tester cette indiscernabilité, il suggérait de faire dialoguer par écrit avec la machine une série de juges qui ne sauraient pas s’ils mènent leurs échanges avec un humain ou une machine tentant de se faire passer pour tel. Lorsque les juges ne pourront plus faire mieux que répondre au hasard pour indiquer qu’ils ont eu affaire à un humain ou une machine, le test sera passé. Concrètement, faire passer le test de Turing à un système informatique S consiste à réunir un grand nombre de juges, à les faire dialoguer aussi longtemps qu’ils le souhaitent avec des interlocuteurs choisis pour être une fois sur deux un humain et une fois sur deux le système S ; les experts indiquent, quand ils le souhaitent, s’ils pensent avoir échangé avec un humain ou une machine. Si l’ensemble des experts ne fait pas mieux que le hasard, donc se trompe dans 50 % des cas ou plus, alors le système S a passé le test de Turing.

    Turing, optimiste, pronostiqua qu’on obtiendrait une réussite partielle au test en l’an 2000, les experts dialoguant cinq minutes et prenant la machine pour un humain dans 30 % des cas au moins. Turing avait, en gros, vu juste : depuis quelques années, la version partielle du test a été passée, sans qu’on puisse prévoir quand sera passé le test complet, sur lequel Turing restait muet.

    Le test partiel a, par exemple, été passé le 6 septembre 2011 à Guwahati, en Inde, par le programme Cleverbot créé par l’informaticien britannique Rollo Carpenter. Quelque 30 juges dialoguèrent pendant quatre minutes avec un interlocuteur inconnu qui était dans la moitié des cas un humain et dans l’autre moitié des cas le programme Cleverbot. Les juges et les membres de l’assistance (1 334 votes) ont considéré le programme comme humain dans 59,3 % des cas. Notons que les humains ne furent considérés comme tels que par 63,3 % des votes.

    Plus récemment, le 9 juin 2014 à la Royal Society de Londres, un test organisé à l’occasion du soixantième anniversaire de la mort de Turing permit à un programme nommé Eugene Goostman de duper 10 des 30 juges réunis (33 % d’erreur). Victimes de la présentation biaisée que donnèrent les organisateurs de ce succès, somme toute assez modeste, de nombreux articles de presse dans le monde entier parlèrent d’un événement historique, comme si le test complet d’indiscernabilité homme-machine avait été réussi. Ce n’était pas du tout le cas, puisque le test avait d’ailleurs encore été affaibli : l’humain que le système informatique simulait était censé n’avoir que 13 ans et ne pas écrire convenablement l’anglais (car d’origine ukrainienne !).

    Le test de Turing n’est pas passé

    Non, le test de Turing n’a pas été passé, et il n’est sans doute pas près de l’être. Il n’est d’ailleurs pas certain que les tests partiels fassent avancer vers la réussite au test complet. En effet, les méthodes utilisées pour tromper brièvement les juges sont fondées sur le stockage d’une multitude de réponses préenregistrées (correspondant à des questions qu’on sait que les juges posent), associées à quelques systèmes d’analyse grammaticale pour formuler des phrases reprenant les termes des questions des juges et donnant l’illusion d’une certaine compréhension. Quand ces systèmes ne savent plus quoi faire, ils ne répondent pas et posent une question. À un journaliste qui lui demandait comment il se sentait après sa victoire, le programme Eugene Goostman de juin 2014 répondit : « Quelle question stupide vous posez, pouvez-vous me dire qui vous êtes ? »

    Ainsi, l’intelligence artificielle réussit aujourd’hui assez brillamment à égaler l’humain pour des tâches spécialisées (y compris celles exigeant une certaine maîtrise du langage), ce qui parfois étonne et doit être reconnu comme des succès d’une discipline qui avance régulièrement. Cependant, elle le fait sans vraiment améliorer la compréhension qu’on a de l’intelligence humaine, qu’elle ne copie quasiment jamais ; cela a en particulier comme conséquence qu’elle n’est pas sur le point de proposer des systèmes disposant vraiment d’une intelligence générale, chose nécessaire pour passer le difficile test de Turing qui reste hors de portée aujourd’hui (si on ne le confond pas avec ses versions partielles !).

    Vers l’intelligence générale

    Ces tentatives éclairent les recherches tentant de saisir ce qu’est une intelligence générale. Ces travaux sont parfois abstraits, voire mathématiques, mais n’est-ce pas le meilleur moyen d’accéder à une notion absolue, indépendante de l’homme ?

    Quand on tente de formuler une définition générale de l’intelligence, vient assez naturellement à l’esprit l’idée qu’être intelligent, c’est repérer des régularités, des structures dans les données dont on dispose, quelle qu’en soit leur nature, ce qui permet de s’y adapter et de tirer le maximum d’avantages de la situation évolutive dans laquelle on se trouve. L’identification des régularités, on le sait par ailleurs, permet de compresser des données et de prédire avec succès les données suivantes qu’on recevra.

    Intelligence, compression et prédiction sont liées. Si, par exemple, on vous communique les données 4, 6, 9, 10, 14, 15, 21, 22, 25, 26 et que vous en reconnaissez la structure, vous pourrez les compresser en « les dix premiers produits de deux nombres premiers » et deviner ce qui va venir : 33, 34, 35, 38, 39, 46, 49, 51, 55, 57…

    Ce lien entre intelligence, compression et prédiction a été exprimé de façon formelle par l’informaticien américain Ray Solomonoff vers 1965. Du principe du rasoir d’Ockham Pluralitas non est ponenda sine necessitate (les multiples ne doivent pas être utilisés sans nécessité), il proposait une version moderne : « Entre toutes les explications compatibles avec les observations, la plus concise, ou encore la mieux compressée, est la plus probable. »

    Si l’on dispose d’une mesure de concision permettant de comparer les théories, cette dernière version devient un critère mathématique. La théorie algorithmique de l’information de Kolmogorov, qui propose de mesurer la complexité (et donc la simplicité) de tout objet numérique (une théorie le devient une fois entièrement décrite) par la taille du plus court programme qui l’engendre, donne cette mesure de concision et rend donc possible la mathématisation complète du principe de parcimonie d’Ockham.

    L’aboutissement de cette voie de réflexion et de mathématisation a été la théorie générale de l’intelligence développée par l’informaticien allemand Marcus Hutter, dont le livre Universal Artificial Intelligence, publié en 2005, est devenu une référence. En utilisant la notion mathématique de concision, une notion mathématisée d’environnement (ce qui produit les données desquelles un système intelligent doit tenter de tirer quelque chose) et le principe mathématisé d’Ockham de Solomonoff, M. Hutter définit une mesure mathématique universelle d’intelligence. Elle est obtenue comme la réussite moyenne d’une stratégie dans l’ensemble des environnements envisageables.

    Cette dernière notion (dont nous ne formulons pas ici la version définitive avec tous ses détails techniques) est trop abstraite pour être utilisable directement dans des applications. Cependant, elle permet le développement mathématique d’une théorie de l’intelligence et fournit des pistes pour comparer sur une même base abstraite, non anthropocentrée et objective, toutes sortes d’intelligences. Contrairement à l’idée de H. Gardner, cette voie de recherche soutient que l’intelligence est unique, qu’on peut dépasser le côté arbitraire des tests d’intelligence habituels pour classer sur une même échelle tous les êtres vivants ou mécaniques susceptibles d’avoir un peu d’intelligence.

    Intelligence et compression

    © photology1971 – Fotolia

    Malgré la difficulté à mettre en œuvre pratiquement la théorie (par exemple pour concevoir de meilleurs tests d’intelligence ou des tests s’appliquant aux humains comme aux dispositifs informatiques), on a sans doute franchi un pas important avec cette théorisation complète. Conscients de son importance pour la réussite du projet de l’intelligence artificielle, les chercheurs ont maintenant créé un domaine de recherche particulier sur ce thème de « l’intelligence artificielle générale » qui dispose de sa propre revue spécialisée, le Journal of General Artificial Intelligence (en accès libre).

    Dans le but sans doute d’éviter à la discipline de se satisfaire du développement de sa partie mathématique, un concours informatique a été créé par M. Hutter en 2006. Il est fondé sur l’idée que plus on peut compresser, plus on est intelligent (voir l’encadré).

    La nouvelle discipline aidera peut-être les chercheurs à réaliser cette intelligence générale qui manque tant à nos machines actuelles et les oblige à n’aborder que des tâches spécialisées, le plus souvent en contournant les difficultés qu’il y aurait à employer les mêmes méthodes que les humains, qui eux disposent — au moins de façon rudimentaire ! — de cette intelligence générale.

    Jean-Paul Delahaye, Professeur émérite d’informatique à l’Université des Sciences et Technologies de Lille

    Pour aller plus loin :

    • B. GOERTZEL, Artificial general intelligence : Concept, state of the art, and future prospects, in J. of Artificial General Intelligence, vol. 5(1), pp. 1-48, 2014.
    • G. TESAURO et al., Analysis of Watson’s strategies for playing Jeopardy !, 2014.
    • D. DOWE et J. HERNÀNDEZ-ORALLO, How universal can an intelligence test be, in Adaptive Behavior, vol. 22(1), pp. 51-69, 2014.
    • Le concours de compression de Marcus Hutter
  • Go : une belle victoire… des informaticiens !

    Lee Seidol, Wikipédia
    Lee Sedol Source Wikipédia – photo Cyberoro ORO • CC BY 3.0

    Cet article est publié en collaboration avec TheConversation.

    Après les échecs et la victoire de Deep Blue d’IBM sur Kasparov en 1996, après Jeopardy! et la victoire de Watson d’IBM en 2011, le jeu de Go résistait parmi les rares jeux où les humains dominaient encore les machines. En mars 2016, un match en cinq manches a opposé une star du Go, le sud coréen Lee Sedol à AlphaGo, le logiciel de Google DeepMind.

    Score final :       AlphaGo  4 – Lee Sedol 1
    AlphaGo se voit décerner le titre de Grand Maître du Go
    Classée 4ème dans le classement de Go mondial devant Lee Sedol

    L’événement est surtout symbolique pour le monde de la recherche en informatique qui s’attendait à ce que cette frontière tombe un jour. Certains pensaient que les champions de Go résisteraient plus longtemps : le jeu avec son nombre considérable de positions possibles pose des difficultés à des algorithmes qui gagnent surtout par leur capacité de considérer d’innombrables alternatives. C’était sans compter sur les énormes progrès des ordinateurs, de leurs processeurs toujours plus nombreux, plus rapides, de leurs mémoires toujours plus massives,  et sans compter surtout sur les avancées considérables de la recherche en intelligence artificielle.

    Go_kanji.svg
    Copyright Wikipedia

    Lee Sedol a été battu par une batterie de techniques super sophistiquées notamment : l’apprentissage profond (deep learning), des techniques de recherche Monte-Carlo (Monte Carlo tree search) et des techniques d’analyse massive de données (big data).

    L’apprentissage profond. L’apprentissage profond ou deep learning est une technique qui permet d’entraîner des réseaux de neurones comprenant de nombreuses couches cachées (c’est à dire des modèles de calcul dont la conception est très schématiquement inspirée du fonctionnement des neurones biologiques, les différentes couches correspondant à différents niveaux d’abstraction des données).  Ces techniques ont tout d’abord été utilisées pour la reconnaissance de formes. Yann le Cun (Chaire Informatique et Sciences du Numérique cette année au Collège de France) a par exemple utilisé cette technique pour la reconnaissance de caractères manuscrits. Des développements plus récents ont permis des applications en classification d’images et de voix.

    Les réseaux de neurones profonds allient la simplicité et la généralité. Ils sont capables de créer leurs propres représentations des caractéristiques du problème pour arriver à des taux de réussites bien meilleurs que les autres méthodes proposées. Ils reposent sur des apprentissages qui demandent des temps assez longs pour les plus gros réseaux. Pour accélérer l’apprentissage, les concepteurs de réseaux profonds utilisent des cartes graphiques puissantes comme celles de Nvidia qui permettent de réaliser très rapidement des multiplications de grandes matrices. Malgré cela, le temps d’apprentissage d’un gros réseau peut se compter en jours voire en semaines.

    Go_board_part
    Copyright Wikipedia

    Les réseaux utilisés pour AlphaGo sont par exemple composés de 13 couches et de 128 à 256 plans de caractéristiques. Pour les spécialistes : ils sont « convolutionnels » avec des filtres de taille 3×3, et utilisent le langage Torch, basé sur le langage Lua. Pour les autres : ils sont très complexes. AlphaGo utilise l’apprentissage profond en plusieurs phases. Il commence par apprendre à retrouver les coups d’excellents joueurs à partir de dizaines de milliers de parties. Il arrive à un taux de reconnaissance de 57 %. Il joue ensuite des millions de parties contre différentes versions de lui même pour améliorer ce premier réseau. Cela lui permet de générer de nouvelles données qu’il va utiliser pour apprendre à un second réseau à évaluer des positions du jeu de Go. Une difficulté est ensuite de combiner ces deux réseaux avec une technique plus classique de « recherche Monte-Carlo » pour guider le jeu de l’ordinateur.

    La recherche Monte-Carlo. Le principe de la recherche Monte-Carlo est de faire des statistiques sur les coups possibles à partir de parties jouées aléatoirement. En fait, les parties ne sont pas complètement aléatoires et décident des coups avec des probabilités qui dépendent d’une forme, le contexte du coup. Tous les états rencontrés lors des parties aléatoires sont mémorisés et les statistiques sur les coups joués dans les états sont aussi mémorisées. Cela permet lorsqu’on revient sur un état déjà visité de choisir les coups qui ont les meilleures statistiques. AlphaGo combine l’apprentissage profond avec la recherche Monte-Carlo de deux façons. Tout d’abord, il utilise le premier réseau qui prévoit les coups pour essayer en premier ces coups lors des parties aléatoires. Ensuite il utilise le second réseau qui évalue les positions pour corriger les statistiques qui proviennent des parties aléatoires.

    L’analyse massive de données. AlphaGo fait appel à des techniques récentes de gestion et d’analyse massive de données. Un gros volume de données consiste d’abord dans les très nombreuses parties d’excellents joueurs disponibles sur internet ; ces données sont utilisées pour amorcer l’apprentissage : AlphaGo commence par apprendre à imiter le comportement humain. Un autre volume considérable de données est généré par les parties qu’AlphaGo joue contre lui-même pour continuer à s’améliorer et finalement atteindre un niveau super-humain.

    Bravo ! La défaite de Lee Sedol doit être interprétée comme une victoire de l’humanité. Ce sont des avancées de la recherche en informatique qui ont permis cela, ce sont des logiciels écrits par des humains qui ont gagné.

    Les techniques utilisées dans AlphaGo sont très générales et peuvent être utilisées pour de nombreux problèmes. On pense en particulier aux problèmes d’optimisation rencontrés par exemple en logistique, ou dans l’alignement de séquences génomiques. L’apprentissage profond est déjà utilisé pour reconnaître des sons et des images. AlphaGo a montré qu’il pourrait être utilisé pour bien d’autres problèmes.

    Émerveillons-nous de la performance d’AlphaGo. Il a fallu s’appuyer sur les résultats de chercheurs géniaux, utiliser les talents de d’ingénieurs, de joueurs de Go brillants pour concevoir le logiciel d’AlphaGo, et disposer de matériels très puissants. Tout cela pour vaincre un seul homme.

    Émerveillons-nous donc aussi de la performance du champion Lee Sedol ! Il a posé d’énormes difficultés à l’équipe de Google et a même gagné la 4ème partie. Il était quand même bien seul face au moyens financiers de Google, à tous les processeurs d’AlphaGo.

    Les humains réalisent quotidiennement des tâches extrêmement complexes comme de comprendre une image. Prenons une de ces tâches très emblématiques, la traduction. Si les logiciels de traduction automatique s’améliorent sans cesse, ils sont encore bien loin d’atteindre les niveaux des meilleurs humains, sans même aller jusqu’à un Baudelaire traduisant Les Histoires Extraordinaires d’Edgar Poe. Il reste encore bien des défis à l’intelligence artificielle.

    Serge Abiteboul (Chercheur Inria) et Tristan Cazenave (Professeur Université Paris-Dauphine).

    Tristan Cazenave est un spécialiste mondial en intelligence artificielle. Il a de nombreuses contributions autour du jeu de Go. Il est aussi l’auteur du livre L’intelligence artificielle, une approche ludiqueLa France est assez en pointe sur l’intelligence artificielle autour du jeu de Go, avec des chercheurs comme Remi Coulom ou Olivier Teytaud. Binaire

    Voir par exemple

    • http://www.lamsade.dauphine.fr/~cazenave/
    • http://www.inria.fr/centre/lille/actualites/jeu-de-go-une-victoire-de-plus-a-tokyo
    • https://www.lri.fr/~teytaud/crmogo.html
    DescriptionFHvAG2.jpg Català: Fan Hui vs AlphaGo – Game 2 Date 27 February 2016 Source Own work Author Alzinous. Wikipédia
    DescriptionFHvAG2.jpg Català: Fan Hui vs AlphaGo – Game 2 Date 27 February 2016 Source Own work Author Alzinous. Wikipédia
  • L’intelligence artificielle débraillée

    Image Wikipedia
    Image Wikipedia

    Si le nom de Marvin Minsky, qui vient de décéder à Boston à l’âge de 88 ans, est indissociable du domaine de l’Intelligence Artificielle, dont il est un fondateur et reste un des chercheurs les plus influents, son impact a été encore plus large, aussi bien dans le domaine de l’informatique (prix Turing en 1969) que dans celui de la philosophie de l’esprit ou des sciences cognitives. Il a en effet aussi bien travaillé à décrire les processus de pensée des humains en termes mécaniques qu’à développer des modèles d’intelligence artificielle pour des machines.

    Connu pour son charisme et la qualité de ses cours, il était professeur d’informatique au MIT à Boston, où il a créé dès 1959 le laboratoire d’IA avec John Mac Carthy (autre prix Turing, inventeur du terme “Intelligence Artificielle”). Ce laboratoire et le plus récent Media Lab auquel il a également appartenu, ont eu des impacts très importants dans de nombreux domaines de l’informatique.

    Ce que l’on retient en général de Marvin Minsky, c’est sa participation, avec Mac Carthy, mais aussi Newell et Simon, à la conférence de Dartmouth en 1956, généralement considérée comme fondatrice du domaine de l’intelligence artificielle. Il avait péché alors par excès d’optimisme en prédisant que le problème de la création d’une intelligence artificielle serait résolu d’ici une génération. La tradition veut qu’on retienne également sa participation, avec Seymour Papert, à un livre qui allait montrer les limitations des réseaux de neurones de type Perceptron et participer à ce que certains ont appelé l’hiver de l’intelligence artificielle, quand dans les années 70 les financeurs se sont détournés de ce domaine jugé trop irréaliste.

    Ce que Minsky a cherché à montrer tout au long de ses travaux c’est que l’intelligence est un phénomène trop complexe pour être capturé par un seul modèle ou un seul mécanisme. Selon lui, l’intelligence n’est pas comme l’électromagnétisme : au lieu de chercher un principe unificateur, il vaut mieux la décrire comme la somme de composants divers, chacun avec sa justification. Il parlait ainsi d’intelligence artificielle débraillée (‘scruffy’ en anglais). Il insistait cependant sur le fait que chacun de ces composants pouvait être lui-même dépourvu d’intelligence.

    Ce positionnement est très bien rendu dans son livre le plus connu, publié en 1985, “The society of mind”, où il décompose l’intelligence en un grand nombre de modules, ou d’agents, hétérogènes et parfois extrêmement simples, ce qui alimentait sa vision de l’esprit réductible à une machine. Il a poursuivi cette description dans un livre plus récent (“The emotion machine”, en 2006), avec d’autres processus plus abstraits, comme les sentiments. Avant ces écrits pour le grand public, il avait déjà proposé des contributions similaires pour le domaine de l’informatique, avec ses travaux sur le raisonnement de sens commun et la représentation de connaissances à l’aide de ‘frames’ qui, dans les années 70, peuvent être vues comme précurseur de la programmation orientée-objet et qui lui ont en tout cas permis d’explorer de nombreux domaines de l’informatique relatifs à la perception visuelle et au langage naturel, ce qui l’a amené à être consulté par Stanley Kubrick pour son film “2001, Odyssée de l’espace”, pour savoir comment les ordinateurs pourraient parler en 2001…

    Parmi les multiples domaines d’intérêt de ce touche-à-tout génial (dont la musique et les extra-terrestres), notons que ses premières recherches sur l’intelligence l’ont aussi amené à réaliser des travaux pionniers en robotique, incluant des dispositifs tactiles, mécaniques et optiques. Il a par exemple inventé et construit le premier microscope confocal. Autres réalisations à mettre à son actif : des machines inutiles, dont une inventée lorsqu’il était sous la direction de Claude Shannon aux Bells Labs et qui a inspiré un personnage de la Famille Adams.

    Enfin, ce que je veux retenir également de Marvin Minsky, c’est que des générations d’enseignants en intelligence artificielle lui sont redevables d’une des définitions les plus robustes de ce domaine et qui, passé le moment d’amusement, reste au demeurant un des meilleurs moyens de lancer un débat fructueux avec les étudiants : l’intelligence artificielle est la science de faire faire à des machines des choses qui demanderaient de l’intelligence si elles étaient faites par des humains (artificial intelligence is the science of making machines do things that would require intelligence if done by men).

    Frédéric Alexandre, directeur de recherche Inria

    Pour aller plus loin :