Catégorie : Neurosciences

  • Les robots resteront c…s, mais nous, le serons un peu moins.

    Lorsque Stanislas Dehaene et Yann Le Cun se sont rencontrés ils nous ont expliqué dans un super livre, co-écrit avec Jacques Girardon, que  « l’intelligence a émergé avec la vie, elle s’est magnifiée avec l’espèce humaine » tandis que ce que d’aucun appelle « intelligence artificielle » va surtout changer le regard que nous portons sur l’intelligence naturelle, dont humaine.  Ici, c’est notre collègue Max Dauchet qui prend la plume pour nous faire partager les idées clés et son analyse sur ces dernières avancées de l’informatique et des neurosciences. Serge Abiteboul et Thierry Viéville.

    Voici ce que je retiens d’un petit livre de deux grands chercheurs sur l’intelligence humaine et l’intelligence machine.

    Le recueil, déjà ancien mais toujours actuel, est basé sur une interviewi de deux chercheurs français mondialement connus : Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale au Collège de France, pour notre cerveau et notre intelligence, et Yann Le Cun, prix Turing, pour les machines bio-inspirées comme le deep learning et leur intelligence artificielle. Ce livre est passé sous les radars des media car il privilégie la science au détriment du buzz.

    Il se lit d’un trait.

    Voici ce que j’en retiens.

    L’intelligence est présentée comme la capacité générale à s’adapter à une situation. Selon cette définition, l’intelligence émotionnelle est un aspect de l’intelligence, à laquelle contribuent aussi bien nos sens, nos mains que notre cortex, le tout constituant un système de saisie et de traitement d’informations qui accroît les chances de survie de l’espèce en fonction de son environnement, ainsi que celles de l’individu au sein de son espèce. Il s’agit d’une organisation qui n’est pas nécessairement basée sur des neurones, ainsi l’intelligence d’une moule consiste en son aptitude à filtrer l’eau pour en tirer des nutriments. Néanmoins, au fil du temps, les systèmes interconnectant les « petites cellules grises » ramifiées se sont avérés particulièrement performants. Quant à l’humain, il a bénéficié de circonstances ayant permis l’extension de la boite crânienne et son cortex.

    Tout le développement de la vie peut ainsi être vu comme un apprentissage compétitif de perpétuation. Le cerveau et son cortex ne sont pas de simples réseaux de neurones interconnectés au hasard, ils sont dotés de zones organisées et spécialisées et de processus de contrôle des connexions synaptiques sophistiqués. Les structures cérébrales les plus favorables ont été sélectionnées et figées avec plus ou moins de souplesse selon les avantages procurés. Ces zones ont constitué au fil du temps la partie innée de notre cerveau, dont les «noyaux gris» tels le striatum évoqué par Bohlerii. Le fonctionnement hérité de ces structures est inconscient, qu’il s’agisse de la régulation vitale de notre organisme, du traitement de la vision ou de tout autre signal capté par nos sens. L’évolution a conjointement à la structuration cérébrale de l’espèce préservé une plasticité cérébrale qui assure un avantage adaptatif à court terme, voire une capacité à se reconfigurer en cas d’accident ou d’invalidité. Cette plasticité permet chez l’humain une large part d’acquis à deux échelles. A l’échelle individuelle, il s’agit de l’apprentissage par l’expérience, le groupe, l’école, la culture. Cet apprentissage se traduit en structurant les circuits neuronaux par des « réglages » des synapses, qui sont des millions de milliards de points de transmission d’informations électrochimiques entre les neurones. Les connaissances ainsi apprises par un individu durant sa vie disparaissent avec lui. Mais elles sont transmises à l’échelle collective par un processus qui sort du cadre de l’hérédité génétique et est spécifique aux hominidés: la civilisation, ses constructions, ses outils, ses objets, ses cultures, ses croyances, ses sciences et ses arts – et en dernier lieu l’écriture et la capacité à se construire une histoire. Au lieu de coévoluer avec sa savane, sa mer ou sa forêt, l’humain coévolue avec l’accumulation de ses créations. Pour illustrer la dualité inné-acquis, Dehaene prend l’exemple des langues et de la causalité. Si un bébé peut apprendre n’importe quelle langue, c’est parce que toutes les langues ont des principes communs, et qu’une zone du cerveau s’est spécialisée dans leur traitement. Pour la causalité, imaginons deux populations sur une île. L’une fait le lien entre une chute de pierre et un danger, entre un crocodile et un danger, entre un signe de congénère et son attitude envers lui, autant d’exemples de lien entre cause et effet. L’autre population ne fait pas le lien, celle-ci disparaîtra et à la longue l’espèce survivante héritera de structures ou zones du cerveau «câblées» pour la recherche de causalités. De même pour les corrélations.

    Ces considérations donnent la tonalité du récit de l’évolution de l’intelligence proposé dans le livre et font consensus dans les milieux scientifiques actuels. Il faut néanmoins souligner qu’il ne s’agit que de récits, pas de modèles aussi éprouvés que l’électromagnétisme ou la relativité. Il s’agit d’une tentative de dresser le tableau d’ensemble d’un puzzle dont de nombreuses pièces sont manquantes. Il en est de même du récit darwinien en général. Néanmoins en neurosciences on peut monter des expériences pour conforter ou infirmer des hypothèses, et Dehaene en relate quelques-unes, alors qu’en paléontologie ou en anthropologie on est souvent réduit à fouiller à la recherche d’indices peut-être disparus.

    Pour ce qui est des machines, Le Cun fait à juste titre remarquer que le terme «intelligence machine» serait plus adéquat que celui consacré d’«intelligence artificielle» car l’intelligence est un système évolutif et interactif, dont l’organisation importe plus que le support, biomoléculaire ou silicium. On pourrait même voir l’écologie et l’évolution de la planète comme une intelligence, sans pour autant verser le moins du monde dans le culte de Gaïa (un chapitre du livre s’intitule d’ailleurs «L’intelligence de la vie»). Remarquons au passage que cette idée évoque la mouvance nord américaine de l’Intelligence design, à ceci près – nuance qui n’est pas des moindres – que dans cette vision épurée du judéo-christianisme, l’intelligence évoquée est finaliste, elle est la main de Dieu. Alors que dans le darwinisme nul objectif, nulle réalisation de dessein ne sont assignés au cheminement de l’évolution. Ce qui fait envisager en fin d’interview le dépassement de l’intelligence humaine sur le temps long, le passage par un couplage humain-machine semblant aux auteurs une étape probable. A noter qu’il n’est heureusement pas pour autant question dans l’ouvrage de transhumanisme, ensemble de micro-mouvements pseudo scientifiques surfant entre crainte d’un grand remplacement (par des cyborgs) et sur la quête d’immortalité.

    Illustration du livre proposée par ChatGPT, générée par l’auteur. Elle ne reflète pas la tonalité humanisme du texte, qui nous aide au contraire à dépasser les mythes trans et post humanistes.


    L’intelligence machine est survolée dans cet opuscule à travers sa comparaison à l’humain, et sous l’angle des machines bio-inspirées, comme l’est le deep learning dont Le Cun est un des pères. Le neuro et le data scientiste ne voient pas de limites a priori à l’intelligence machine, des progrès majeurs restant pour cela à accomplir dans la capacité de planification d’ensemble d’une stratégie, qui constitue encore un avantage majeur du cerveau humain. A noter que le mot «conscience» apparaît 22 fois sans être explicitement défini, car pour les interlocuteurs il est évacué de toute considération philosophique. Les activités innées sont inconscientes, celles apprises comme la conduite automobile le deviennent au fil de l’habitude. Les activités conscientes sont celles qui nécessitent de la réflexion.

    Sur un plan technique, la rivalité historique entre l’approche symbolique (par le raisonnement) et l’approche connexionniste (par les réseaux neuronaux) de l’IA est brièvement rappelée. Le Cun y évoque ce que l’on a baptisé «l’hiver de l’IA», fait de discrédit et d’assèchement des financements, dans lequel les déconvenues du Perceptron avait plongé le connexionnisme. Il souligne un fait souvent passé inaperçu qui éclaire pourtant la triomphale résurgence des réseaux de neurones. Il s’agit des travaux activement menés durant cet «hiver» de deux décennies sous la modeste appellation de «traitement du signal et des images» pour ne pas agiter le chiffon rouge d’une intelligence artificielle bio-inspirées. Ces travaux ont notamment mené aux réseaux de convolution (CNN Convolution Neural Network) chers à Le Cun et qui sont à la base du succès du deep learning.

    Enfin les auteurs pointent un principe essentiel, qui lui est largement connu mais qu’il est bon de marteler : «Apprendre, c’est éliminer» dit Dehaene en écho à une expression fétiche de son maître Jean-Pierre Changeux. Et l’on peut ajouter qu’apprentissage et créativité sont les deux faces d’une même pièce. Pas seulement au sens de la connaissance comme terreau du progrès, mais en un sens beaucoup plus fondamental relevant des lois du traitement de l’information au même titre que la chute de la pomme relève des lois physiques. En deux mots, apprendre par coeur ne sert à rien, si l’on apprend à reconnaître un visage en retenant par coeur chaque pixel d’un photo, on ne saura pas reconnaître la personne sur une autre photo, il faut approximer un visage par quelques caractéristiques, c’est à dire «éliminer» intelligemment les informations inutiles. Et il se crée ainsi des représentations internes du monde qui en sont des approximations utiles pour nous. Cependant, aucune pression évolutive n’a «verrouillé» l’usage de ces représentations en les limitant aux instances qui les avaient suscitées. Ainsi notre propension «câblée» à la causalité, déjà évoquée, sorte d’approximation de la logique usuelle du monde qui nous entoure, nous a fait imaginer des dieux comme causes des évènements naturels, et nourrit aussi peut-être le complotismeiii et sa recherche de causes cachées.

    Max Dauchet, Professeur Émérite de l’Université de Lille.

    En savoir plus : on ne peut que chaudement recommander au lecteur motivé les vidéos des cours donnés au Collège de France par Stanislas Dehaene en Psychologie cognitive expérimentaleYann Le Cun en Informatique et Sciences du Numérique et aussi Benoit Sagot dans la même discipline, ainsi que ceux de Stéphane Mallat en Sciences des données, ces derniers portant sur les réseaux de neurones comme approximateurs au sens des lignes qui précédent.

    Références :

    i Stanislas Dehaene, Yann Le Cun, Jacques Girardon. La Plus Belle Histoire de l’intelligence. Des origines aux neurones artificiels : vers une nouvelle étape de l’évolution. Ed. Robert Laffont, collection La Plus Belle Histoire, 2018.

    ii Sébastin Bohler, Le striatum, ed. bouquins, 2023.

    iii Dans le livre seuls les dieux sont évoqués comme « inventions », le complotisme n’est pas cité. 

     

  • La réalité virtuelle ? Des effets bien réels sur notre cerveau !

    Comment notre cerveau réagit et s’adapte aux nouvelles technologies ?  La réalité virtuelle permet de vivre des expériences sensorielles très puissantes … et si elle se mettait dès maintenant au service de votre cerveau ? Anatole Lécuyer nous partage tout cela dans un talk TEDx. Pascal Guitton et Thierry Viéville

    Au-delà des jeux vidéos, ces nouvelles technologies ouvrent la voie à des applications radicalement innovantes dans le domaine médical, notamment pour les thérapies et la rééducation. Anatole Lécuyer nous parle de nouvelles manières d’interagir avec les univers virtuels.

    En savoir plus : https://www.tedxrennes.com/project/anatole-lecuyer

    La conférence TED est une importante rencontre annuelle qui depuis 33 ans  rassemble des esprits brillants dans leur domaine, et on a voulu permettre à la communauté élargie de ses fans de diffuser l’esprit TED autour du monde. Les organisateurs souhaitent que les échanges entre locuteurs et participants soient variés, inspirés, apolitiques dans un esprit visionnaire et bienveillant. Les sujets traités sont très vastes : économie, société, culture, éducation, écologie, arts, technologie, multimédia, design, marketing…

    Le texte de la conférence :

    Et si .. nous partagions ensemble une expérience de réalité virtuelle? Imaginez-vous, en train d’enfiler un visio-casque de réalité virtuelle comme celui-là, avec des écrans intégrés juste devant les yeux, que l’on enfile un peu comme un masque de ski ou de plongée, avec le petit élastique là, comme ça…
    Et .. voilà ! vous voilà « immergé » dans un monde virtuel très réaliste. Dans une pièce qui évoque un bureau, qui ressemble peut-être au vôtre, avec une table située juste devant vous, une plante verte posée dans un coin, et un poster accroché sur le mur à côté de vous.

    Maintenant, j’entre dans la scène .. et je vous demande de regarder votre main. Vous baissez la tête et voyez une main virtuelle, très réaliste aussi, parfaitement superposée à la vôtre et qui suit fidèlement les mouvements de vos doigts.
    Par contre, il y a un détail qui vous gêne, quelque-chose de vraiment bizarre avec cette main ..
    Vous mettez un peu de temps avant de remarquer.. ah, ça y est : un sixième doigt est apparu, comme par magie, là, entre votre petit doigt et votre annulaire .. !
    Je vous demande ensuite de poser la main sur la table, et de ne plus bouger. Avec un pinceau, Je viens brosser successivement et délicatement vos doigts dans un ordre aléatoire. Vous regardez le pinceau passer sur l’un ou l’autre de vos doigts, et lorsqu’il arrive sur le sixième doigt, vous êtes sur vos gardes .. mais là, incroyable, vous ressentez parfaitement la caresse et les poils du pinceaux passer sur votre peau. Vous ressentez physiquement ce doigt en plus…
    En quelques minutes, votre cerveau a donc assimilé un membre artificiel !

    Et voilà tout l’enjeu des expériences que nous menons dans mon laboratoire : Réussir à vous faire croire à des chimères, à des choses impossibles.
    Entre nous, je peux vous confier notre « truc » de magicien : en fait, lorsque vous voyez le pinceau passer sur le sixième doigt, en réalité moi je passe au même moment avec mon pinceau sur votre annulaire. Et votre cerveau va projeter cette sensation tactile au niveau du sixième doigt .. et ça marche très bien !
    Mais le plus incroyable dans cette expérience, c’est quand, à la fin, j’appuie sur un bouton pour restaurer une apparence « normale » à votre main virtuelle, qui redevient donc, instantanément, une main à cinq doigts. Tout est rentré dans l’ordre, et pourtant vous ressentez cette fois comme un manque… Comme si .. on vous avait coupé un doigt ! Une impression d’ « amputation » qui montre à quel point votre cerveau s’était habitué profondément à un doigt qui n’existait pourtant pas quelques instants auparavant !

    Les effets de la réalité virtuelle peuvent donc être extrêmement puissants. Et c’est bien parce-que ces effets sont si puissants, que je vous conseille de faire attention au moment de choisir votre avatar.. vous savez, ce personnage qui vous représente sur internet ou dans le monde virtuel. Quelle apparence, et quel corps virtuel allez-vous choisir ? Le choix est en théorie infini. Vous pouvez adopter un corps plus petit ou plus grand ? Sinon plus corpulent, plus mince, plus ou moins musclé ? Vous pouvez même virtuellement essayer de changer de genre, ou de couleur de peau. C’est l’occasion.
    Mais attention il faut bien choisir. Car l’apparence de cet avatar, et ses caractéristiques, vont ensuite influencer considérablement votre comportement dans le monde virtuel.
    Par exemple, des chercheurs ont montré que si l’on s’incarne pendant quelques temps dans l’avatar d’un enfant de 6 ans, et bien nous allons progressivement nous comporter de manière plus enfantine, en se mettant à parler avec une voie à la tonalité un peu plus aigüe. Un peu comme si l’on régressait, ou si l’on vivait une cure de jouvence éclair. Dans une autre étude, des participants s’incarnaient dans un avatar ressemblant fortement à Albert Einstein, le célèbre physicien. Et on leur demandait de réaliser des casse-têtes, des tests cognitifs. Et bien le simple fait de se retrouver dans la peau d’Einstein permet d’améliorer ses résultats de manière significative ! Comme si cette fois on devenait plus intelligent en réalité virtuelle. Cela peut donc aller très loin…
    On appelle ça l’effet « Protéus » en hommage à une divinité de la mythologie Grecque appelée « Protée » qui aurait le pouvoir de changer de forme. Cela évoque l’influence de cet avatar sur votre comportement et votre identité, qui deviennent « malléables », « changeants » dans le monde virtuel, mais aussi dans le monde réel, car cet effet peut même persister quelques temps après l’immersion, lorsque vous retirez votre casque.

    Bon, c’est très bien tout cela, vous allez me dire ..mais .. à quoi ça sert ? Pour moi, les applications les plus prometteuses de ces technologies, en tout cas celles sur lesquelles nous travaillons d’arrache-pied dans notre laboratoire, concernent le domaine médical. En particulier, les thérapies et la « rééducation ».
    Par exemple, si nous évoquons la crise sanitaire de la covid19, nous avons tous été affectés, plus ou moins durement. Nous avons tous une connaissance qui a contracté la maladie sous une forme grave, qui a parfois nécessité une hospitalisation et un séjour en réanimation, avec une intubation, dans le coma.
    Lorsque l’on se réveille, on se retrouve très affaibli, notre masse musculaire a complètement fondu. Il est devenu impossible de marcher ou de s’alimenter tout seul. Il va donc falloir réapprendre tous ces gestes du quotidien…
    D’ailleurs cette situation est vécue pas seulement dans le cas de la covid19, mais par près de la moitié des patients intubés en réanimation

    Le problème … c’est qu’il existe actuellement peu de moyens pour se rééduquer et faire de l’exercice dans cet état. Notamment parce que si vous commencez à pratiquer un exercice physique, simplement vous mettre debout, votre cœur n’est plus habitué et vous risquez de faire un malaise/syncope !
    C’est pourquoi, avec mes collègues chercheurs, nous avons mis au point une application très innovante qui est justement basée sur la réalité virtuelle et les avatars.
    Je vous propose de vous mettre un instant à la place d’un des patients. Vous vous êtes réveillé il y a quelques jours, dans un lit d’hôpital, perfusé, relié à une machine qui surveille en permanence votre état. Vous êtes encore sous le choc, très fatigué, vous ne pouvez plus bouger. Les heures sont longues.. Aujourd’hui on vous propose de tester notre dispositif. Vous enfilez donc un casque de réalité virtuelle, directement depuis votre lit. Dans la simulation, vous êtes représenté par un avatar, qui vous ressemble. Vous êtes assis sur une chaise virtuelle, dans une chambre d’hôpital virtuelle, relativement similaire à celle où vous vous trouvez en vrai.
    Lorsque vous êtes prêt, le soignant lance la simulation et .. votre avatar se lève et fait quelques pas. C’est alors une sensation très puissante, un peu comme si vous regardiez un film en étant vraiment dans la peau de l’acteur, en voyant tout ce qu’il fait à travers ses propres yeux. Vous vous voyez donc vous mettre debout et marcher… pour la première fois depuis bien longtemps !
    Ensuite, l’aventure continue de plus belle : l’avatar ouvre une porte et sort de la chambre. Un ponton en bois s’étend devant vous sur plusieurs centaines de mètres, et vous avancez tranquillement dessus, pour parcourir un paysage magnifique, tantôt une plage, tantôt une prairie, tantôt une forêt. Dépaysement garanti !
    Pendant tout ce temps, vous vous voyez donc à l’intérieur d’un « corps en mouvement », « un corps qui marche », qui « re-marche » et se promène, alors que, en réalité, vous êtes toujours resté allongé dans votre lit d’hôpital.

    Cette séance de marche virtuelle « par procuration », nous allons la répéter tous les jours, pendant 9 jours, à raison de 10 minutes par session.
    Notre hypothèse est que, en se voyant ainsi tous les jours en train de marcher, et en imaginant que l’on est en train de le faire, le cerveau va réactiver certains circuits liés à la locomotion, et va d’une certaine manière démarrer en avance son processus de rééducation.
    Et nous espérons que, grâce à cela, les patients vont ensuite se remettre à marcher plus vite et récupérer plus efficacement ; en améliorant par la même occasion leur moral et leur confiance dans l’avenir.
    Les essais cliniques ont démarré depuis quelques mois au CHU de Rennes. Comme dans tout travail de recherche médicale on ne connaîtra les résultats qu’à la toute fin de l’étude, dans six à douze mois. Mais ce que nous savons déjà, à l’heure où je vous parle, le 25 Septembre 2021, c’est que pratiquement tous les patients et les soignants qui ont utilisé cet outil en sont ravis, et qu’ils souhaitent même pouvoir continuer de l’utiliser après les essais.

    Alors, le principe d’une hypothèse c’est que l’on ne maîtrise pas le résultat final, mais moi .. j’y crois. Et je suis persuadé que cette technologie permettra d’obtenir des thérapies différentes, plus rapides, plus efficaces, et surtout plus accessibles demain pour de très nombreux patients à travers le monde.
    Mais vous maintenant, comment réagirez-vous, demain, dans quelques années, lorsque vous irez voir votre médecin, votre kiné, ou même simplement votre prof de sport ou de danse, lorsqu’elle vous tendra un visiocasque, et vous dira « alors, vous êtes prêt pour votre petite séance ? Et aujourd’hui, quel avatar voulez-vous choisir ? ».
    Ce sera donc à votre tour de choisir.. Et en faisant ce choix, vous détenez les clés, vous devenez acteur de votre propre transformation dans le virtuel et peut-être aussi dans le réel. Alors souvenez-vous, choisissez bien, car maintenant, vous savez les effets profonds et les pouvoirs bien réels de la réalité virtuelle sur votre cerveau.

     Anatole Lécuyer, Chercheur Inria.

  • Aha ! Le cri de la créativité du cerveau

    Oui, binaire s’adresse aussi aux jeunes de tous âges, que les sciences informatiques laissent parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible, comment modéliser informatiquement la… créativité. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

    – Aha !
    – Toi, tu viens de trouver quelque chose
    – Oh oui : j’étais dans l’impasse depuis un moment pour résoudre mon problème, j’avais vraiment tout essayé, et puis là, soudainement, cela m’est apparu : la solution est devenue claire, générant un vrai plaisir intellectuel, et avec la certitude que c’est bien ça.
    – Ah oui, c’est ce que les spécialistes en neuroscience appellent l’insight.  Ça se rapproche de l’intuition; on parle aussi de l’effet Eureka, et c’est super bien étudié.
    – Tu veux dire qu’on sait ce qui se passe dans le cerveau à ce moment-là
    – Oui et mieux encore : on sait simuler cela de manière informatique.
    – Allez, vas-y, explique.

    – Assez simplement quand on “pense”, il y a une partie de notre pensée qui est explicite : on amène de manière explicite des éléments dans notre mémoire de travail, pour les utiliser. Il y a à la fois des souvenirs épisodiques personnellement vécus dans un lieu et à un instant donné et des connaissances générales sur les choses, à propos des règles d’action.Mais il y aussi toute une part de notre cerveau qui fonctionne implicitement, c’est à dire qui utilise des processus automatisés (donc non conscients) correspondant à des résumés, des simplifications, de pensées explicites anciennes que l’on a tellement pratiquées qu’on a fini par les automatiser. Elles sont plus rapides et simples à utiliser mais moins adaptables et moins facile à interpréter. On peut alors raisonner de manière analytique en restant au niveau explicite ou solliciter la partie implicite de notre pensée pour fournir des pistes plus inédites, et cela correspond au fonctionnement d’une partie du réseau cérébral dit “par défaut” qui s’active quand on laisse libre court à nos pensées. Ce réseau sert aussi en utilisant notre mémoire épisodique à générer des souvenirs et des épisodes imaginaires qui aident, à partir de la situation présente, à explorer les possibles.

    Modèle anatomique et fonctionnel du réseau du mode par défaut. Michel Thiebaut de Schotten, via Wikipédia © CC BY-SA, On trouvera une description précise ici.

    – Ok alors, en gros pour résoudre une tâche créative, on se prépare et puis ensuite on laisse notre cerveau tourner pour voir à trouver des choses inattendues ?
    – Tu as doublement raison : ça ne vient pas tout seul, il faut bien une phase d’initiation pour que les mécanismes implicites fonctionnent, puis une phase de “lâcher prise” et…
    – Et que se passe-t-il lors du “Aha” ?
    – Et bien regarde : il y a une rafale d’oscillations à haute fréquence du cerveau, précédée d’oscillations préparatoires plus lentes :


    Quand le phénomène d’insight apparaît il est précédé d’une augmentation des oscillations lentes du cerveau (rythme alpha qui correspond à une activité de “repos” sans effectuer de tâches particulières mais qui permet au cerveau de travailler en interne) puis se manifeste avec l’apparition d’oscillations rapides (rythme gamma concomitant à l’arrivée à la conscience d’une perception au sens large en lien avec les phénomènes d’attention. ©CLIPAREA I Custom media/Shutterstock.com (image de gauche) et adapté de The Cognitive Neuroscience of Insight, John Kounios et Mark Beeman Annual Review of Psychology, January 2014 (image de droite)

    Comme une vague de fond qui arrive ?
    – Oui : le moment “Aha” , c’est justement quand tout s’emboîte : quand on se rend compte que la solution trouvée convient à la fois au niveau du sens des choses (au niveau sémantique) et de leur fonctionnement (on parle de niveau syntaxique).
    – Ah oui : on en a une vision vraiment précise effectivement, j’ai même vu ici que cela conduit à des conseils pratiques pour doper sa créativité.
    – Ce qui est vraiment intéressant, c’est qu’au delà de ces observations on commence à pouvoir décrire les processus calculatoires mis en oeuvre dans ces processus divergents d’exploration de nouvelles pistes (par exemple des mécanismes de recherche aléatoires ou des processus qui généralisent une situation en y ajoutant des éléments “hors de la boîte” initiale) et de mécanismes convergents de validation que ce qui est trouvé est pertinent et utile.
    – Tu veux dire qu’on a des modèles informatiques de ces mécanismes créatifs ?
    – Oui plusieurs, par exemple Ana-Maria Oltețeanu, pour ne citer qu’une collègue, a regardé comment tout cela peut se mécaniser et d’autres scientifiques fournissent des outils pour aider à faire ce délicieux travail de créativité. Il y a par exemple DeepDream qui peut générer des images inédites à partir de nos consignes, ou créer des animations 3D à partir d’images de 2D, ou générer de la musique statistiquement proche d’un style musical donné, voire inventer de nouveaux styles complètement inédits grâce aux Creative Adversarial Networks (CAN).
    – Mais du coup, ça va permettre de développer des intelligence artificielles créatives à notre place ?
    – Ah ben peut-être (ou pas), mais pourquoi serait-on assez con, pour se priver de ce qui est le plus cool pour nous intellectuellement, créer ! En le faisant faire par une machine capable de produire des choses nouvelles mais pas d’envisager ou juger l’émoi qu’elles suscitent, donc qui n’a pas d’intention créatrice faute de grounding ?
    – Ah mince, encore un mot anglais à comprendre pour te suivre.
    – T’inquiète, il y a un autre article de Petit Binaire qui explique tout ça.

    Frédéric Alexandre, Chloé Mercier et Thierry Viéville.

    Pour aller plus loin : Creativity explained by Computational Cognitive Neuroscience https://hal.inria.fr/hal-02891491

  • Que se passe-t-il dans les cerveaux des cons ?

    binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible … comment les mots prennent du sens dans notre cerveau et ainsi  mieux comprendre la différence entre l’intelligence naturelle et algorithmique.
    Marie-Agnès Enard, Pascal Guitton  et Thierry Viéville.

    – Alors y’a des gens tu parles avec eux, tu crois qu’ils te comprennent, et tout d’un coup, comme un voile qui se déchire, ils te lâchent une énormité … et tu réalises qu’en fait ils n’ont rien compris depuis le début. 

     – Ok, si je te suis bien, ta définition de la connerie, ce serait une personne avec qui tu discutes, mais finalement les mots ne font pas vraiment sens pour elle ?

    Dans le film «Diner de con » de Francis Veber, le personnage de François Pignon n’est pas dénué d’intelligence, loin de là, c’est d’ailleurs  le ressort de cette comédie pour … inverser les rôles, mais beaucoup d’éléments incarnés dans nos rapports sociaux ne font pas de sens pour lui ©EFVE

    – Oui, c’est ça : quelqu’un qui a appris à manipuler les symboles du langage, qui peut donner l’illusion un moment, mais en fait ces symboles ne font pas vraiment sens pour lui, leur signification n’est pas enracinée dans son intelligence humaine. 

    – Ah oui, c’est pas con. Et tu sais quoi ? Tu viens de soulever le problème du fondement des symboles, c’est à dire comprendre comment un signe (un mot, un geste, un son, …) acquiert son sens dans notre cerveau humain.

    – Et on a compris ça ? 

    – En partie oui. On sait par exemple que quand les mots font référence à une personne ou une chose, par exemple en utilisant une description physique “l’objet en bois muni d’un tuyau avec un embout noir et un fourneau marron” ou une description par son usage “le truc où on met du tabac qu’on allume pour aspirer la fumée”, ces mots prennent du sens. C’est une étape nécessaire de trouver un tel lien pour décider quelle chose on désigne. D’ailleurs dans le cerveau les zones qui correspondent à la perception de cet objet s’activent quand le mot qui le désigne prend du sens. Et selon certaines théories, le cerveau comprendrait ces descriptions car il ferait une « simulation » physique de la description, et c’est pour ça qu’elle serait « grounded » même si c’est pas une expérience vécue. 

    Dans ce tableau dit de “la trahison des images” René Magritte nous interpelle sur cette image de pipe qu’on ne peut ni bourrer, ni fumer, comme on le ferait avec une vraie pipe. ©University of Alabama site

    – Ah oui .. ça s’allume dans ma tête ! Tu veux dire qu’un objet prend du sens par rapport à son aspect ou l’usage qu’on peut en faire en lien avec les zones cérébrales concernées ? 

    – C’est çà, on est capable de choisir des référents des symboles qu’on manipule et pour que ça fonctionne, cela doit se faire consciemment, en lien avec les potentialités (ce qu’on peut faire avec) liées à ce symbole. 

    –  En fait, notre intelligence humaine est forcément incarnée en lien avec notre corps, alors ?

    – Absolument. Et même quand on fait des maths, ou que l’on développe des pensées abstraites, en fait on “détourne” des mécanismes incarnés pour ses usages plus édulcorés.

    John Searle partage une expérience de pensée où un programme informatique, aussi complexe que nécessaire, ou bien une personne dotée de tous les documents idoines, simule une conscience capable de mener un dialogue en chinois sans que cela fasse le moindre sens pour elle. ©wikicommon

    – Mais alors, les personnes qui pensent que grâce au numérique on va pouvoir transférer toute notre mémoire et ses mécanismes, y compris notre conscience, dans un ordinateur pour vivre éternellement, c’est du délire ? 

    – oui, c’est très con. En fait c’est un fantasme assez courant et ancien : avant on pensait pouvoir prendre possession d’un corps plus jeune et y transférer notre esprit pour une nouvelle vie, mais notre esprit fait corps avec notre corps en quelque sorte.

    – Alors si je te suis bien, l’idée qu’on attribue à René Descartes d’une dualité corps-esprit c’est pas trop en phase avec la neurologie cognitive moderne alors ?

    – Eh, tu as bien suivi 🙂

    – Mais alors, dans un ordinateur, les symboles qui sont manipulés ne font pas de sens, puisqu’il y a pas de corps avec lesquels ils peuvent s’incarner ?

    – C’est cela, bien entendu on peut “simuler” c’est à dire reproduire par le calcul, le comportement d’une intelligence naturelle traitant un type de question bien particulier et, qui va “faire comme si”, au point de tromper pendant un temps limité, mais qui peut-être long. Ah oui comme un con qui tente de se comporter de manière pertinente, mais à qui il manque des “bases” et qui va forcément finir par dévoiler que les choses ne font pas de sens pour lui.

    – Exactement, Et tu vois en quelques échanges on vient tout simplement de donner  quelques éléments de compréhension de cette notion complexe de  fondement des symboles (« grounding » en anglais) qui remet en cause l’idée d’intelligence artificielle désincarnée mais “consciente”.

    – Ah ben ouais, j’me sens moins con 🙂

    P.S.: Merci à Xavier Hinaut pour sa relecture et un apport.

  • Mon cerveau et ses biais dans la prise de décision

    Les systèmes d’Intelligence Artificielle sont souvent vus comme des systèmes d’aide à la décision. Est-ce que cela veut dire que l’on sait modéliser la décision ? Que l’on sait faire ou veut faire des machines qui décident comme des humains ? C’est en tout cas un sujet qui intéresse l’équipe Inria Mnemosyne de Fréderic Alexandre, spécialisée dans l’étude des fonctions cognitives supérieures par l’étude du cerveau, qui modélise les circuits cérébraux de la décision. Marie-Agnès Enard et Thierry Viéville.

    Expliquons tout d’abord comment cette fonction cognitive qu’est la décision, est décrite en langage mathématique et comment nous la transcrivons et l’adaptons en circuits neuronaux. Nous tâcherons d’indiquer comment, pour un sujet de décision éco-responsable, ce point de vue est associé à celui d’autres disciplines pour innover dans l’aide à la décision. Nous évoquerons aussi la prise en compte de nos biais cognitifs, et comment les expliquer.

    Mieux comprendre comment s’opèrent les choix dans notre cerveau et son fonctionnement, c’est ce que propose d’expliquer le neurobiologiste bordelais Thomas Boraud dans son dernier ouvrage

    Définir la décision sous l’angle des mathématiques

    Décider de la validité d’une proposition, c’est recueillir des indices en faveur ou contre cette proposition, observer que l’accumulation de ces indices fait pencher la balance d’un coté ou de l’autre et, à un certain moment, trancher, c’est à dire penser qu’on a une vue assez représentative de la situation pour transformer cette oscillation entre deux pôles en une décision catégorique : oui ou non ou bien encore cette proposition est vraie ou fausse. Cet énoncé suggère plusieurs types de difficultés liées à la décision. Commençons par les plus évidentes. Premièrement, il faut avoir entendu, de façon équitable, les deux parties (le pour et le contre) et savoir évaluer chacun des arguments présentés pour les mettre sur une échelle commune et savoir les comparer. Deuxièmement, il faut avoir entendu assez longtemps les deux parties pour se faire un avis non biaisé, mais aussi, à la fin, il faut décider ; on ne peut pas rester tout le temps dans l’indécision. Il y a à trouver ici un compromis entre la vitesse et la justesse de la décision.

    Pour ces deux types de difficultés, les mathématiques développent des outils intéressants. Certains sont proposés pour coder et comparer l’information de la façon la plus objective (la moins biaisée) possible. D’autres permettent de définir, pour un niveau de précision souhaité, le seuil optimal de différence entre les avis « Pour » et « Contre » qu’il faut atteindre avant de décider. Ces modèles mathématiques ont été mis en œuvre pour des tâches de décision perceptive élémentaires : vous voyez un nuage de points en mouvement et vous devez décider si, globalement, ces points vont plutôt à droite ou à gauche. Il est possible de rendre cette tâche très difficile en programmant le mouvement de chacun des points avec des fonctions en grande partie aléatoires, ce qui rend une décision locale impossible. Or on peut montrer que ces modèles mathématiques parviennent à reproduire très fidèlement la décision humaine, aussi bien dans ses performances que dans ses caractéristiques temporelles.

    Décider est souvent peser le pour et le contre, de manière non biaisée, c’est ce que l’on représente au niveau de l’allégorie de la justice avec le bandeau et la balance à fléau. ©Joseolgon – Own work, wikicommon

    Ces modèles mathématiques sont également intéressants car, en les analysant, on peut observer les grandeurs et les phénomènes critiques au cours de la décision. Bien sûr, on trouve dans cette liste la détection de chaque indice, mais aussi leur accumulation, la différence entre les solutions alternatives, leur comparaison au seuil de décision, etc. Des études d’imagerie cérébrale permettent d’identifier les différentes régions du cerveau impliquées dans l’évaluation de chacun de ces critères et, au cours de la décision, l’ordre dans lequel ces régions sont activées. Notre équipe de recherche travaille dans la réalisation de réseaux de neurones artificiels qui, d’une part, calculent de façon similaire à ces modèles mathématiques et d’autre part, sont organisés selon une architecture globale reproduisant la circuiterie observée par imagerie et reproduisant également la dynamique d’évaluation. C’est à ce stade que nous pouvons constater que les modèles mathématiques évoqués plus haut ont un certain nombre de limitations et que nous pouvons modifier et adapter nos réseaux de neurones pour considérer des cas plus réalistes.

    Quand les mathématiques ne suffisent plus

    Au-delà, il nous faut considérer plus que des sciences formelles : des sciences humaines. Nous nous intéressons en particulier à trois types de limitation des modèles mathématiques.

    – Premièrement, nous pouvons aller au-delà de ces modèles qui considèrent uniquement des décisions binaires (droite/gauche) en introduisant, dans les calculs neuronaux, des étapes de codage supplémentaires et des non-linéarités permettant de pouvoir considérer plusieurs catégories.

    – Deuxièmement, les modèles mathématiques sont le plus souvent appliqués à des indices perceptifs alors que des arguments de nature différente peuvent être présentés pour emporter une décision (l’évocation de souvenirs ou de valeurs émotionnelles par exemple). Nous cherchons à bénéficier du fait que nos réseaux de neurones sont inscrits dans la circuiterie de l’architecture cérébrale et à étudier comment ajouter d’autres indices (mnésiques ou émotionnels) provenant d’autres aires cérébrales.

    – Troisièmement, alors que nous avons parlé jusqu’à présent de décisions mathématiquement fondées (certains disent logiques ou rationnelles), il est connu que les humains sont soumis à différents types de biais quand ils font des jugements, ce qui laisse souvent penser que nous ne sommes pas rationnels.

    En collaboration avec les sciences humaines et sociales qui étudient et décrivent ces biais, nous cherchons à montrer que nous pouvons les expliquer et les reproduire en manipulant certains paramètres de nos modèles. Nous prétendons aussi que ces biais ne montrent pas une faiblesse de notre jugement mais plutôt une orientation de ce jugement tout à fait pertinente pour un être vivant évoluant dans des conditions écologiques. Donnons quelques exemples. Au lieu d’intégrer tous les arguments de la même manière dans notre jugement, nous pouvons être soumis à un biais de récence ou de primauté, selon que les indices les plus récents ou les plus anciens vont jouer un rôle plus important dans la décision. Ce type de jugement, qu’on peut reproduire en modifiant certains paramètres internes du calcul neuronal, peut paraître plus adapté pour certaines situations avec des conditions changeantes (récence) ou stables (primauté). On sait par ailleurs que détecter ce type de conditions nous fait émettre des neurohormones qui modifient la nature du calcul neuronal en modifiant certains de leurs paramètres. Nous essayons de reproduire ces mécanismes dans nos modèles.

    Un autre biais, appelé aversion au risque, fait que nous surestimons les indices défavorables par rapport aux indices favorables. Il a été montré expérimentalement en économie que les neurones qui codent les pertes et les gains ne sont pas soumis aux mêmes non-linéarités dans leurs calculs, ce que l’on sait simplement reproduire dans nos modèles. Ici aussi, on peut comprendre que, pour un être vivant qui ne fait pas que calculer des bilans financiers, il est judicieux d’accorder plus d’importance à ce qui peut nous nuire (et potentiellement nous blesser) qu’à ce qui est positif (et qu’on aura d’autres occasions de retrouver). De façon similaire, d’autres types de biais, appelés de référence ou de préférence, font que nous allons accorder plus d’importance à des indices faisant référence à un événement récent ou à une préférence personnelle. Ici aussi, introduire des mécanismes cérébraux connus de types mnésiques permet de reproduire ces phénomènes, dont l’intérêt adaptatif semble aussi clair. Enfin un dernier type de biais concerne la différence entre les valeurs que nous donnons à des situations et les valeurs que nous donnons aux actions pour les atteindre ou les éviter et que l’on connaît bien en addictologie : alors que l’on sait très bien que alcool, tabac et autres drogues sont mauvais pour nous, diminuer nos actions de consommation n’est pas forcément simple. On sait que dans le cerveau ces valeurs sont dissociées, autrement dit que nos actions ne reflètent pas toujours nos pensées.

    L’équipe-projet Mnemosyne d’Inria commune avec le Labri et  l’IMN à Bordeaux travaille sur la modélisation des fonctions cognitives du cerveau, de manière pluri-disciplinaire. (Crédit : Inria / Photo H.Raguet).

    Une application concrète : aider à avoir un comportement plus éco-responsable

    Avec l’aide de la Région Nouvelle Aquitaine, d’Inria et des universités de Bordeaux et de La Rochelle, nous sommes actuellement impliqués dans un projet visant à mieux comprendre les décisions humaines relatives au changement climatique et à la transition écologique. Il s’agit d’un sujet de décision visant à changer nos comportements. On peut constater que la plupart des biais mentionnés plus haut s’appliquent : est-on prêts à changer d’habitude maintenant (prendre le bus plutôt que la voiture) pour des résultats à long terme (modifier la température moyenne dans 30 ans) ? Quitter des comportements faciles et observés autour de soi (prendre sa voiture comme tout le monde) et mettre en œuvre nos convictions citoyennes (différence entre ce qu’on pense et ce qu’on fait) ? Etc.

    Ce projet va nous permettre à la fois de recueillir des informations pour affiner nos modèles et de tester leurs prédictions en interagissant avec les utilisateurs. Pour cela, nous utilisons une application que des personnes volontaires auront installée sur leurs smartphones. Cette application les aide à choisir leur mode de transport pour aller travailler et les informe sur les caractéristiques éco-responsables de leurs choix. Nous aurons ainsi accès aux décisions qui auront été prises, en fonction des situations mais aussi des informations données. Nous avons l’espoir que cette approche nous permettra d’évaluer la pertinence et le poids de différents types d’arguments que nous aurons préparés en amont avec nos collègues des sciences humaines et sociales, reposant en particulier sur des hypothèses issues de nos modèles et sur des mécanismes supposés de la prise de décision.

    Dans ce projet, nous avons orienté notre approche selon les convictions suivantes :

    – D’une part, si nous savons bien décrire les caractéristiques de cette prise de décision et en particulier pourquoi et quand elle est difficile, nous pouvons proposer des mises en situations qui seront plus favorables à des prises de décision responsables.

    – D’autre part, nous faisons également le pari du citoyen informé et proactif. Si nous décrivons ces mécanismes de décision, leurs biais et leur inscription cérébrale, cela peut permettre de déculpabiliser (ce sont des mécanismes biologiques à la base de ces biais) et de donner des leviers pour travailler sur nos processus mentaux et réviser nos modes de pensée.

    Frédéric Alexandre, Directeur de Recherche Inria.

  • Neurosmart, une histoire de cerveau et de passionnés

    Comment expliquer au mieux au grand public, aux étudiantes et étudiants, mais aussi à d’autres collègues chercheurs, notre métier de chercheuses et chercheurs ? Comment expliquer le lien entre les neurosciences, la cognition et l’informatique de manière la plus accessible à chacune et chacun, quel que soit le niveau de connaissance dans ces domaines ? Ikram Chraibi-Kaadoud nous propose une réponse. Thierry Viéville.

    Fiche d’identité du projet

     

    La passion de la cognition : Ode au cerveau, chef d’orchestre !

    Les sciences cognitives sont une science de sciences : elle consiste en l’étude et la compréhension des fonctions cognitives tel que la mémoire, le langage, les fonctions exécutives, les fonctions visuo spatiale et le langage. Autrement dit, les sciences cognitives s’intéressent à nous, humains !

    C’est une science regroupant entre autres des neurosciences, de la psychologie, de l’anthropologie, de la linguistique et bien sur l’informatique.

    Ce dernier domaine permet de créer des modèles artificiels s’inspirant du fonctionnement biologique du cerveau, on parle alors de neurosciences computationnelles, ou du fonctionnement cognitif, on parle alors de modélisation de la cognition.

    En tant qu’humain nous sommes de plus en plus intéressés par la compréhension de notre soi profond, de ce qui fait de nous, ce que nous sommes. Depuis l’antiquité, nous nous sommes toujours intéressé à essayer de comprendre l’humain, démystifier nos idées reçues sur ce sujet, et plus précisément étudier cet organe qu’est le cerveau. Il a fallu d’abord comprendre que le siège de la pensée était dans la tête (et non dans le cœur comme le pensait, par exemple, Aristote), puis avancer l’hypothèse avec le siècle des lumières, que la pensée se décomposait en fonctions (on parle aujourd’hui de fonctions cognitives), qui se retrouvaient dans différentes parties du cerveau, tandis qu’au niveau philosophique les liens entre matière et esprit de Descartes aux premiers matérialistes et empiristes, était un grand sujet de réflexion, qui commencera à se clarifier avec la révolution scientifique du XIXème siècle et en particulier la possibilité de mesurer l’activité neuronale.

    Or il existe une grande difficulté lorsque la chercheuse passionnée que je suis, cherche à expliquer à ses étudiants ou au grand public ce qu’est la modélisation de la cognition et comment peut-on passer de l’humain à une machine (par exemple pour simuler, afin de valider les modèles proposés), tant les concepts associés peuvent paraître abstraits ou incompréhensibles.

    En effet, en communication, il est estimé qu’il existe une différence entre le message émis, celui entendu et celui assimilé. Autrement dit, en temps normal il est parfois difficile d’éviter les incompréhensions et les malentendus, alors imaginez lorsqu’il s’agit de sujets complexes comme la cognition !

    Mais au-delà de cela, lorsqu’il n’y a pas de connaissances communes d’un milieu, on parle alors de représentation des connaissances partagées (par le vécu ou l’expérience), il est encore plus difficile d’expliquer. Imaginez expliquer à quelqu’un qui n’a jamais vu ou utilisé de micro-ondes, qu’il existe une machine capable de chauffer vos plats en un instant et que la pression de boutons différents, aboutira à un résultat différent (décongélation, changement de poids, lancement de 30s de chauffage etc) 2. Voyez-vous c’est compliqué… et cela à moins de lui montrer ce qu’est un micro-onde et de lui en faire une démonstration.

    Nous, chercheurs, développeurs, individus de tout horizon, passionnés par la cognition, le cerveau, les neurosciences, en bref passionnés d’humain, nous sommes posés la même question : comment expliquer au mieux au grand public, aux étudiantes et étudiants, mais aussi à d’autres collègues chercheurs, notre métier ? Comment expliquer le lien entre les neurosciences, la cognition et l’informatique de manière la plus accessible à chacune et chacun, quel que soit le niveau de connaissance des domaines ?

    Après des heures de labeur, de réflexions, d’ateliers et d’échanges passionnés, nous sommes heureux de vous présenter (non sans une pointe de fierté avouons-le) Neurosmart !!

    Un lien entre la cognition et les neurosciences à travers de la 3D

     

    Interaction, visualisation et pédagogie sont les mots clés décrivant Neurosmart. Outil de pédagogie alliant contenu, textuel, image ou vidéo et modélisation 3D du cerveau, Neurosmart est un logiciel disponible sur une plateforme web qui a pour but d’offrir plusieurs scénarios ludiques présentant la sollicitation de fonctions cognitives dans différents contextes. Le but de cet outil est de démystifier le fonctionnement cérébral associé à certaines fonctions cognitives dans différents scénarios.

    Par exemple, que se passe-t-il lorsqu’on a peur ? Comment notre cerveau explore-t-il l’espace visuel ? Quels réseaux s’activent lors de la compréhension du langage ? Autant de situations que l’on vit au quotidien de manière instantanée et naturelle sans réellement y penser, or notre cerveau répond efficacement à chaque fois !

    Ainsi si vous vous posez ces questions, jouez avec Neurosmart et même plus, participez-y !

    Ouvert à la contribution de tous, cet outil initié par des passionnés scientifiques et de tous horizons, se veut accessible, évolutif et surtout participatif. Vous souhaitez en savoir plus sur un scénario que vous vivez au quotidien ? Alors rejoignez-nous, appropriez-vous le sujet et proposez votre propre scénario !

    Seul ou ensemble, participons à la construction d’un savoir faire par tou.te.s, accessible pour tou.te.s, car après tout l’humain n’est-il pas l’affaire de chacun.e d’entre nous, non ? 😉

    Concrètement, comment ça fonctionne ? 

    Il s’agit d’un site web où il est possible de visualiser plusieurs scénarios. Un scénario est le nom donné à une situation particulière que vit un individu et pour laquelle ses fonctions cognitives vont être sollicitées pour pouvoir y réagir.

    Ce n’est pas clair, regardez la vidéo qui suit !

    Une vidéo de démonstration plus étoffée est disponible aux liens suivants :

    En francais : https://www.youtube.com/watch?v=2i7ut6yFNHs

    En anglais : https://youtu.be/58JB0yR3-Bc

    L’idée de Neurosmart est donc de :

    1. Décortiquer une série d’actions réalisée par un personnage dans une situation donnée
    2. Associer visuellement neurosciences et sciences cognitives en explicitant pour chaque action les structures cérébrales qui sont impliquées et mettre en avant cela par une visualisation 3D dynamique (c’est littéralement le cerveau qui s’illumine au sens propre du terme !)
    3. Expliquer textuellement les mécanismes cognitifs, qui interviennent dans les actions et les interactions entre les structures cérébrales par du texte.
    4. Enfin dernier point, mais pas des moindres, permettre de fouiller la représentation 3D du cerveau en le manipulant. A tout moment, vous pouvez zoomer, déplacer et changer l’orientation du cerveau afin de mieux visualiser comment les structures cérébrales s’agencent entre elles!

    Notre fierté est que vous pouvez tous rejoindre les rangs des autrices et auteurs de scénarios, voire même des développeurs !

    En effet, le code et l’ensemble des sources sont disponibles sur un gitlab ouvert à tous !

    Vous pouvez même proposer à vos amis non-francophones de proposer des scénarios ensemble, puisque Neurosmart est multilingue ! Le scénario “How to catch a fight on time? “ a justement été réalisé par un collègue anglophone !

    Que retenir?

    Neurosmart est l’idée farfelue née du souhait de partager autour d’une passion commune : le cerveau ! C’est un site web doté d’un module 3D qui permet de visualiser des personnages en situation et de comprendre quels sont les processus cognitifs et cérébraux qui interviennent dans ces situations. Le cerveau s’illumine, tourne, et on peut interagir avec à souhait !

    Ce projet a permis la collaboration de chercheurs en IA, en neurosciences computationnelles, en modélisation de la cognition, de chercheurs en neurosciences, de chef·fe·s de projet, de développeur·e·s web, de stagiaires, doctorants et bien d’autres passionnés d’horizons divers et variés…

    Vous êtes les bienvenues pour nous rejoindre, car en science et en médiation c’est tous ensemble que nous irons plus loin!

    Ikram Chraibi Kaadoud avec la complicité de Martine Courbin & Thierry Viéville.  Ont contribué à ce projet : Frédéric Alexandre, Denis Chiron, Ikram Chraibi-Kaadoud, Martine Courbin, Snigdha Dagar, Thalita Firmo-Drumond, Charlotte Héricé, Xavier Hinaut, Bhargav teja Nallapu, Benjamin Ninassi, Guillaume Padiolleau, Silvia Pagliarini , Sophie de Quatrebarbes, Nicolas Rougier, Remya Sankar, Antony Strock, Thierry Viéville.

    Ce projet a été co-financé par la Fondation Blaise Pascal*, le Réseau néo-aquitain de culture scientifique et la médiation scientifique Inria.

    (*) La fondation Blaise Pascal  a pour vocation de promouvoir, soutenir, développer et pérenniser des actions de médiation scientifique en mathématiques et informatique à destination de toute citoyenne et citoyen français, sur l’ensemble du territoire. Ses actions se portent plus particulièrement vers les femmes et les jeunes défavorisés socialement et géographiquement, et ce dès l’école primaire. Nous en reparlerons su binaire.

    En savoir plus sur Neurosmart :

    https://mnemosyne.gitlabpages.inria.fr/neurosmart/presentation.html

    Fichiers sources et documentation  :: https://gitlab.inria.fr/mnemosyne/neurosmart

    Des idées, des questions, des projets autour de neurosmart, n’hésitez pas :  mecsci-accueil@inria.fr

     


    1 https://fr.wikipedia.org/wiki/Histoire_de_la_connaissance_du_cerveau

  • À la découverte du cerveau

    Un nouvel « Entretien autour de l’informatique ». Michel Thiebaut de Schotten est directeur de recherche au CNRS en neuropsychologie et en neuroimagerie de la connectivité cérébrale. Il travaille notamment sur l’anatomie des connexions cérébrales et leur déconnexion suite à des accidents vasculaires cérébraux ainsi que sur l’évolution du cerveau en comparant les espèces. Il a rejoint récemment l’Institut des Maladies Neurodégénératives à Bordeaux et continue à travailler avec l’Institut du cerveau et de la moelle épinière à Paris. Il est médaille de bronze du CNRS et lauréat d’un contrat prestigieux de l’European Research Council. Il fait partager à binaire sa passion pour les neurosciences. Cet article est publié en collaboration avec The Conversation.

    Michel Thiebaut de Schotten © CNRS/Délégation PMA

    B – Tu peux nous parler un peu de ton parcours ?

    MT – Je viens de la psychologie. J’ai choisi de faire un doctorat en neuroscience à la Salpêtrière (Université Pierre et Marie Curie) en 2007. Puis j’ai fait un post-doc à Londres sur la cartographie des réseaux cérébraux. Je suis depuis 2012 au CNRS. Nous utilisons beaucoup l’imagerie numérique. Nous faisons aussi un peu d’analyse postmortem pour vérifier que ce que nous avons vu dans les images correspond à une réalité.

     

    B – Il nous faudrait partir un peu de la base. Qu’est-ce que c’est l’imagerie du cerveau pour les neurosciences ?

    MT – À l’aide de l’Imagerie par résonance magnétique, on peut étudier soit la forme et le volume des organes (IRM anatomique), soit ce qui se passe dans le cerveau quand on réalise certaines activités mentales (IRM fonctionnelle). À partir des données d’IRM, on peut dessiner les réseaux du cerveau humain. Les axones des neurones sont des petits câbles de 1 à 5 micromètres, avec autour une gaine de myéline pour que l’électricité ne se perde pas, ils se regroupent en grand faisceaux de plusieurs milliers d’axones (Figure 1). C’est ce qui construit dans le cerveau des autoroutes de l’information. On peut faire une analogie avec un réseau informatique : les neurones sont les processeurs tandis que les axones des neurones forment les connexions.

    Fig. 1 Les autoroutes du cerveau. Exemple de connexions cérébrales liant les régions de l’avant du cerveau avec celles de l’arrière du cerveau. @ Michel Thiebaut de Schotten

    B – Et ces connexions sont importantes ?

    MT – Super importantes ! Un de mes premiers travaux a été de réaliser un atlas des connexions cérébrales afin de savoir quelles structures étaient reliées entre elles par ces autoroutes. En effet, pour chaque traitement cognitif, plusieurs régions doivent fonctionner en collaboration et s’échanger des informations (exactement comme différents processeurs dans nos ordinateurs). On voit aussi l’importance des connexions cérébrales quand certaines sont rompues suite à une maladie, un AVC, un accident. Cela conduit à des incapacités parfois très lourdes pour la personne.

    On estime que la vitesse de transmission de l’information dans ces réseaux est comprise entre 300 et 350 km/h ; la même que celle du TGV qui me transporte de Bordeaux à Paris mais bien loin de la vitesse de transmission de l’information dans une fibre optique. Heureusement, les distances sont petites.

    B – Ça  a l’air un peu magique. Comment est-ce qu’on met en évidence les connexions entre des régions du cerveau ?

    MT – Tout d’abord il faut préciser qu’on doit faire des mesures sur plusieurs personnes car, même si nos cerveaux possèdent des similarités, il existe des différences notables entre individus. Il faut faire une moyenne des résultats obtenus pour chaque sujet pour obtenir une cartographie en moyenne.

    L’IRM est en mesure de détecter les mouvements de particules d’eau et grâce à la myéline autour des axones qui joue le rôle de l’isolant d’un fil électrique, les mouvements de particules d’eau sont contraints dans la direction de l’axone. Ainsi en suivant cette direction on peut reconstruire les grandes connexions cérébrales. On obtient alors une carte des connexions qui ressemble à un plat de nouilles. Imaginez qu’à un millimètre de résolution, on détecte environ 1 million de connexions cérébrales qui sont repliées sur elles-mêmes dans un volume d’environ 1,5 litre ; c’est très dense !

    Il faut donc ensuite démêler ces connexions pour pouvoir les analyser finement. Au début, on partait des atlas anatomiques dessinés au 19e siècle et on essayait de reconnaître (d’apparier) les réseaux détectés avec les structures connues. Puis, on a essayé d’obtenir ces connexions en les extrayant manuellement à l’aide de requêtes comme « afficher les connexions qui relient les zones A et B sans passer par la zone C ». Aujourd’hui, on utilise des algorithmes d’extraction automatique qui détectent des composantes principales (des tendances) pour construire des faisceaux de connexion. Ces systèmes s’inscrivent dans ce qui s’appelle les neurosciences computationnelles.

    Le cerveau : neuroscience et numérique © Saint-Oma

    B – Ces réseaux ne sont pas rigides. Ils évoluent dans le temps.

    MT – Oui. Un bébé naît avec beaucoup plus de connexions que nécessaire. Puis, pendant toute l’adolescence, ça fait un peu peur, on perd des connexions en masse ; on avance le chiffre de 300 000 connexions perdues par seconde. Mais dans la même période, on spécialise et on renforce celles qui nous sont utiles ; leur utilisation augmente le diamètre et donc le débit de la connexion.

    On considère que le cerveau atteint sa maturité autour de 20 ans ; après, il est plus difficile de changer notre réseau de connexions, on se contente d’ajuster le « câblage ». Il est donc fondamental d’acquérir de nombreux apprentissages dans sa jeunesse afin d’arriver au plus haut potentiel cérébral au moment où commence le déclin cognitif.

    Il est aussi clairement démontré que l’activité cérébrale aide à mieux vieillir. Un neurone qui ne reçoit pas d’information via ses connexions avec d’autres neurones réduit sa taille et peut finir par mourir. On peut faire une analogie avec les muscles qui s’atrophient s’ils ne sont pas sollicités. En utilisant son cerveau, on développe sa plasticité.

    Enfin, si à la suite d’un traumatisme, la voie directe entre deux régions du cerveau est endommagée, le cerveau s’adaptera progressivement. L’information prendra un autre chemin, moins direct, même à l’âge adulte. Mais la transmission d’information sera souvent plus lente et plus limitée.

    B – Est-ce que nous avons tous des cerveaux différents ? De naissance ? Parce que nous les faisons évoluer différemment ?

    MT – On observe une grande variabilité entre les cerveaux. Leurs anatomies présentent de fortes différences. Leurs fonctionnements aussi. On travaille pour mieux comprendre la part de l’inné et de l’acquis dans ces différences. On a comparé les cerveaux de chefs cuisiniers et de pilotes de F1. On a aussi analysé les cerveaux d’individus avant et après avoir développé une grande expertise dans un domaine comme le jonglage ou le jeu vidéo. On avance mais on ignore encore presque tout dans ce domaine.

    B – Tu peux nous parler un peu des sciences que vous utilisez ?

    MT – Nous utilisons beaucoup de statistiques pour modéliser les propriétés de régions du cerveau. Nous utilisons aussi l’apprentissage automatique pour comprendre quelque chose aux masses de données que nous récoltons. Comme dans d’autres sciences, il s’agit de diminuer les dimensions de nos données pour pouvoir explorer la structure de la nature.

    Plus récemment, nous avons commencé à utiliser des réseaux de neurones profonds. D’un point de vue médical, cela nous pose des problèmes. Nous voulons comprendre et une proposition de diagnostic non étayé ne nous apprend pas grand-chose et pose des problèmes d’éthique fondamentaux.

    B – Est-ce que l’utilisation de ce genre de techniques affaiblit le caractère scientifique de vos travaux ?

    MT – Il y a bien sûr un risque si on fait n’importe quoi. Le cerveau, c’est un machin hyper compliqué et on ne s’en sortira pas sans l’aide de machines et d’intelligence artificielle : certains fonctionnements sont beaucoup trop complexes pour être explicitement détectés et compris par les neuroscientifiques. Mais il ne faut surtout pas se contenter de prendre un superbe algorithme et de le faire calculer sur une grande masse de données. Si les données ne sont pas bonnes, le résultat ne veut sans doute rien dire. Ce genre de comportement n’est pas scientifique.

    B – On a surtout parlé des humains. Mais les animaux ont aussi des cerveaux ? Les singes, par exemple, ont-ils des cerveaux très différents de ceux des humains ?

    MT – Je vous ai parlé de la très grande variabilité du cerveau entre les individus. On a cru pendant un temps que les cerveaux des singes ne présentaient pas une telle variabilité. Pour vérifier cela, on est parti d’un modèle de déformation. Et en réalité non, selon les régions, la variabilité est relativement comparable chez le singe et chez l’humain. Ce qui est passionnant c’est qu’on s’aperçoit que les régions qui présentent plus de variabilité chez l’humain sont des régions comme celles du langage ou de la sociabilité alors que c’est la gestion de l’espace pour les singes. Pour des régions comme celles de la vision qui sont apparues plus tôt dans l’évolution des espèces, le singe et l’humain présentent des variabilités semblables et plus faibles.

    Fig.2  L’évolution du cerveau. Comparer les connexions cérébrales entre les espèces nous permet de mieux comprendre les mécanismes sous-jacents à l’évolution des espèces. @ Michel Thiebaut de Schotten

    B – Tu vois comment faire avancer plus vite la recherche ?

    Il faudrait que les chercheurs apprennent à travailler moins en compétition et beaucoup plus en collaboration y compris au niveau international car la complexité du problème est telle qu’il serait illusoire d’imaginer qu’une équipe seule parvienne à le résoudre. Avec l’open data et l’open science, on progresse. Certains freinent des deux pieds, il faut qu’ils comprennent que c’est la condition pour réussir. Il faut par exemple transformer la plateforme de diffusion des résultats en neurosciences, lancer des revues sur BioRxiv, l’archive de dépôt de preprints dédiée aux sciences biologiques.

    B – On a quand même l’impression, vu de l’extérieur, que ton domaine a avancé sur l’observation mais peu sur l’action. Nous comprenons mieux le fonctionnement du cerveau. Mais peut-on espérer réparer un jour les cerveaux qui présentent des problèmes ?

    MT – Vous avez raison. On voit arriver des masses d’articles explicatifs mais quand on arrive aux applications, il n’y a presque plus personne. Si une connexion cérébrale est coupée, ça ne fonctionne plus ; que faire ? La solution peut sembler simple : reconstruire des connexions par exemple avec un traitement médicamenteux. Sauf qu’on ne sait pas le faire.

    Dans un tel contexte, il est indispensable de prendre des risques, ce qui pour un scientifique signifie ne pas publier d’articles présentant des résultats positifs pendant « un certain temps ». En France, nous avons, encore pour l’instant, une grande chance, celle d’offrir à des chercheurs la stabilité de leur poste, ce qui nous permet de mener des projets ambitieux et nous autorise à prendre des risques sur du plus long terme. Ce n’est pas le cas dans la plupart des autres pays.

    On répare bien le cœur pourquoi ne pas espérer un jour faire de même pour le cerveau ? C’est un énorme défi et c’est celui de ma vie scientifique !

    Serge Abiteboul (Inria, ENS Paris) et Pascal Guitton (Inria, Université de Bordeaux)

    @MichelTdS