Catégorie : Intelligence artificelle

  • Interprétabilité, biais, éthique et transparence : quelles relations ?

    Comment comprendre et expliquer une décision automatisée prise par un algorithme de ce qu’on appelle l’Intelligence Artificielle, ou IA, (par exemple un réseau de neurones) ? Il est plus qu’important de pouvoir expliquer et interpréter ces résultats, parfois bluffants, qui orientent souvent nos décisions humaines. Éclairage grâce à Marine LHUILLIER et Ikram CHRAIBI KAADOUD. Pascal Guitton et Thierry Viéville.

    Interprétabilité vs explicabilité : comprendre vs expliquer son réseau de neurone (3/3

    Troisième et dernier article de notre série ( (vous pouvez trouver le premier article ici et le deuxième article là) qui questionne sur les concepts d’interprétabilité et d’explicabilité des réseaux de neurones, nous finissons ici par une ouverture sur les relations particulières entre l’interprétabilité, les biais, l’éthique et la transparence de ces réseaux.

    Ces articles sont publiés conjointement avec le blog scilog, qui nous offre ce texte en partage.

    Le but d’une approche d’interprétabilité est de permettre d’accéder à la mémoire implicite d’un réseau de neurones afin d’en extraire les règles et représentations encodées (i.e. apprises ou extraites à partir des données) lors de son apprentissage ; l’extraction pouvant intervenir pendant ou après celui-ci. Autrement dit, on peut explorer et amener dans le domaine de l’explicite le« raisonnement » implicite qu’il s’est lui-même construit grâce aux nombreux exemples vus et à la pratique répétée (de façon assez similaire à celle d’un humain qui acquiert des connaissances par l’expérience et le vécu).

    A l’image d’un humain qui possède une représentation du monde dans lequel il vit, construite en fonction de son vécu et de son expérience, un réseau de neurones, au fur et à mesure qu’il est alimenté de données, se construit sa propre représentation également. Celle-ci étant certes limitée par les données apprises, elle contient tout de même son savoir et par extension les raisons sur lesquelles se basent son comportement et ses prédictions.

    Mais dans ce cas, que se passe-t-il lorsqu’un individu n’apprend qu’une seule vision du monde (exemple volontairement exagéré : le ciel est de couleur verte le jour et grise la nuit) ?

    Alors peu importe le nombre d’images de levers et couchers de soleil, de nuits étoilées ou de ciels pluvieux, il considérera toujours que toutes ces images sont erronées et seul ce qu’il a appris est juste. En tant qu’humain, nous avons néanmoins une capacité de questionnement et de remise en cause qui peut, avec le temps, nous amener, à travers notre vécu, à relativiser notre apprentissage et à réaliser qu’il existe d’autres nuances de couleurs toutes aussi belles à observer dans le ciel.

    Malheureusement les réseaux de neurones n’ont pas cette capacité car ils réalisent souvent une phase d’apprentissage unique (surtout dans le cas d’apprentissage supervisé), de plusieurs exemples certes, mais dans les cas les plus répandus en une seule fois. Autrement dit, une fois une règle apprise, elle devient immuable ! Dans le cas de la classification des couleurs du ciel, cela n’a pas grand impact mais imaginons que cet algorithme soit utilisé pour classer la valeur des individus en fonction de leurs résultats quels qu’ils soient. L’algorithme pourrait alors considérer selon le type de données qu’il a reçu et donc la ou les règles qu’il a implicitement encodée, que seuls les profils de femmes correspondent à un poste de secrétaire et au contraire que seuls les CV d’hommes doivent être retenus pour un poste technique dans l’automobile. Ces exemples stéréotypés, bien qu’assez simples et basiques, reflètent une bien triste réalité : les biais présents dans les IA peuvent s’avérer dangereux et discriminatoires. 

    En effet, les algorithmes d’IA et leurs prises de décisions sont influencés par les données qu’ils apprennent. Cela soulève donc une problématique autour des biais présents dans ces données mais aussi ceux issus directement des développeurs implémentant ces algorithmes. De mauvais jeux de données peuvent amener à des conséquences fâcheuses ainsi qu’à une implémentation biaisée. Si un algorithme d’IA apprend à partir des données, des règles erronées ou biaisées alors ses décisions le seront tout autant et reproduiront ce que l’on appelle des biais de sélection ou encore de jugement. Un exemple tristement célèbre est la description fournie par Google en 2015 sur une photo d’un couple de personnes afro-américaines classifiées comme étant des gorilles car le corpus de données n’était pas assez représentatif de la diversité de la population…

    Nous le constatons, l’impact de ces biais peut s’avérer très grave surtout dans des domaines critiques tels que la santé, la défense ou encore la finance. De nos jours, de nombreux travaux existent sur ce sujet afin d’étudier ces biais. Néanmoins il est important de souligner qu’en prendre connaissance ne signifie pas obligatoirement que nous savons comment les éliminer [Crawford, 2019] ! De plus, la suppression de ces biais dans un algorithme peut s’avérer très coûteuse en termes de ressources car il faudrait relancer les apprentissages des réseaux de neurones après correction. Or selon leur profondeur, leur complexité et le volume de données à traiter, ce coût peut s’avérer très, voire trop, important. Ces biais sont ainsi parfois conservés par défaut car ils seraient trop coûteux et incertains à corriger. Par exemple, GPT-3, le modèle de langage développé par la société OpenAI en 2020 [Brown, 2020], nécessiterait une mémoire de plus de 350 Go, avec un coût lié à l’entraînement du modèle qui dépasserait les 12 millions de dollars

    Que retenir ? 

    Dans le cadre de la démystification des réseaux de neurones, algorithmes d’IA dit aussi “boîtes noires”, l’interprétabilité et l’explicabilité sont deux domaines de recherche distincts mais très liés. Si l’interprétabilité consiste à étudier et expliciter la logique interne des réseaux de neurones, autrement dit leur fonctionnement, l’explicabilité se focalise elle sur “comment” donner du sens à cette logique interne de manière la plus adaptée possible. Ainsi l’interprétabilité est souvent réalisée par des experts en Machine Learning pour d’autres experts alors que l’explicabilité peut être à destination de néophytes et  d’experts. 

    L’intérêt que nous portons donc, tout comme de nombreux chercheurs, à ces deux domaines prend tout son sens dans les questions sociétales et éthiques abordées précédemment : l’impact des biais, la discrimination, le respect du RGPD, etc. En effet, réussir à mieux comprendre le fonctionnement de ces algorithmes nous permet d’aider à la démystification de l’IA et à rendre ces “boîtes noires” plus transparentes, intelligibles et compréhensibles. D’une manière plus générale, cela permet aussi d’améliorer la confiance de chacune et chacun d’entre nous en ces outils qui tendent à devenir omniprésents dans notre vie quotidienne ou, a contrario, de refuser ceux qui ne seraient pas suffisamment transparents. 

    Si nous avions accès au “comment” et au “pourquoi” les décisions des outils IA sont émises, peut-être pourrions-nous alors intervenir sur leur fonctionnement ainsi que sur les données leur servant de base d’apprentissage qui sont souvent nos propres données. Nous pourrions alors nous assurer que nous allons bien vers une société plus inclusive où chacune et chacun d’entre nous est respecté dans toute sa diversité…

    Petit mot des autrices : 

    Cet article à vocation pédagogique présente une approche pour faire de l’interprétabilité. Il en existe d’autres et pour les plus curieux, la bibliographie de chaque billet est là pour vous !  Les billets n’ont pas non plus pour vocation de poser d’équivalence entre un humain et un réseau de neurones car un humain est beaucoup plus complexe ! Les exemples fournis sont justement présents à titre d’illustration pour permettre une meilleure assimilation des concepts. Nous serions toutefois heureuses d’en discuter plus amplement avec vous !

     Marine LHUILLIER et Ikram CHRAIBI KAADOUD.

    • Ingénieure R&D en informatique diplômée de l’EPSI Bordeaux, Marine s’est spécialisée lors de sa dernière mission dans la recherche à la jonction de l’IA et des Sciences cognitives, notamment dans le domaine de l’interprétabilité. 
    • Ikram quant à elle, chercheuse IA & Sciences cognitives, ainsi qu’ancienne Epsienne, se passionne pour la modélisation de la cognition ou autrement dit comment faire de l’IA inspirée de l’humain. Toutes deux ont collaboré dans le cadre d’un projet de recherche en Machine Learning sur l’interprétabilité des réseaux de neurones chez l’entreprise onepoint. 

    Références :

    Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … & Agarwal, S. (2020). Language models are few-shot learners. arXiv, arXiv:2005.14165.

    Crawford Kate (2019) « Les biais sont devenus le matériel brut de l’IA ». URL : https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/

     

     

  • L’interprétabilité selon différentes approches

    Comment comprendre et expliquer une décision automatisée prise par un algorithme de ce qu’on appelle l’Intelligence Artificielle, ou IA, (par exemple un réseau de neurones) ? Il est plus qu’important de pouvoir expliquer et interpréter ces résultats, parfois bluffants, qui orientent souvent nos décisions humaines. Éclairage grâce à Marine LHUILLIER et Ikram CHRAIBI KAADOUD. Pascal Guitton et Thierry Viéville.

    Interprétabilité vs explicabilité : comprendre vs expliquer son réseau de neurone (2/3) Second article d’une série de trois articles (vous pouvez trouver le premier article ici et le troisième article là) qui questionnent sur les concepts d’interprétabilité et d’explicabilité des réseaux de neurones, cet article offre une vue globale sur les  approches d’interprétabilité existantes selon les objectifs recherchés et tente d’apporter des éléments de réponses à la question “comment ouvrir les “boîtes noires” que sont les réseaux de neurones?”

    Ces articles sont publiés conjointement avec le blog scilog, qui nous offre ce texte en partage.

    Si les réseaux de neurones artificiels font partie des algorithmes de Machine Learning les plus précis, ils sont cependant aujourd’hui les plus obscurs pour l’humain (Figure 1). 

    En effet, dans l’approche que les chercheurs et développeurs ont eu pendant des années, ils ont souvent négligé ou oublié l’interprétabilité et la transparence de ces algorithmes au profit de la performance.

    Figure 1 – Niveaux d’interprétabilité des algorithmes de Machine Learning. Image adaptée à partir de Dam et al. [2018]

    Interprétabilité locale ou globale ?

    Lorsque l’on évoque l’interprétabilité des réseaux de neurones artificiels il est primordial de savoir ce que nous cherchons à expliquer et l’usage que nous souhaitons en faire. En effet, les techniques qui en découlent se distinguent selon plusieurs critères.

    Tout d’abord, il est nécessaire de savoir quel type de comportement nécessite d’être analysé. Cherchons-nous à fournir une explication au comportement de la totalité du modèle ou en revanche son comportement sur un résultat en particulier ?

    La première approche, nommée interprétabilité globale tend donc à fournir une explication sur le comportement global du réseau et ce, sur l’ensemble des données qu’il a apprises. Elle permet de rendre le processus de prise de décision transparent pour toutes les données et s’avère être un moyen précieux pour évaluer la pertinence de ce que le modèle a appris [Clapaud, 2019]. D’autre part, l’interprétabilité locale tend à fournir une explication pour un résultat précis, c’est-à-dire pour une décision en particulier sur une échelle très réduite. Elle est particulièrement pertinente lorsqu’il est nécessaire d’analyser un cas en particulier pour les besoins d’une personne (patient, client…) par exemple [Guidotti, 2018].

    Illustrons cela par un exemple : Imaginons avoir accès à un four à micro-ondes High-Tech dont nous aurions perdu le mode d’emploi, et donc, dont nous ignorions le fonctionnement. Nous pouvons alors toujours observer la réaction du micro-ondes lorsqu’on appuie sur les boutons au fur et à mesure. En faisant cela, on associe un résultat (plat chauffé) à l’arrivée d’une information (j’ai appuyé sur un bouton en particulier). C’est ce qui revient, en fait, à interpréter localement le comportement de la machine (ici le four à micro-ondes) en fonction d’informations entrantes puisque nous associons une action et un résultat par le biais d’une fonction. Nous sommes alors dans une dimension d’interprétabilité locale : 

    Dans le cas du micro-ondes : 

    Fonctions du micro-ondes (bouton de chauffage appuyé) = plat chauffé

    Dans un cas plus générique :

    Fonctions d’un réseau de neurones (donnée entrante à l’instant t)  = résultat/prédiction à l’instant t 

    L’interprétabilité globale correspond à une description simple et globale du fonctionnement complet du micro-ondes. Autrement dit, il s’agit de donner dans les grandes lignes son mode de fonctionnement :  on saura quel type de boutons permet de décongeler, quel autre type de boutons permet de chauffer, quel type de boutons permet d’ajuster le temps de chauffage, etc. Mais nous n’aurons pas accès directement aux comportements précis, tel que “pour décongeler un aliment il faut d’abord en sélectionner le type, puis le poids, puis vérifier le temps régulièrement afin d’atteindre le résultat souhaité.

    En résumé, l’interprétabilité globale permet d’accéder aux chapitres et grandes sections du mode d’emploi, là où l’interprétabilité locale permet d’accéder à des fonctions bien spécifiques du micro-ondes.

    Etudier un raisonnement “en cours” ou “construit” ?

    Le deuxième usage qu’il est important de déterminer consiste à définir le moment où l’extraction des connaissances du réseau sera faite.

    Si la phase d’interprétabilité est effectuée pendant l’apprentissage du réseau de neurones il s’agit d’une méthode pédagogique car il est possible d’observer le comportement de celui-ci à plusieurs moments de son apprentissage. En effet il est admis, que lors de cette étape, le réseau de neurones arrive à identifier et à extraire des caractéristiques des données qui lui permettent de s’auto ajuster, i.e. apprendre par la modification des poids. 

    En revanche, si l’extraction se fait à posteriori de l’apprentissage, i.e. pendant la phase de test, on parle de méthode de décomposition car on observe, dans ce cas, l’activité de chaque couche cachée du réseau séparément avant de les combiner. 

    Par exemple, considérons une tâche d’apprentissage supervisé où un réseau doit apprendre à classifier des images de tortues et de chatons. Au fur et à mesure de son apprentissage, donc au fur et à mesure qu’il reçoit des exemples, ce réseau va identifier les caractéristiques des images qui sont spécifiques à chaque classe : pixels, code couleur, positionnement d’un ensemble de pixels, etc. Ainsi, plus il va traiter d’exemples, plus il identifiera ces caractéristiques (features en anglais) et donc plus il pourra s’ajuster pour faire correspondre la bonne image à la bonne classe.

    Dans ce cas précis, si on applique une méthode pédagogique sur ce réseau il est possible d’observer à différents moments de son apprentissage (par exemple tous les 100 exemples présentés) l’évolution de cette phase d’identification des caractéristiques. Autrement dit, on pourra observer ce qu’il apprend et la construction de son « raisonnement ».

    A contrario, si on utilise la méthode de décomposition on va venir étudier le comportement du réseau de neurones (i.e. les activités des unités de la ou des couches cachées) à chaque fois qu’il reçoit une image à posteriori de son apprentissage.

    A ce stade, donc durant la phase de test, le réseau a fini d’apprendre et il est possible d’extraire et d’analyser son activité au niveau de ses couches cachées (son comportement ou activité interne) face à chaque image selon l’apprentissage réalisé précédemment. Autrement dit, lors de ce processus, on extrait des comportements individuels des couches cachées avant de les combiner pour obtenir le comportement global du réseau et donc comprendre son « raisonnement ».

    Analyser un réseau de neurones après apprentissage via une méthode de décomposition permet donc en quelque sorte d’évaluer son apprentissage implicite en l’explicitant. 

    Que retenir ? 

    S’il ne fallait retenir qu’une chose, c’est qu’en termes d’interprétabilité, comme en Machine Learning en général, il n’existe pas une approche possible mais plusieurs. Selon la question à laquelle on souhaite répondre (expliquer un comportement local ou global du réseau) et ce que l’on souhaite comprendre (comment apprend-t-il à partir des données ou comment fait-il ses prédictions ?) la ou les approches d’interprétabilité des réseaux de neurones adoptées seront différentes. 

    En effet, il est possible de vouloir expliquer ou comprendre le comportement du réseau dans sa totalité, i.e faire de l’interprétabilité globale : quelles sont l’ensemble des règles que le réseau a appris implicitement pour classer des tortues et des chatons ? Ou au contraire s’intéresser plus particulièrement à un exemple en faisant de l’interprétabilité locale : pourquoi cette image précise a été classée ainsi ? 

    Sur le même principe, cherchons-nous à comprendre comment le raisonnement du réseau se construit en “temps réel” ou une fois celui-ci terminé

    Souhaiter répondre à ces questions nécessite de choisir, d’implémenter et/ou d’utiliser la technique d’interprétabilité adéquate parmi les nombreuses existantes. Pour en savoir plus à ce sujet, il est possible d’explorer des domaines de recherche du Machine Learning comme le Representation learning connu aussi sous le nom de feature learning [Bengio et al, 2013] et Rules Extraction [Jacobson, 2005].

    De plus, se questionner sur l’interprétabilité et l’explicabilité des réseaux de neurones nous amène en tant que chercheurs et utilisateurs de ces algorithmes, à nous pencher sur leur impact dans notre vie quotidienne et par extension à des questions d’ordre éthique et d’acceptabilité : sommes-nous prêts à accepter plus d’IA si nous n’avons pas de garantie au niveau de l’éthique, de l’inclusion et de la justice ? Surtout, avons-nous les moyens de répondre à nos questionnements sur ce sujet ? Ces relations complexes entre interprétabilité, biais, éthique et transparence seront justement présentées dans le troisième et dernier article de cette série !

    La suite est ici, avec le 3ème article.

     Marine LHUILLIER et Ikram CHRAIBI KAADOUD.

    • Ingénieure R&D en informatique diplômée de l’EPSI Bordeaux, Marine s’est spécialisée lors de sa dernière mission dans la recherche à la jonction de l’IA et des Sciences cognitives, notamment dans le domaine de l’interprétabilité. 
    • Ikram quant à elle, chercheuse IA & Sciences cognitives, ainsi qu’ancienne Epsienne, se passionne pour la modélisation de la cognition ou autrement dit comment faire de l’IA inspirée de l’humain. Toutes deux ont collaboré dans le cadre d’un projet de recherche en Machine Learning sur l’interprétabilité des réseaux de neurones chez l’entreprise onepoint. 

    Références :

    Bengio, Y., Courville, A., & Vincent, P. (2013). Representation learning: A review and new perspectives. IEEE transactions on pattern analysis and machine intelligence, 35(8), 1798-1828.

    Clapaud, Alain (2019). Explicabilité des IA : quelles solutions mettre en oeuvre ? Publié sur LeMagIT. URL : https://www.lemagit.fr/conseil/Explicabilite-des-IA-quelles-solutions-mettre-en-uvre

    Dam, H. K., Tran, T., & Ghose, A. (2018). Explainable software analytics. In Proceedings of the 40th International Conference on Software Engineering: New Ideas and Emerging Results (pp. 53-56).

    Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., & Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM computing surveys (CSUR), 51(5), 1-42.

    Jacobsson, H. (2005). Rule extraction from recurrent neural networks: A taxonomy and review. Neural Computation, 17(6), 1223-1263

  • Petit binaire: C’est l’histoire d’un GAN

    Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible un des mécanismes qui nous donne l’impression d’une intelligence artificielle : les réseaux antagonistes génératifs (Generative Adversial Network ou GAN en anglais). Marie-Agnès EnardPascal Guitton  et Thierry Viéville.

     

     

    Portrait d' Edmond de Belamy
    Le Portrait d’ Edmond de Belamy ©Public Domain

    432 500 dollars une fois … 432 500 dollars deux fois … 432 500 dollars trois fois … adjugé ! Nous sommes chez Christie’s le 25 octobre 2018, ce “Portrait d’Edmond de Belamy”, une toile d’une série représentant une famille bourgeoise fictive des XVIIIe et XIXe siècle, vient de partir à un bon prix. Et tu sais quoi ? C’est la première œuvre d’art, produite par un logiciel d’intelligence artificielle, à être présentée dans une salle des ventes.

    – Ah l’arnaque !!!

    Ah non non, ce n’est pas une escroquerie, les gens le savaient, regarde la signature : c’est une formule mathématique en référence au code de l’algorithme utilisé.

    Image générée par le réseau adverse génératif StyleGAN, en se basant sur une analyse de portraits. L'image ressemble fortement à une photographie d'une vraie personne.
    Image générée par le réseau adverse génératif StyleGAN, en se basant sur une analyse de portraits. L’image ressemble fortement à une photo d’une vraie personne. ©OwlsMcGee 

    – Oh … mais c’est dingue, ça marche comment ton algorithme ?

    C’est assez simple, deux réseaux de calcul sont placés en compétition :

    Le premier réseau est le “générateur”, à partir d’exemples (des tableaux du XIXe siècle), il génère un autre objet numérique artificiel (un tableau inédit “dans le style” du XIXe siècle);

    Son adversaire le “discriminateur” essaie de détecter si le résultat est réel ou bien s’il est généré.

    – Et alors ?

    Le générateur adapte petit à petit ces paramètres pour maximiser les chances de tromper le discriminateur qui lui aussi adapte ces paramètres pour maximiser les chances de démasquer le générateur. Bref le second entraîne le premier qui finit par être super performant, comme cette image qui ressemble fortement à une photographie d’une vraie personne.

    Architecture d'un réseau de type GAN
    Architecture d’un réseau antagoniste génératif (generative adversial network ou GAN en anglais) : on voit le générateur créer des données factices dont la diversité provient d’un générateur aléatoire, et un discriminateur recevoir (sans savoir quoi est quoi) un mélange de données réelles et factices, à chacune de ces prédictions l’erreur est répercutée pour permettre d’ajuster les paramètres : pour le discriminateur l’erreur est de ne pas distinguer le réel du factice et pour le générateur de se faire démasquer.
    ©geeksforgeeks

    – Attends … tu peux être plus clair et revenir en arrière : c’est quoi un “réseau de calcul” ?

    Ah oui pardon. Très simplement on s’est aperçu que si on cumule des millions de calculs en réseaux (on parle de réseaux de neurones) on peut approximativement faire tous les calculs imaginables, comme reconnaître un visage, transformer une phrase dictée en texte, etc… Et pour apprendre le calcul à faire, on fournit énormément d’exemples et un mécanisme très long ajuste les paramètres du calcul en réduisant pas à pas les erreurs pour avoir de bonnes chances  d’obtenir ce que l’on souhaite.

    – C’est tout ?

    Dans les grandes lignes, oui, on l’explique ici, c’est un truc rigolo et tu peux même jouer avec ici si tu veux.

    https://www.lemonde.fr/blog/binaire/2017/10/20/jouez-avec-les-neurones-de-la-machine

    Vue de l’interface qui permet de tensorflow playground
    Vue de l’interface qui permet de “jouer avec des neurones artificiels” : on voit en entrée les caractéristiques calculées sur l’image (features) par exemple  X1 discrimine la gauche de la droite (envoie une valeur négative si le point est à gauche et positive si il est à droite), puis les unités de calculs (les “neurones”) organisées en couche (layers) jusqu’à la sortie du calcul. ©playground.tensorflow.org

    – J’ai bien entendu dans tes explications que tu as dit “on peut approximativement faire” et “on a de bonnes chances” ! Donc c’est pas exact et en plus ça peut toujours se tromper ??

    Un urinoir en porcelaine renversé et signé : la création artistique probablement la plus controversée de l’art du XXe siècle. ©gnu

    Absolument, c’est pour cela qu’il faut bien comprendre les limites de ces mécanismes qui donnent des résultats bluffants mais restent simplement de gros calculs. Mais bon ici on s’en sert pour faire de l’art donc obtenir un résultat inattendu peut même se révéler intéressant.

    – Tu veux dire que le calcul est “créatif” car il peut se tromper et faire n’importe quoi ?

    Oui mais pas uniquement. La créativité correspond bien au fait de ne pas faire ce qui est attendu, mais il faut un deuxième processus qui “reconnaît” si le résultat est intéressant ou pas.

     

    Pour parler de création artistique il faut être face à quelque chose de :

    1/ singulier, original donc, résultat d’une création, par opposition à une production usuelle ou reproduction
    ET
    2/ esthétique, s’adressant délibérément aux sens (vision, audition), à nos émotions, notre intuition et notre intellect (nous faire rêver, partager un message), par opposition à une production utilitaire.

    – Ah oui mais alors quelque chose ne peut être reconnu comme artistique que par un humain ?

    Oui, ou par un calcul dont les paramètres ont été ajustés à partir d’un grand nombre de jugements humains.

    – Et ces calculs que tu appelles “réseaux antagonistes génératifs”, ils servent juste à faire de l’art ?

    Pas uniquement, on les utilisent dans d’autres formes artistiques comme la musique aussi, mais au delà pour générer des calculs qui explorent des solutions à des problèmes complexes comme par exemple : pour la découverte de nouvelles structures moléculaires (encore au stade des essais),  en astronomie pour modéliser des phénomènes complexes, et sous une forme un peu différente pour gagner au jeu de go. L’intérêt est de fournir des nouvelles données d’entraînement (tu sais qu’il en faut des millions) quand elles sont à la base en nombre insuffisant.

    – Tu sais ce qui me surprend le plus ? C’est que c’est finalement facile à comprendre.

    Cool 🙂

     Pour faire le portrait d’un oiseau
    Pour faire le portrait d’un oiseau. Une réflexion artistique sur la création artistique par Jacques Prévert. ©scribd

    – N’empêche que ça questionne sur ce que l’on peut considérer comme de l’art, in fine.

    Oui ce qu’on appelle l’intelligence artificielle, remet surtout en question ce que nous considérons comme naturellement intelligent.

    – Et tu crois que “ça” pourrait faire de la poésie ?

     

    De la mauvaise poésie peut-être…  laissons le dernier mot à Jacques Prévert :

    Illustration du sonnet apocryphe
    ©TîetRî

    « il se croyait pouet
    car il sonnet,
    en fait
    c’était une cloche »

    – Menteur : la citation est apocryphe, c’est toi qui l’a générée !

    Discriminateur, va 😉

     

     

    Références et liens supplémentaires :
    – Le Portrait d’Edmond de Belamy : https://fr.wikipedia.org/wiki/Portrait_d’Edmond_de_Belamy
    – La présentation des GANs : https://fr.wikipedia.org/wiki/Réseaux_antagonistes_génératifs
    – Des présentations alternatives complémentaires des GANs :
    https://www.lebigdata.fr/gan-definition-tout-savoir
    https://www.lesechos.fr/tech-medias/intelligence-artificielle/les-gan-repoussent-les-limites-de-lintelligence-artificielle-206875
    – En savoir plus sur ces réseaux de calcul “profonds” https://pixees.fr/ce-quon-appelle-le-deep-learning/
    – À propos de création artistique et numérique https://pixees.fr/mais-que-peut-on-appeler-creation-artistique

  • Comment saisir ce que font les réseaux de neurones ?

    Comment comprendre et expliquer une décision automatisée prise par un algorithme de ce qu’on appelle l’Intelligence Artificielle, ou IA, (par exemple un réseau de neurones) ? Il est plus qu’important de pouvoir expliquer et interpréter ces résultats, parfois bluffants, qui orientent souvent nos décisions humaines. Éclairage grâce à Marine LHUILLIER et Ikram CHRAIBI KAADOUD. Pascal Guitton et Thierry Viéville.

    Interprétabilité vs explicabilité : comprendre vs expliquer son réseau de neurone (1/3) Premier d’une série de trois article ( ici  et  ) qui questionnent sur les concepts d’interprétabilité et d’explicabilité des réseaux de neurones, on commence ici par une introduction aux problématiques liées à la compréhension de ces algorithmes de Machine Learning.

    Cet article est publié conjointement avec le blog scilog, qui nous offre ce texte en partage.

    Le Machine Learning

    Cette problématique tire ses origines du concept même du Machine Learning également appelé Apprentissage Machine ou Apprentissage Automatique.

    Le Machine Learning (ML) est un sous-domaine de recherche de l’intelligence artificielle qui consiste à donner une capacité d’apprentissage à une machine (un ordinateur) sans que celle-ci n’ait été explicitement programmée pour cela [WhatIs, 2016] et ce, en ajustant son calcul en fonction de données dites d’apprentissage. En d’autres termes, un algorithme de ML consiste à demander à notre machine d’effectuer une tâche sans que l’on ne code précisément les différentes étapes et actions qu’elle devra réaliser pour y arriver mais en ajustant les paramètres d’un calcul très général aux données fournies.

    Justement, ces prises de décision automatisées, liées à l’utilisation d’algorithmes de Machine Learning, notamment les réseaux de neurones artificiels, dits profonds quand il y a de nombreuses couches de calcul (on parle alors de Deep Learning), soulèvent de nos jours de plus en plus de problématiques d’ordre éthique ou juridique [Hebling, 2019].

    L’expression “prise de décision” d’un algorithme fait référence ici à la prise de décision réalisée par un humain suite à une proposition (i.e. prédiction) issue de cet algorithme. Il s’agit donc d’une proposition de décision.

    Ces problématiques sont principalement dues à l’opacité de la plupart de ces algorithmes de Machine Learning. Elles amènent donc de plus en plus de chercheurs, de développeurs, d’entreprises et aussi d’utilisateurs de ces outils à se poser des questions d’interprétabilité et d’explicabilité de ces algorithmes.

    Figure 1 – Projet “Explainable AI” de la DARPA. Image extraite de Turek [2017] .

    De la boîte noire à l’IA explicable


    « La principale différence entre l’IA des années 1970 et celle d’aujourd’hui est qu’il ne s’agit plus d’une approche purement déterministe » [Vérine et Mir, 2019]. 

    En effet, l’implémentation des algorithmes d’IA a fortement évolué ces dernières années. Précédemment fondés en majorité sur les choix des développeurs, l’agencement des formules et des équations mathématiques utilisées, ces algorithmes et leurs prises de décision étaient fortement influencés par les développeurs, leur culture, leur propre façon de penser. Désormais, ces règles sont bien plus issues des propriétés “cachées” dans les données à partir desquelles les algorithmes vont apprendre, c’est à dire ajuster leurs paramètres. Bien entendu, l’implémentation sera toujours influencée par le développeur mais la prise de décision de l’algorithme ne le sera plus tout autant. De ce fait, la prise de décision automatisée par ces algorithmes s’est opacifiée.        

    Ainsi, aujourd’hui si un réseau de neurones est assimilé à une « boîte noire » c’est parce que les données en entrée et en sortie sont connues mais son fonctionnement interne, spécifique après apprentissage, ne l’est pas précisément. Quand on étudie les couches cachées profondes d’un réseau (représentées sur notre figure 2 par le cadre le plus foncé) on observe que la représentation interne des données est très abstraite, donc complexe à déchiffrer, tout comme les règles implicites encodées lors de l’apprentissage.

    Figure 2 – Représentation schématique d’un réseau de neurones selon le principe d’une « boîte noire », par les autrices.

    Ce phénomène est notamment dû à l’approche que les nombreux chercheurs et développeurs en IA ont eu pendant des années : la performance de ces algorithmes a été mise au centre des préoccupations au détriment de leur compréhension. 

    Soulignons également un autre aspect impliqué dans ce phénomène de “boîte noire » : le volume croissant des données !  En effet, les corpus de données utilisés ont vu leur volume exploser ces dernières années, ce qui n’était pas le cas au début de l’IA. La taille désormais gigantesque des données prises en compte par les algorithmes gène, si ce n’est empêche, l’analyse et la compréhension de leurs comportements par un cerveau humain. Par exemple, si une personne peut analyser un ou dix tickets de caisse simultanément, il devient vite impossible pour elle de chercher des similitudes sur plus d’une centaine d’entre eux pour comprendre et prédire le comportement des consommateurs d’un supermarché. Cela est d’autant plus vrai lorsqu’il s’agit de milliers ou de millions de tickets de caisse en parallèle. Il devient par conséquent difficile de comprendre les décisions résultant de l’analyses et des prédictions de ces algorithmes.

    Si la démystification des “boîtes noires” que représentent les réseaux de neurones devient un sujet majeur ces dernières années, c’est entre autre au fait que ces outils sont de plus en plus utilisés dans des secteurs critiques comme la médecine ou la finance. Il devient alors indispensable de comprendre les critères pris en compte derrière leurs propositions de décision afin de limiter au maximum par exemple, les biais moraux et éthiques présents dans ces dernières.

    Justement, les propositions de décisions issues d’algorithme d’IA, posent des questions cruciales et générales notamment en termes d’acceptabilité de ces outils. Le besoin de confiance et de transparence est ainsi très présent et très prisé. Il y a donc aujourd’hui une vraie réorientation des problématiques liées au Machine Learning notamment le besoin de les expliquer [Crawford, 2019]. 

    Effectivement, comment avoir confiance en la proposition de décision d’un algorithme d’IA si nous ne pouvons expliquer d’où elle provient ? L’entrée en vigueur du RGPD,  particulièrement de l’article 22-1 stipulant qu’une décision ne peut être fondée exclusivement sur un traitement automatisé, ajoutée au fait qu’un humain a besoin d’éléments explicites et non opaques pour prendre une décision, ont fortement accéléré les recherches dans ce domaine.

    Interprétabilité ou explicabilité ?

    Les besoins de transparence et de confiance dans les algorithmes de Machine Learning (e.g. les réseaux de neurones ou les mécanismes d’apprentissage par renforcement) ont ainsi fait émerger deux concepts : l’interprétabilité et l’explicabilité. Souvent associés, il semble important d’expliciter que ce sont deux concepts différents : définissons-les ! 

    L’interprétabilité consiste à fournir une information représentant à la fois le raisonnement de l’algorithme de Machine Learning et la représentation interne des données dans un format interprétable par un expert en ML ou des données. Le résultat fourni est fortement lié aux données utilisées et nécessite une connaissance de celles-ci mais aussi du modèle  [Gilpin et al., 2018].

    L’explicabilité quant à elle consiste à fournir une information dans un format sémantique complet se suffisant à lui-même et accessible à un utilisateur, qu’il soit néophyte ou technophile, et quelle que soit son expertise en matière de Machine Learning [Gilpin et al., 2018]. Par exemple, le métier de chercheuse ne sera pas expliqué de la même manière à des lycéennes, lycéens qu’à des étudiants en informatique. Le jargon utilisé est adapté à des concepts partagés par ceux qui émettent l’explication et ceux qui la reçoivent.

    En d’autres termes, l’interprétabilité répond à la question « comment » un algorithme prend-il une décision (quels calculs ? quelles données internes ? …), tandis que l’explicabilité tend à répondre à la question « pourquoi » (quels liens avec le problème posé ? quelles relations avec les éléments applicatifs ? …). À noter que l’interprétabilité est la première étape à réaliser afin de faire de l’explicabilité. Un modèle explicable est donc interprétable mais l’inverse ne l’est pas automatiquement !

    Cela explique aussi pourquoi nombreux sont ceux qui travaillent sur l’interprétabilité des réseaux de neurones artificiels. Champ de recherche vaste et passionnant, que chacun peut aborder à travers son propre prisme, il a connu une véritable explosion du nombre de travaux et de publications depuis la fin de l’année 2017 avec notamment le projet Explainable AI (XAI) de la DARPA, l’agence du département de la défense des Etats-Unis chargée de la recherche et du développement (Figure 1). 

    Domaines palpitants, l’interprétabilité et par extension l’explicabilité sont donc des sujets en plein essor dont de nombreuses questions d’actualités sont encore loin d’être résolues !

    Que retenir ? 

    Sous domaines de recherche de l’IA, le Machine Learning, le Deep Learning et donc les réseaux de neurones, suscitent de nos jours un véritable intérêt tant leur impact devient important dans nos vies. En parallèle d’améliorer précision et performance, la communauté IA a de plus en plus besoin de comprendre la logique interne et donc, les causes des prises de décisions de ces algorithmes. Or comment s’assurer de la pertinence d’une prédiction d’un réseau de neurones si les raisons derrière celle-ci sont obscures ? 

    Par ailleurs, peut-on tout expliquer ou interpréter ? Qu’en est-il des décisions issues de contexte très complexes nécessitant de gros volumes de données où l’ensemble des éléments est bien trop vaste pour être assimilé par un cerveau humain ? Ces questions ouvertes sont justement l’objectif des travaux de recherche qui tendent vers une compréhension humaine des réseaux de neurones. 

    C’est donc dans le but  de démystifier ces “boîtes noires” que les chercheurs, entreprises ou encore utilisateurs s’intéressent de plus en plus au domaine de l’interprétabilité, i.e. la compréhension de la logique interne des réseaux de neurones,  et celui de l’explicabilité, i.e. la capacité d’expliquer les raisons à l’origine d’une prédiction de ces mêmes réseaux.  

    Nous verrons dans la suite de cette série de trois articles les questions auxquelles il est nécessaire de répondre afin de choisir entre deux approches d’interprétabilité à utiliser selon le cas d’usage mais aussi comment elles aident à rendre les IA plus transparentes et compréhensibles. 

    La suite est ici, avec le 2ème article.

     Marine LHUILLIER et Ikram CHRAIBI KAADOUD.

    • Ingénieure R&D en informatique en passe d’être diplômée de l’EPSI Bordeaux, Marine s’est spécialisée lors de sa dernière mission dans la recherche à la jonction de l’IA et des Sciences cognitives, notamment dans le domaine de l’interprétabilité. 
    • Ikram quant à elle, chercheuse IA & Sciences cognitives, ainsi qu’ancienne Epsienne, se passionne pour la modélisation de la cognition ou autrement dit comment faire de l’IA inspirée de l’humain. Toutes deux ont collaboré dans le cadre d’un projet de recherche en Machine Learning sur l’interprétabilité des réseaux de neurones chez l’entreprise onepoint. 
  • Quand les objets connectés ont besoin d’intelligence artificielle

     L’informatisation des objets de notre quotidien est en marche, cette invasion des pucerons comme le dit Gérard Berry, à savoir plusieurs dizaines de milliards bientôt probablement d’objets, qui de nos véhicules à nos frigos nous permettent d’automatiser notre quotidien. Pourquoi l’intelligence artificielle est-elle indispensable pour exploiter efficacement les données recueillies ? Laissons la parole à Emmanuel Frenod pour nous expliquer tout cela. Antoine Rousseau et Thierry Viéville.

    Mais qu’est ce que l’IoT ? 

    C’est l’Internet of Things, ou l’Internet des objets en français. Cela consiste à utiliser les données issues d’objets connectés pour les piloter ou les aider à se piloter. On conçoit le concept d’objet connecté de manière très large au sens où c’est quelque chose ou quelqu’un sur lequel sont placés des capteurs qui remontent des données vers une application qui les utilise. L’objet connecté peut être une machine-outil dans un atelier, ou une usine,  une voiture, une personne portant un smartphone,  un fruit, un champ de céréales, etc. Il est prévu qu’à relativement court terme il y aura 40 milliards d’objets connectés.

    Et qu’est ce qu’une application ?

    Ici, le concept d’application est vu de manière large. Cela peut être un logiciel qui tourne sur une machine juste à côté des capteurs comme pour le GPS de votre smartphone (qui sont en l’occurrence les récepteurs des signaux satellites, l’accéléromètre et le gyromètre, et se trouvent sur le même appareil que le programme qui les traite) ou dans votre voiture. Ce logiciel peut aussi s’exécuter sur un ordinateur distant (comme c’est souvent le cas pour des machines-outils) ou très distant (les voitures vendues par la firme Tesla par exemple remontent en permanence de l’information sur leur état vers des data centers).  L’application peut également être distribuée avec une partie s’exécutant à côté des capteurs (cette partie est désignée comme étant « l’Edge Computing ») et une partie distante. Enfin, et c’est par exemple le cas pour de futurs dispositifs médicaux pour  l’aide à la réalisation d’actes médicaux à distance, l’application peut inclure une collaboration entre des experts humains et des « bases de connaissances  intelligentes » permettant de traiter de colossaux historiques de réalisations d’opérations passées. 

    Que signifie « IA » dans le cadre du présent article ?

    Tentons une brève définition de ce qu’est une IA, comme un « programme Informatique » qui peut mimer une compétence humaine de haut niveau (analyse d’image ou de parole par exemple) ou qui peut faire mieux qu’un humain en matière de gestion de la complexité pour l’aider à décider en utilisant des données et avec des capacités d’apprentissage. Cette capacité d’apprentissage est souvent expliquée comme une capacité du programme à se réécrire tout seul. Il est plus conforme à la réalité de dire que le programme dépend de paramètres (éventuellement en grand nombre) qui peuvent être appris et se mettre à jour en fonction des données qui remontent du terrain.

    Document de travail sur un algorithme d’IA pour traiter des données d’IoT. ©emmanuel.frenod

    En fait les données de l’IoT ne peuvent et surtout ne pourront de plus en plus être traitées qu’à l’aide d’IA spécialisées.  Cela peut sembler étrange. En effet, il est légitime de se poser la question de « Pourquoi utiliser des IA pour traiter les données issues de capteurs »  alors que simplement les recevoir et les mettre dans des tableaux de bord parlant pour les utilisateurs semblerait largement suffisant. Cependant, ne faire que cela ne permet pas de tirer la quintessence de l’IoT, et seules des IA ont la capacité à synthétiser en temps réel l’information que les flux de données de capteurs contiennent. Les trois raisons profondes de cela sont maintenant détaillées.

    Traiter des données aléatoires non stationnaires

    En premier lieu, disposer d’une suite de mesures brutes d’une grandeur faite par des capteurs ne présente pas ou que peu d’intérêt pour un humain. En effet, ces mesures sont entachées d’erreurs. En fait, elles sont précises en moyenne, mais sont très bruitées autour de cette moyenne. Lorsque l’on souhaite mesurer une grandeur qui n’évolue pas (ou peu), il est possible de pallier ce problème : il suffit de répéter la mesure plusieurs fois puis de faire une moyenne sur les mesures obtenues pour obtenir une estimation raisonnable de la valeur de la grandeur.

    En revanche, si on souhaite mesurer une grandeur qui évolue rapidement, ce qui est souvent la problématique de l’IoT, il est indispensable de faire appel à une IA qui, avec ses capacités d’apprentissage, saura tirer profit de la précision « en moyenne » des capteurs en démêlant ce qui est du ressort de l’évolution de la grandeur d’intérêt et ce qui est du ressort de l’erraticité des mesures issues des capteurs.

    Tableau blanc d’un mathématicien. ©emmanuel.frenod

    Relier des données à une mesure utilisable

    Une deuxième raison pour utiliser des IA est que dans certains cas, les capteurs ne donnent pas directement une information sur la grandeur à laquelle on s’intéresse, mais sur sa variation. Par exemple, l’accéléromètre de votre smartphone ne donne pas d’information directe sur votre position (mais bien sur sa variation). Pourtant votre appli GPS y fait appel. Un autre exemple : la température extérieure et l’ensoleillement ne donnent pas une information sur la maturité d’un fruit, mais elles contribuent à son mûrissement. Donc  les connaître au cours du temps permet d’en déduire une information sur le niveau de maturité du fruit suivi. Ainsi, dans le contexte de l’IoT, il est nécessaire de pouvoir traduire l’information sur la variation observée en une information sur la grandeur d’intérêt.

    C’est une IA qui se charge de ça en synthétisant à la volée les informations issues des capteurs qui donnent de l’information sur la grandeur et ceux qui donnent de l’information sur ses variations.

    Gérer la multitude des capteurs et de leurs données.

    La troisième raison est que la prévision pour un nombre massif d’objets connectés rend inopérante l’approche pure « tableaux de bord ». Il est indispensable que des IA traitent les tâches de pilotage les plus courantes à l’aide des données qui remontent, et, que d’autres IA sollicitent les humains quand une intelligence humaine est vraiment nécessaire pour une phase donnée de pilotage de l’objet connecté. 

    En conclusion

    Une vocation principale de l’IA, au sens où c’est ce qui occupera le plus de temps de calcul demandés par des IA dans le futur, sera de gérer et valoriser les objets connectés. Cela démystifie sans doute un peu l’IA, car elle sera dans cette fonction finalement assez peu visible. Mais, elle aura là une très grande utilité et une très grande pertinence..

    Emmanuel Frenod, mathématicien, Professeur à l’Université Bretagne Sud, au sein du Laboratoire de Mathématiques de Bretagne Atlantique,  fondateur et directeur scientifique de See-d (*).

    (*) See-d accompagne les entreprises pour l’intégration de l’IA dans leurs processus et qui développe pour elles des IA d’aide à la décision sur mesure.

  • Des connaissances de l’humain au monde de l’entreprise

    Les algorithmes d’intelligence artificielle dont nous entendons si souvent parler sont basés sur des apprentissages et des connaissances.  Ces notions sont à l’intersection de plusieurs domaines : sciences cognitives, sciences de l’éducation et désormais sciences du numérique.  A partir d’articles qu’Ikram Chraibi Kaadoud a publié sur son blog Intelligence mécanique, nous vous proposons deux textes pour y voir plus clair. Après avoir traité de l’apprentissage et des connaissances, elle nous explique comment favoriser le passage de l’expertise dans les entreprises. Pascal Guitton

    L’ensemble des notions de connaissances et de raisonnement, sont des questions importantes dans les domaines des sciences cognitives et de la psychologie du développement, mais ce sont également des concepts essentiels dans le domaine de l’ingénierie et la gestion des connaissances en entreprise où l’humain est un élément déterminant à part entière !

    De débutant à expert : évolution des connaissances chez l’humain

    Commençons par un exemple : un conducteur expérimenté ayant plusieurs années de conduite derrière lui, est un expert par rapport à un jeune conducteur qui vient de décrocher son permis. Si ce dernier fait appel à ses connaissances explicites du code de la route et du fonctionnement global de la voiture (positionnement des vitesses, positionnement des différentes pédales du véhicule, etc.) pour utiliser son véhicule, a contrario, le conducteur expérimenté conduit son véhicule de manière plus automatique, car il a développé des habitudes de conduite, des réflexes [Mathern, 2012].

    Cet exemple reflète ce que de nombreux travaux en psychologie considèrent comme expert : à savoir un individu possédant un savoir-faire (connaissances et compétences particulières liées à ses expériences) et des ressources tacites par rapport à un novice. Ainsi dans cet article nous considérerons un expert, en général, comme étant une personne surentrainée, qui a acquis des habilités particulières par son expérience et qui a notamment connu une migration de ses connaissances explicites à un savoir-faire implicite.

    Figure A – Transformation des connaissances au fur et à mesure de la montée en compétence, c’est-à-dire de la pratique, selon trois étapes.

    Il existe 3 étapes d’acquisition de compétences (i.e de montée en expertise) : Le premier stade est qualifié de stade cognitif : les individus cherchent et récoltent des connaissances explicites de plusieurs sources sur le domaine considéré. Dans le cadre de la conduite, ces sources explicites sont le code de la route et les cours dispensés par une auto-école. Pour réaliser une tâche, l’individu sollicite ses connaissances explicites issues de sa mémoire à long terme en rapport avec la tâche à accomplir, sur lesquelles il applique des procédures générales (i.e. des procédures qui peuvent être appliquées à n’importe quel domaine). Lors de cette première phase, les processus de prise de décision et de résolution de problèmes sont lents, fastidieux et sujets à erreurs..

    Le second stade est nommé le stade associatif et intervient au fur et à mesure qu’un individu devient de plus en plus compétent dans un domaine. L’utilisation répétée de connaissances explicites dans des situations données aboutit à la formation de connaissances procédurales spécifiques (automatismes) au domaine.  Elles consistent en l’association directe entre des conditions spécifiques du domaine et l’action résultante, ce qui aboutit à l’apprentissage implicite de règles. La nécessité d’analyser des connaissances explicites est progressivement contournée : lorsque les conditions dans l’environnement correspondent aux conditions de la règle procédurale (c’est-à-dire la règle déjà apprise), l’action est automatiquement invoquée. Les processus longs et fastidieux de rappel (souvenir) des connaissances explicites et d’application de procédures générales à ces connaissances sont ainsi contournés.

    Enfin, le troisième stade est le stade autonome : les procédures deviennent automatisées. Les associations se renforcent, se spécialisent et/ou s’adaptent à des types particuliers de situations. Les connaissances procédurales deviennent très rapides et automatiques. Durant ce stade, les connaissances procédurales simples sont composées ou remplacées par des connaissances procédurales plus complexes et inclusives. Ce dernier type de connaissances compressant (contenant) un large nombre de conditions d’instanciations et d’actions résultantes, induit une perte de capacité des individus à verbaliser leurs connaissances.. Ainsi au fur et à mesure que les procédures deviennent composées et automatisées, la capacité de verbaliser les connaissances liées à la compétence diminue. Quand la réalisation d’une tâche devient complétement automatisée, le traitement, ne nécessitant plus de ressources cognitives, est autonome et inconscient, autrement dit, il est alors implicite. La figure A illustre les trois stades d’évolution d’un novice au stade d’expert et leur impact sur la capacité de verbaliser ses connaissances. En résumé, un expert, dans un domaine donné, possède des connaissances et des procédures implicites qui lui permettent de choisir rapidement et automatiquement la bonne option dans différents contextes en analysant une situation courante en fonction de ses expériences antérieures. Il évite ainsi l’utilisation d’un processus itératif et laborieux de prise de décision [Bootz, 2016].

    Comprendre ses connaissances, en quoi est-ce important dans notre quotidien ?

    Dans notre quotidien, la question de l’expert et de la transmission des connaissances se posent constamment !

    Lorsqu’un jeune collaborateur (jeune en termes d’expérience) arrive dans une équipe, un stagiaire par exemple, il est formé, accompagné dans son apprentissage de ses nouveaux outils ou méthodes de travail. Il y a alors une passation des connaissances entre les « anciens » et les « nouveaux », et souvent le départ d’un collaborateur senior (senior en termes d’expérience) est souvent considéré comme une perte surtout s’il n’a eu personne à qui transmettre ses connaissances au sein de l’équipe.

    A contrario, lorsqu’un expert métier senior forme un jeune collaborateur, deux moyens s’offrent à lui afin transmettre une partie de sa connaissance. Le premier moyen consiste à lui expliquer explicitement le pourquoi et le comment, ce qui correspond à l’acquisition de connaissance explicites pour le jeune collaborateur. Le second moyen consiste à lui montrer, lui faire prendre en main et donc le faire manipuler afin qu’il acquièrt de l’expérience et donc des connaissances implicites autour de son métier.

    Figure B – Les quatre transformations des connaissances au sein d’une organisation d’après Nonaka et Takeuchi, deux chercheurs connus pour leurs travaux dans le management des connaissances.

    Nous retrouvons alors l’importance de la compréhension de ce qu’est une connaissance et comment l’acquérir, puisque comprendre cela et notamment l’apprentissage implicite, permet de comprendre comment s’acquiert l’expérience, c’est à dire l’ensemble des connaissances implicites relatives à notre vécu.

    Dans le domaine des entreprises, l’ensemble des questions autour de la problématique de « comment conserver et préserver les connaissances ? » porte le nom de « Gestion, Ingénierie ou management des connaissances ». Il s’agit d’un axe déterminant dans la mesure où la connaissance est l’équivalent d’un trésor pour ces dernières. En effet, la question de l’expertise métier et de la transmission des connaissances représentent toutes deux un double enjeu pour les entreprises : au niveau des collaborateurs internes des entreprises pour véhiculer le savoir-faire, mais aussi au niveau de la connaissance et de la compréhension des métiers des clients et prospects (clients potentiels).

    Coté informatique et IA ?

    S’intéresser à l’organisation des connaissances chez l’humain et en particulier à l’acquisition des connaissances implicites permet de mieux comprendre l’apprentissage chez l’humain, et par extension, permet de mieux anticiper, récolter, conserver et diffuser la connaissance autour de soi.

    Or s’il est facile de récolter des informations explicites à travers des questionnaires, de l’analyse de documents, l’étude de cahiers des charges et de supports écrits divers, qu’en est-il des connaissances implicites ? Autrement dit comment expliciter le savoir-faire implicite d’un individu ?

    Une solution potentielle : le Machine Learning. Lors de la phase d’apprentissage, un réseau de neurones – algorithme du domaine de l’apprentissage automatique – développe une représentation implicite des données qu’il apprend explicitement. De nombreux champs d’études s’intéressent à ces représentations implicites, car elle comporterait des explications sur les prédictions faites par la machine mais aussi des informations importantes sur les données apprises et par extension sur les individus à l’origine de ces données.

    Ainsi il semble qu’il y ait encore de nombreux ponts à explorer entre les sciences cognitives et la modélisation de la cognition humaine à travers des algorithmes de machine Learning. L’informatique semble donc être un outil intéressant pour explorer la cognition humaine, et mieux se comprendre en tant qu’humain !

    Ikram Chraibi Kaadoud, alors Doctorante Inria au sein de projet Mnemosyne.

    Références :

    Référence principale :

    L’article est adapté des travaux de thèse de l’autrice :

    Chraibi Kaadoud, I, 2018. Apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques. Thèse de doctorat, Université de Bordeaux. URL : https://tel.archives-ouvertes.fr/tel-01771685, page 1 – 18.

    Vous pouvez vous y référez pour de plus amples références bibliographiques ainsi que des explications plus détaillées.

    Autres références

    Bootz, Jean-Philippe, 2016. Comment définir et gérer l’expert ? Available from : https ://www.agecso.com/wp/wp-content/uploads/2016/01/BourbaKeM-5.pdf (accessed 20 December 2017).

    Mathern, Benoît, 2012. Découverte interactive de connaissances à partir de traces d’activité : Synthèse d’automates pour l’analyse et la modélisation de l’activité de conduite automobile. Thèse de doctorat, Université Claude Bernard-Lyon I. URL : https://tel.archives-ouvertes.fr/tel-00864865

     

  • Apprendre sans le savoir ?

    Les algorithmes d’intelligence artificielle dont nous entendons si souvent parler sont basés sur des apprentissages et des connaissances.  Ces notions sont à l’intersection de plusieurs domaines : sciences cognitives, sciences de l’éducation et désormais sciences du numérique.  A partir d’articles qu’Ikram Chraibi Kaadoud  a publié sur son blog Intelligence mécanique, nous vous proposons deux textes pour y voir plus clair ; voilà le premier. Pascal Guitton

    Deux types de connaissances

    Le raisonnement fait partie des fonctions exécutives chez l’humain [Chraibi Kaadoud & Delmas, 2018]. Il s’agit d’un processus cognitif de haut niveau qui permet à un individu de s’adapter à son environnement en fonction des informations perçues, de son expérience et de son objectif [Dubuc, 2002]. Cela permet par exemple de faire face à des situations complexes, d’interagir avec son environnement, ou encore d’établir des plans. Lors du processus de raisonnement, deux types de connaissances sont sollicitées : les connaissances explicites et implicites.

    Connaissances explicites & implicites

    Les connaissances explicites sont l’ensemble des connaissances qu’un individu peut mémoriser et récupérer consciemment puis exprimer par le langage. Elles sont souvent apprises sous forme verbale. Elles sont associées à la mémoire explicite qui concerne l’ensemble des événements biographiques (mémoire épisodique) et la mémoire des concepts et des objets (mémoire sémantique). Ces connaissances, formalisables et transmissibles, sont exprimables par l’individu et peuvent donc être stockées sur un format extérieur (document, rapports, etc.). Elles sont considérées facilement extractibles puisque facilement verbalisables.

    A contrario, les connaissances implicites sont non exprimables et celles dont l’individu n’est pas conscient. Elles sont liées à la mémoire implicite. L’apprentissage de telles connaissances est implicite : c’est par l’imitation, la pratique, le vécu et l’expérience, qu’un individu acquiert ce type de connaissances. Elles regroupent les connaissances procédurales (liées par exemple aux capacités motrices comme faire du vélo), celles liées à la mémoire perceptive (mémoires des formes, des couleurs, des odeurs, des sons), celles des réflexes et des apprentissages non-associatifs comme l’habituation et la sensibilisation. Ces connaissances sont importantes car elles sont associées au vécu d’une personne et ont une incidence directe sur le raisonnement. La connaissance implicite est présentée comme inflexible, inaccessible et liée à la nature de l’information (i.e. aux caractéristiques du matériau) utilisé lors de l’apprentissage.

    Figure A : Différentes mémoires à long terme.

    La compréhension de ce type de connaissance, son acquisition et son extraction ont fait et font encore l’objet de nombreux travaux de recherche. Il existe notamment un paradoxe dans cette connaissance implicite : c’est à la fois la plus recherchée (liée à l’individu, elle porte plus d’information que des données), mais c’est aussi la moins accessible.

    Or quand il convient de partager son savoir avec autrui, surtout son expertise, son savoir-faire et son expérience, sur un domaine en particulier, c’est l’ensemble des connaissances implicite et explicite qu’il faudrait partager.

    Enjeu en entreprise

    En entreprise, le partage et la transmission des connaissances est un réel axe stratégique. L’extraction de l’expertise, c’est à dire des compétences spécialisées et poussées dans un domaine, est d’autant plus complexe qu’il existe plusieurs stades d’acquisition de ces compétences en fonction desquels, les experts – personnes surentrainées, qui ont acquis des habilités particulières par leur expérience et qui ont notamment connu une migration de leur connaissances explicites à un savoir-faire implicite – peuvent ou non verbaliser leurs connaissances.

    En effet, notre cerveau transforme les connaissances acquises au fur et à mesure que l’on monte en compétences. Conduisez-vous aujourd’hui comme lors des premiers jours de l’obtention de votre permis ? Il est fort probable que non !

    Apprendre sans le savoir, est-ce possible ?

    Mémoire et apprentissage implicite

    Les connaissances implicites sont liées à la mémoire implicite. Cette dernière se distingue de la mémoire explicite d’une part au niveau de l’apprentissage utilisé pour acquérir les connaissances et d’autre part au niveau de l’utilisation de ces connaissances.

    La majorité des preuves de l’existence d’un système de mémoire implicite sont basés sur des travaux dans lesquelles une modification des performances des participants a été observée pour une tache donnée durant les expériences menées, et cela sans que les participants ne soient conscients d’avoir appris quoi que ce soit. On parle alors d’apprentissage implicite.

    Un exemple typique de ce type d’apprentissage est le langage. C’est par la pratique (répétition et imitation) que le langage s’apprend chez l’enfant (langue maternelle), et non par l’apprentissage explicite des règles grammaticales. Or l’enfant n’est pas conscient du fait de son jeune âge, entre autres, de l’apprentissage qu’il est en train de réaliser.

    Ce phénomène d’apprentissage implicite a été étudié pour différentes tâches appliquées à différents types d’informations (grammaire ou musique) et différentes populations (adulte et enfants).

    En 1999, deux chercheurs de l’université de Bourgogne, Annie Vinter, chercheuse en psychologie du développement et Pierre Perruchet, chercheur étudiant la place de l’inconscient dans les apprentissages, ont notamment définit l’apprentissage implicite comme « un mode adaptatif par lequel le comportement des sujets se montre sensible aux caractéristiques structurales d’une situation à laquelle ils ont été préalablement exposés, sans que l’adaptation qui en résulte soit due à une exploitation intentionnelle de la connaissance explicite des sujets concernant ces caractéristiques ». En d’autres termes, le terme d’apprentissage implicite recouvre toutes les formes d’apprentissage qui opèrent à l’insu du sujet, sans que ce dernier soit conscient du fait qu’il est en train de modifier de manière stable son comportement [Witt, 2010].

    Les circonstances de ce type d’apprentissage sont donc plutôt accidentelles qu’intentionnelles, ce qui ne l’empêche pas d’être considéré robuste et indépendant des mécanismes explicites. L’apprentissage implicite possède par ailleurs un bon maintien dans le temps, mais ne permet pas de transfert des connaissances assimilées à de nouvelles situations.

    Apprentissage implicite :  Comment fonctionne-t-il ?

    Grace à la structure statistique de l’environnement ! Autrement dit, la présence répétée d’une même suite de symbole en fait une règle implicite. Plus cette suite sera présente, plus la règle est prise en compte. Par exemple, considérons les débuts de séquences suivantes :

    BTS.., BTSX…, BTX, …

    BPTTTT…, BPTV…., BPV…

    Le symbole B étant souvent suivi de P ou T dans l’ensemble des séquences, laisse émerger l’intuition d’une règle stipulant que « B est toujours suivi de P ou de T ». La fréquence d’apparition d’un phénomène en fait une règle !

    L’apprentissage implicite extrait donc la structure statistique de l’environnement (ici les séquences). C’est ce qui permet aux mécanismes d’apprentissage implicite de produire donc des performances améliorées à la suite de répétitions.

    En 2006, Jean Emile Gombert, un psychologue et professeur d’université français, spécialisé dans la psychologie de l’enseignement et celle du développement, affirme d’ailleurs à ce propos que « le moteur des apprentissages implicites est de nature fréquentielle » : la fréquence d’exposition à des éléments associés est fondamentale pour que le phénomène d’apprentissage implicite ait lieu et cela indépendamment de l’intention de l’apprenant.

    En résumé, et s’il ne fallait retenir qu’une chose, c’est qu’il existe chez l’humain une capacité d’apprentissage séquentiel implicite. Cette dernière se manifeste dès lors que l’individu est soumis de manière répétée à une même séquence d’événements et permet une amélioration de la performance sans que l’individu en soit conscient. C’est l’apprentissage implicite qui nous permet d’acquérir des connaissances implicites, importantes pour l’acquisition de l’expérience.

    Coté informatique et IA ?

    A l’heure où la cognition humaine est une source d’inspiration pour les modèles d’apprentissage machine (Machine Learning) dans le domaine de l’Intelligence artificielle, la compréhension de l’apprentissage chez l’humain revêt une double importance : D’une part, l’humain étant la machine la plus puissante pour le traitement de l’information, adaptable, adaptée et flexible, cela nous permet d’aller toujours plus loin dans la conception de nouveaux modèles d’IA. Mais surtout comprendre l’apprentissage de l’humain et le fonctionnement cognitif et mnésique, amène aussi à se poser la question de l’impact des biais cognitifs humains sur les algorithmes d’IA et de comment y remédier. Un humain étant la somme de son vécu et ses expériences, et un algorithme de machine Learning étant le résultat de son apprentissage sur des données en particulier selon des paramètres donnés, une IA n’apprend-elle pas implicitement les biais présents dans les données et par conséquent les biais de humains à l’origine de ces données ?

    A l’échelle d’une entreprise, qui représente -entre autres- la somme des collaborateurs qui la constitue, comment est-ce que les connaissances implicites et explicites viennent-elles impacter son fonctionnement ?  Et quel est le lien avec le domaine du numérique ?

    Cela semble être une autre histoire, un autre article !

    Ikram Chraibi Kaadoud, alors Doctorante Inria au sein de projet Mnemosyne.

    Références :

    Référence principale :

    L’article est adapté des travaux de thèse de l’autrice :

    Chraibi Kaadoud, I, 2018. Apprentissage de séquences et extraction de règles de réseaux récurrents : application au traçage de schémas techniques. Thèse de doctorat, Université de Bordeaux. URL : https://tel.archives-ouvertes.fr/tel-01771685, page 1 – 18.

    Vous pouvez vous y référez pour de plus amples références bibliographiques ainsi que des explications plus détaillées.

    Autres références

    Chraibi Kaadoud, Ikram et Delmas, Alexandra. 2018. La cognition ou qu’est-ce que les sciences cognitives?. Publication sur le blog de http://www.scilogs.fr/intelligence-mecanique, URL : http://www.scilogs.fr/intelligence-mecanique/la-cognition-ou-quest-ce-que-les-sciences-cognitives/

    Dubuc, Bruno, 2002. Mémoire et apprentissage. URL : http://lecerveau.mcgill.ca/flash/i/i_07/i_07_p/i_07_p_tra/i_07_p_tra.html

    Witt, Arnaud, 2010. L’apprentissage implicite d’une grammaire artificielle chez l’enfant avec et sans retard mental : rôle des propriétés du matériel et influence des instructions. Thèse de doctorat, Université de Bourgogne.URL : http://www.theses.fr/2010DIJOL019

  • Nos machines « amies » … et l’éthique dans tout cela ?

    « Nous avons tendance à surestimer l’incidence d’une nouvelle technologie à court terme et à la sous-estimer à long terme. » Les craintes autour de l’IA sont sans doute exagérées car l’IA présente encore beaucoup de limites. Mais à long terme ? Que se passera-t-il quand nous vivrons entouré.e.s de robots capables de comprendre et de simuler des sentiments ?  Comment serons-nous transformés ? Laurence Devillers souligne que l’irruption des machines émotionnelles (chatbots, robots) dans nos vies nécessite une réflexion éthique. Laurence est professeure à Sorbonne-université et membre du CCNE numérique,  spécialiste de l’informatique affective au CNRS et autrice d’essais. Serge Abiteboul et Thierry Viéville

    La pandémie du Covid-19 que nous traversons va amplifier l’arrivée du numérique dans notre quotidien. La France montre encore une large fracture numérique. Elle est à deux vitesses : d’un côté, celle du haut débit, où ouvrir une pièce jointe dans un e-mail, interroger internet ou visionner une vidéo est naturel. De l’autre, celle du bas débit où il n’est pas rare de faire plusieurs kilomètres pour pouvoir capter un signal sur son téléphone portable. Le portable et l’ordinateur vont devenir des objets incontournables, nous allons également nous habituer aux interfaces vocales, aux chatbots (ou agents conversationnels), à la télémédecine avec des objets connectés permettant de nous ausculter à distance. Les robots ont montré également leur intérêt pour se risquer à notre place dans des zones dangereuses. Pendant la pandémie, ils seraient utiles par exemple pour nettoyer la ville mais également pour faire nos courses, aller chercher des médicaments, etc. Les machines que nous construisons vont nous imiter de plus en plus pour pouvoir entrer en interaction sociale avec les humains.

    Les premières pages de mon livre « Les robots « émotionnels » : santé, surveillance, sexualité… et l’éthique dans tout cela ? » sont une anticipation de ce que pourrait être notre quotidien en 2025 en compagnie des multiples objets intelligents qui nous entoureront. Une vie dans laquelle robots, voitures, maisons, frigidaires, montres, robots domestiques, robots aspirateurs, téléphones et autres machines connectées seront de plus en plus capables de percevoir nos émotions et d’y répondre. Demain, ils vont s’immiscer dans nos vies pour nous inciter à faire « les bons choix », pour décider à notre place s’il faut faire du sport, ou aller chez le médecin, pour être témoins de notre intimité, nous soigner, être des objets sexuels et remédier à notre solitude. Le pire est sans doute est que nous pourrions être heureux qu’enfin « quelqu’un » de bienveillant fasse attention à nous et soit là pour nous. Malgré le fait qu’ils sont des leurres, des présences vides de sentiments, ils sont capables de s’adresser à nous, d’apprendre nos habitudes et de nous montrer de l’attention, voire de l’empathie s’ils sont programmés pour être sociaux et affectifs, voire du plaisir s’ils sont des robots sexuels. Même si nous comprenons certaines de leurs limites, nous leur prêterons facilement des capacités que ces machines n’ont pas. Ces « amis artificiels » vont prendre une place grandissante dans la société, pour la santé, la surveillance ou encore la sexualité. Quelle sera la place de ces machines « amies » ou « amantes » dans la société ? La loi d’Amara, proposée par Roy Amara, ancien président de l’Institut du futur à Palo Alto en Californie s’applique bien à notre situation « Nous avons tendance à surestimer l’incidence d’une nouvelle technologie à court terme et à la sous-estimer à long terme. »

    Les dimensions affectives envahissent les machines pour permettre un dialogue plus naturel mais aussi pour capter notre attention et nous rendre dépendant d’elles. Pendant longtemps, philosophes et scientifiques ont opposé émotion1 et raison. L’évolution des connaissances scientifiques, grâce aux neurosciences, montre que les émotions et les sentiments sont nécessaires au fonctionnement cognitif, à la mémorisation, à l’apprentissage et à l’interaction et sont indispensables pour l’interaction sociale. L’informatique émotionnelle regroupe trois technologies : la reconnaissance des affects, le raisonnement et la prise de décision à partir des affects, et enfin la génération d’affects grâce à des indices dans la voix, le visage, ou les gestes. Les émotions sont complexes et idiosyncrasiques, propres à chaque individu. Elles sont par essence dynamiques, dépendent de notre culture, de notre éducation et du contexte dans lequel l’enregistrement est capturé. Les systèmes actuels de détection des émotions sont encore très rudimentaires, ne reconnaissant que quelques expressions émotionnelles très caractéristiques mais elles pourraient avec beaucoup de données être meilleures que nous pour décrypter les émotions à partir de nos comportements à partir des expressions du visage, des gestes, de la posture, de la voix et des messages énoncés. La prise en compte du contexte de l’interaction et la connaissance de la personne devrait également rendre plus performant les systèmes actuels.

    L’apprentissage machine et des approches symboliques sont utilisés pour créer les systèmes de dialogue émotionnel. Ce sont les prochains défis des agents conversationnels (Google Home, Alexa Amazon), des assistants virtuels (2D/3D) et des robots compagnons. Grâce à la collecte de nos données personnelles, la machine interprète des tendances de nos comportements affectifs et peut s’adapter à chacun de nous. L’empathie, par exemple, un des piliers des relations humaines, n’est peut-être plus l’apanage des humains. Actuellement, les approches sont encore peu robustes et non régulées. Bien que la robotique n’en soit qu’à ses prémices, on parle de mémoire, d’initiatives, de conscience, d’émotions et même de droits des robots, tout comme pour des humains. N’oublions jamais que les concepteurs de ces objets sont des humains. 80% des concepteurs sont des hommes, 80 % des machines conversationnelles sont féminisées (prénom, apparence) et s’occupent de tâches subalternes. Quelle représentation de la femme veut-on donner à travers ces machines ? Décider au hasard du genre de la voix et de l’agent pourrait être une solution.

    Créer des machines sensibles est un courant de recherche émergent. L’innovation fondamentale de ces machines est l’introduction du risque pour soi-même selon les principes de la régulation de la vie. La vulnérabilité est introduite dans la conception des robots. En biologie et en systémique, l’homéostasie est un phénomène par lequel un facteur clé est maintenu autour d’une valeur bénéfique pour le système considéré, grâce à un processus de régulation. Par exemple, la température de votre corps est en ce moment même régulée par votre organisme et reste constante malgré les différences de température de votre environnement : c’est une homéostasie. Dans un monde dynamique et imprévisible, un robot émotionnel pourrait avoir son propre méta-objectif d’auto-préservation, comme les organismes vivants dont la survie repose sur l’homéostasie, une sorte de « Conatus », si on se réfère à Spinoza. Pour simuler les capacités de l’humain, cette régulation doit être réalisée autour du corps et des émotions. Ces machines devront posséder des états mentaux et une conscience interne comme condition préalable au sentiment, à la stabilité et à l’efficacité de la prise de décision. L’introduction de telles caractéristiques phénoménales est-elle éthiquement souhaitable ?

    L’illusion que les robots pourraient s’humaniser à notre contact serait le moyen le plus simple de créer entre nous et eux une sorte d’adoption. L’animisme très répandu dans la société japonaise réconcilie l’objet et le vivant. La media equation est une théorie de la communication proposée par Clifford Nass et Byron Reeves, chercheurs à Stanford qui explique que les effets de ce phénomène sont profonds et amènent les utilisateurs à réagir à ces expériences de manière inattendue, souvent inconsciemment. La théorie explique que les gens ont tendance à répondre à ces systèmes comme ils le feraient à une autre personne, en étant polis, coopératifs, en attribuant des caractéristiques de personnalité telles que le genre. L’objet n’a pas l’apparence du vivant mais nous projetons sur lui une conscience fantasmée. Plus un robot sera capable de s’adapter à nous, de tourner la tête dans notre direction quand nous l’appelons, de nous faire un geste particulier, de nous appeler par notre prénom, plus ce stratagème marchera. Ce qui rend la manipulation du robot convaincante est qu’il nous invite à nous occuper de lui. Regardez Gatebox, la petite amie holographique japonaise ! Rappelez-vous de Furby, petite peluche animée interactive, qu’il s’agissait de traiter avec grand soin. Le désir de contact du robot ne nous semble pas lié à la simulation. Le fait d’accorder son attention à quelqu’un crée un lien de confiance. Ce fantasme se prolongera si on peut aider son robot à grandir ou à apprendre, ce qui renforcera l’attachement. Nous construirons de plus en plus de robots vulnérables, capables d’apprendre et de simuler des émotions. Ces démarches ont pour but de nous faire oublier que le robot est conçu par un humain, dont le souci principal peut être de contrôler nos comportements ou de nous inciter à modifier nos comportements, ce qu’on appelle le nudge (Richard Thaler, Prix Nobel 2017).

    Deux attitudes envers l’IA sont souvent opposées : celle de l’humaniste, trop défiant, et celle du scientifique trop confiant. Une position relationnelle pourrait être une 3ième attitude qu’il nous faut théoriser. Les machines et l’IA font partie de notre vie imaginaire, psychique et affective, nous tissons et tisserons de plus en plus de liens dans le temps avec ces objets. Nous entrons dans une ère de relations inextricables entre les humains et les machines, une relation de confiance et d’affection au sein de laquelle la séparation entre vivant et artefact deviendra de plus en plus floue. Les robots « émotionnels » n’ont pourtant ni sentiments, ni affects, ni hormones de plaisir, ni intentions propres. A l’instar de l’avion qui ne bat pas des ailes comme un oiseau pour voler, nous construisons des machines capables d’imiter sans ressentir, de parler sans comprendre et de raisonner sans conscience. Si leur rôle peut être extrêmement positif dans le domaine de la santé pour par exemple le suivi des maladies chroniques, il faut vérifier les risques de manipulation, d’isolement ou encore de dépendance.

    Comment évolueront nos relations avec les machines émotionnels ? Un certain nombre de valeurs éthiques sont importantes pour la conception et les usages de ces machines : la déontologie et la responsabilité des concepteurs, l’émancipation et la responsabilité des utilisateurs, l’évaluation, la transparence, l’explicabilité, la loyauté, la non-discrimination des systèmes et l’anticipation des conséquences de la co-évolution homme-machine. Nous devons également éviter deux écueils : la paresse, qui consiste à abandonner notre libre arbitre aux choix opérés par ces machines « amies » et le complexe d’infériorité face à des technologies qui calculent plus vite que nous, savent plus que nous et nous impressionnent d’autant plus que nous ne comprenons pas vraiment comment elles fonctionnent.

    Bref, ce n’est pas de l’intelligence artificielle et des robots qu’il faut se méfier, mais des hommes qui, grâce à ces outils, cherchent à en manipuler d’autres à des fins commerciales ou politiques.

    Laurence Devillers,  Professeure Sorbonne-université

    Essais

    • « Des Robots et des Hommes : mythes, fantasmes et réalité » (Plon, 2017)
    • « Les robots émotionnels : santé, surveillance, sexualité… et l’éthique dans tout cela ? » (L’Observatoire, 2020) – sa 4ème de couverture :

  • Pourquoi se fatiguer à simuler la réalité?

    Crédit @elsa_mersayeva de Cartoonbase

    On simule numériquement de plus en plus, le climat, le cerveau, les mouvements de foule, la propagation du Covid 19… C’est devenu un outil standard pour les scientifiques et les ingénieurs dans de très nombreuses disciplines. Victor Storchan et Aurélie Jean nous interpellent : pourquoi ? C’est vrai pourquoi ? Serge Abiteboul et Thierry Viéville

    En 1954 le premier langage de programmation utilisé pour le calcul scientifique et connu encore aujourd’hui sous le nom de Fortran, est créé. Cette année là est aussi la date de parution de l’ouvrage posthume la Crise des sciences européennes et la phénoménologie transcendantale du philosophe et logicien Edmund Husserl. Dans cette œuvre, Husserl décrit les sciences comme un « vêtement d’idées » que l’on donne au monde « et qui lui va si bien ». Par analogie on peut également écrire qu’en informatique ou en sciences numériques, la modélisation est le processus par lequel la réalité de notre monde tangible s’habille harmonieusement des concepts de la physique, manipulables grâce au formalisme mathématique.

    En pratique, on cherche à simuler un phénomène dans le but de l’analyser, de le comprendre ou encore d’en extraire des prédictions. Le mathématicien s’empare ainsi des équations de la physique qu’il ne peut généralement pas résoudre exactement. Il s’attache alors à trouver des propriétés qualitatives (comportements asymptotiques, vitesses de propagation, multiplicité des échelles) pour émettre des hypothèses simplificatrices raisonnables, et ainsi pouvoir fournir un schéma calculable par un ordinateur. Même si l’ordinateur et les simulations numériques existent depuis plus de 50 ans, la massification récente de la collecte des données associée aux dernières avancées des performances de calculs, permettent d’entraîner des algorithmes uniquement à partir des données d’apprentissage, et ce, sans description explicite de la physique du phénomène à simuler. On parle d’apprentissage statistique (big data) ou automatique (machine learning). Contrairement à la méthode dans laquelle on formule une hypothèse en amont de la collecte des données servant à l’évaluer, l’apprentissage tire parti de la profusion de données produites par notre société numérique pour tester un grand nombre d’hypothèses à la volée, et d’en suggérer des nouvelles.

    Crédit Elsa Mersayeva de Cartoonbase

    Alors qu’on observe le nombre et la taille des simulations numériques augmenter de manière significative, on peut se poser la question des raisons qui poussent à faire ces simulations. Pourquoi ne pas répondre directement aux questions posées dans notre monde réel et organique? Plus simplement, pourquoi simule-t-on la réalité ?

    En pratique, on simule un phénomène pour trois raisons principales, parfois combinées, que sont l’impossibilité technique de réaliser à la main de grands calculs, l’impossibilité de reproduire dans la réalité une expérience pourtant nécessaire pour comprendre le phénomène étudié, ou encore tout simplement capturer et comprendre des mécanismes encore jamais identifiés dans le monde physique ou biologique.

    Des calculs et des opérations à la main impossibles à réaliser

    Les capacités de simulations numériques ont progressé grâce aux évolutions synchronisées de l’élaboration de théories plus fines et de l’amélioration des outils de calcul. Les travaux autour de la force de Coriolis illustrent ce point. En 1835, Gaspard-Gustave Coriolis formule une contribution décisive à la compréhension de l’influence de la rotation de la Terre sur la dynamique des corps. Bien avant l’époque des ordinateurs, c’est en étudiant la roue hydraulique que Coriolis calcule à la main les équations décrivant ces machines tournantes. Par la suite, son idée joue un rôle clé dans les moyens modernes d’analyse météorologique. C’est en effet grâce aux nouveaux outils de calculs, que les simulations par ordinateur sont ensuite devenues possibles et efficaces dans cette analyse.

    Deux siècles plus tard, Google présente un modèle de Deep Learning dont la précision en espace et en temps des prévisions de différentes mesures météorologiques s’avère plus précise à très court terme qu’avec le schéma standard issu de la physique. Ce modèle permet de prédire le temps, sans connaissance a priori du fonctionnement de l’atmosphère, et à partir d’images radars ou de satellites. Cette approche n’est pas sans rappeler un certain Benjamin Franklin qui observait quotidiennement la météo dans son étude sur les origines de la foudre, sans connaissance physique du phénomène observé. Bien que ce type de modèle permette d’atteindre l’état de l’art actuel dans une multitude de tâches prédictives, soulignons qu’il ne fournit que rarement une explication interprétable souvent indispensable pour une bonne compréhension du phénomène. L’analogie avec une « boîte noire » résume communément notre incapacité de produire de théorie explicative dans des domaines où nous améliorons notre compréhension du monde et développons de nouvelles techniques.

    Observer et analyser un phénomène impossible à capturer dans le monde réel

     L’histoire des sciences nous enseigne que bon nombre de phénomènes se révèlent au mieux impossibles à observer et donc à mesurer et analyser dans le monde réel. Pire, ces phénomènes se jouent de notre bon sens et de notre intuition. Ainsi, les lois de Galilée contredisent l’observation qui nous inciterait à penser que des corps de masses différentes tombent à des vitesses différentes. Or Galilée nous dit que dans le vide, tous les corps tombent à la même vitesse sous l’effet de la gravité. L’expérience de pensée galiléenne constitue ainsi une modélisation du réel.

    Plus tard, au début du XXe siècle, dans La connaissance et l’Erreur (1908), le philosophe des sciences autrichien Ernst Mach propose de réconcilier les expérimentations physiques et mentales. Il statue que « tout inventeur doit avoir en tête son dispositif avant de le réaliser matériellement » et donc disposer de suffisamment d’imagination pour faire le lien avec les connaissances empiriques. S’il n’est pas ici encore question de simulations informatiques, cette phrase permet comme dans le cas de Galilée, d’augmenter notre compréhension du monde au-delà d’une simple perception directement observable. En prolongement de Mach, Pierre Duhem dans La Théorie physique: son objet-sa structure (deuxième édition de 1914) motive l’emploi des modèles par les physiciens de l’école anglaise pour « créer une image visible et palpable des lois abstraites que l’esprit ne pourrait saisir sans le recours à ce modèle»     . À partir des années 1980, le développement massif des moyens de calculs informatiques dotera cet objectif de supports technologiques décisifs.

    Ainsi, de l’analyse détaillée des échanges boursiers haute fréquence aux simulations des phénomènes océanographiques, la modélisation, aidée par les capacités de calcul modernes, s’est imposée naturellement comme une application incontournable des sciences. La modélisation est rarement suffisante en soi et s’enrichit en confrontant ses résultats à des données expérimentales du monde réel.

    Comprendre des phénomènes encore jamais expliqués

    On admettra qu’on ne peut pas toujours tout observer et tout mesurer dans le monde réel. En réponse, un modèle peut permettre de découvrir des propriétés additionnelles et complémentaires de celle déjà identifiées dans le réel. Précisément, c’est le cas d’un modèle récemment développé au MIT et capable de rechercher des structures moléculaires et leurs fonctions biologiques associées, parmi un champ des possibles que l’approche expérimentale classique ne parviennent pas à circonscrire. En réalisant quelques centaines de millions d’inférence, le modèle permit la découverte d’un nouvel antibiotique. De plus, la modélisation associée aux campagnes expérimentales, permet de tester des hypothèses contrefactuelles indispensables lors de l’analyse du risque, peu importe la discipline d’application. On veut pouvoir anticiper des scénarios inédits. Ainsi, en sûreté nucléaire, la modélisation des structures des centrales et des comportements des matériaux qui la constituent permet de quantifier l’incertitude et de définir un corpus de normes robuste.

    Force est de reconnaître que la modélisation augmente les capacités de test et d’exploration, auparavant limitées à l’analyse empirique, pour tenter d’éclairer nos intuitions par des démonstrations et des vérités scientifiques. Loin d’instaurer une tension entre ces différents points de vue, la modélisation répond au contraire à une sollicitation du monde empirique. On ne peut qu’espérer une longue vie à cette union des simulations numériques et du monde réel, notre compréhension du monde n’en sera à la fois que plus précise et plus élargie!

    Victor Storchan,Ingénieur en Machine Learning, ancien élève de Stanfordet Aurélie Jean, Docteur en Sciences et entrepreneur (@victorstorchan et @Aurelie_JEAN)

  • Des logiciels pour gérer le cyberharcèlement

    Les outils numériques permettent la diffusion des connaissances et des contacts riches entre les internautes. Ils ont aussi permis le développement de comportements toxiques comme les fakenews ou les messages de haine sur les réseaux sociaux. Des chercheurs spécialisés en traitement automatique du langage naturel de  l’Université Côte d’Azur nous parlent ici de nouvelles technologies qu’ils développent pour lutter contre un autre mal des réseaux sociaux, le cyberharcèlement. Tamara Rezk, Serge Abiteboul

    Le cyberharcèlement est une forme d’intimidation perpétrée par des moyens électroniques. Ce type de harcèlement est en croissance constante, en particulier du fait de la propagation d’Internet et des appareils mobiles chez les jeunes. En 2016, un million d’adolescents ont été harcelés, menacés ou soumis à d’autres formes de harcèlement en ligne uniquement sur Facebook. On estime qu’environ 70 % des victimes de harcèlement classique ont également subi des épisodes via des canaux virtuels. On sait maintenant que le cyberharcèlement peut conduire les victimes à  la dépression, nuire à leur santé mentale, ou augmenter leur propension à consommer des substances. On a aussi observé, qu’en particulier chez les jeunes, le cyberharcèlement pouvait  encourager au suicide.

    Pinar Arslan, Elena Cabrio, Serena Villata, Michele Corazza

    L’informatique, qui fournit aux intimidateurs de nouveaux moyens de perpétrer un comportement nocif, permet également de lutter contre le cyberharcèlement. Le projet CREEP (pour Cyberbullying Effects Prevention ) s’efforce de développer des logiciels dans ce sens. C’est un projet multidisciplinaire cofinancé par l’Institut Européen de la Technologie et du Numérique (EIT-Digital) qui regroupe un certain nombre de partenaires en Europe, la Fondation Bruno Kessler , les sociétés Expert System et Engineering, l’Université Côte d’Azur et Inria Rennes.

    Le projet  envisage notamment la création de deux produits innovants.

    1. CREEP Virtual Coaching System est un assistant virtuel qui offre des conseils et des recommandations de prévention aux adolescents victimes ou susceptibles de l’être. L’utilisateur interagit avec son propre système de coaching virtuel via un chatbot, un assistant vocal s’appuyant sur l’intelligence artificielle.
    2. CREEP Semantic Technology est un outil de surveillance automatique des réseaux sociaux permettant de détecter rapidement les situations de cyberharcèlement et de surveiller des jeunes victimes (même potentielles), dans le strict respect de la législation en vigueur, de la confidentialité et protection des données personnelles.

    Un groupe interdisciplinaire de sociologues et psychologues a coordonné des analyses sociologiques, qualitatives et quantitatives, visant à mieux comprendre le phénomène du cyberharcèlement, les profils des victimes et des intimidateurs ainsi que la dynamique sous-jacente pour répondre aux exigences socio-techniques nécessaires pour le développement de technologies. Par exemple, une enquête a été menée sur un échantillon d’étudiants italiens âgés de 11 à 18 ans (3 588 répondants) dans le but de comprendre la composition socio-démographique des victimes, leurs mécanismes de réaction et ce qui les influence. Les résultats de l’enquête ont montré par exemple que les plus jeunes (11-13 ans), en particulier, refusaient fortement de demander de l’aide. L’objectif est de définir les suggestions les plus efficaces à fournir par l’assistant virtuel en fonction du profil de l’utilisateur.

    Pour cette raison, les conseils doivent viser à briser le « mur de caoutchouc », à  pousser les harcelés à se confier aux adultes et à renforcer les réseaux sociaux sur lesquels ils peuvent compter (enseignants, amis, parents). Dans le même temps, des différences significatives ont été constatées entre les hommes et les femmes. Pour cette raison, l’assistant virtuel fournira des suggestions diversifiées en fonction du genre. Enfin, de manière générale, la nécessité de sensibiliser les jeunes à l’utilisation consciente des réseaux sociaux et des applications mobiles est apparue, l’activité intense en ligne augmentant de manière exponentielle le risque de nouveaux cas de harcèlement.

    CREEP Semantic Technology (réseaux utilisateurs, et messages haineux détectés)

    Pour ce qui concerne la détection, le problème est complexe.

    Un défi vient de l’énorme masse de données échangées tous les jours dans les réseaux sociaux par des millions d’utilisateurs dans le monde entier. La détection manuelle de ce type de messages haineux est irréalisable. Il faut donc bien s’appuyer sur des logiciels, même si un modérateur humain doit être impliqué pour confirmer le cas de harcèlement ou pas.

    La tâche algorithmique de détection de cyberharcèlement ne peut pas se limiter à détecter des gros mots, insultes et autres termes toxiques. Certains termes qui sont insultants  dans certains contextes peuvent sonner différemment entre amis ou accompagnés d’un smiley. Pour des adolescents par exemple, un mot très insultant, comme bitch en anglais, peut être utilisé de manière amicale entre amis. Il faut donc se méfier des faux positifs. Au contraire, des messages qui a l’apparence ne contiennent pas de termes toxiques peuvent être beaucoup plus offensifs s’ils contiennent du second dégré ou des métaphores haineuses. Un risque de faux négatifs existe donc aussi si on se limite à l’analyse textuelle des contenus.

    Alors comment faire ? On s’est rendu compte qu’on pouvait détecter les cas de cyberharcèlement en effectuant une analyse de réseau et des contenus textuels des interactions. Puisque le cyberharcèlement est par définition une attaque répétée dirigée contre une victime donnée par un ou plusieurs intimidateurs, un système détectant automatiquement ce phénomène doit prendre en compte non seulement le contenu des messages échangés en ligne, mais également le réseau d’utilisateurs impliqués dans cet échange. En particulier, il convient également d’analyser la fréquence des attaques contre une victime, ainsi que leur source.

    C’est ce que réalise CREEP Semantic Technology en analysant un flux de messages échangés sur les réseaux sociaux liés à des sujets, hashtags ou profils spécifiques. Pour ce faire, l’équipe a d’abord développé des algorithmes pour identifier les communautés locales dans les réseaux sociaux et isoler les messages échangés uniquement au sein de cette communauté. Elle a ensuite produit un algorithme de détection de cyberharcèlement qui s’appuie sur plusieurs indicateurs pour la classification des messages courts comme les émotions et sentiments identifiés dans les messages échangés. C’est là que l’intelligence artificielle trouve sa place : des méthodes d’apprentissage automatique et d’apprentissage profond, des réseaux de neurones récurrents.

    Afin de tester l’efficacité du prototype, plusieurs tests ont été réalisés sur différents jeux de données contenant des instances de cyberharcèlement ou d’autres types de harcèlement sur les plates-formes de médias sociaux. Les résultats sont bons.

    Dans l’avenir, la CREEP Semantic Technology va évoluer dans deux directions : l’analyse des images potentiellement associées aux messages (avec une équipe de recherche d’Inria Rennes), et l’extension du prototype à d’autres langues telle que le Français, l’Espagnol et l’Allemand, en plus de Italien et de l’Anglais qui ont été pris en compte au début du projet.

    Elena Cabrio et Serena Villata, Université Côte d’Azur, CNRS, Inria, I3S

  • Lancement du Mooc Class’Code IAI : une formation en ligne pour appréhender l’intelligence artificielle… avec intelligence !

    A partir du 6 avril, Class’Code lance une formation gratuite en ligne pour permettre à toutes et tous de comprendre les enjeux de l’intelligence artificielle en fournissant aux apprenants des repères simples et actuels, sous la forme de parcours élaborés par des experts en sciences informatiques. Grâce à des contenus ludiques et variés, le MOOC permet à chacun·e de décrypter les discours sur l’intelligence artificielle, d’expérimenter, de comprendre comment cette avancée technologique s’inscrit dans l’histoire des humains et de leurs idées, et offre plus largement les moyens de s’approprier le sujet.

    Nous vivons au temps des algorithmes et de plus en plus de tâches cognitives dites “intelligentes” tant qu’elle sont exécutées par un humain sont aujourd’hui mécanisées et exécutées par des machines. Tous les aspects de la société – économiques, sociétaux, culturels – sont profondément impactés par les avancées informatiques et cette situation prend une tournure nouvelle avec l’arrivée de ce qui est désigné sous le terme d’intelligence artificielle.

    L’IA, au-delà des idées reçues

    Employée par tous désormais, la notion d’“intelligence artificielle” nécessite pourtant d’être expliquée et comprise afin de pouvoir s’en emparer et de prendre le recul nécessaire face aux idées reçues qui sont nombreuses. Tout en rappelant que l’intelligence artificielle doit être au service de l’humain, le nouveau Mooc de Class’Code décrypte par étapes les enjeux et les leviers technologiques liés à l’IA. La formation s’attache à présenter les principes de l’apprentissage machine (machine learning) et définit des mots techniques comme l’apprentissage profond (deep learning), ainsi que la place cruciale de la maîtrise des jeux de données. Il s’agit par l’intermédiaire d’un cours interactif de partager une culture minimale sur le sujet, afin de choisir librement et de maîtriser l’usage de ces technologies.

    Une mini-formation citoyenne qui démystifie sans simplifier

    Si l’objectif de la formation est bien de toucher un public large non néophyte par des biais ludiques, des vidéos et des activités, l’équipe d’experts* ayant élaboré les cours met avant tout l’accent sur des savoirs rigoureux permettant à l’apprenant.e de se forger une vision correcte et opérationnelle sur l’IA et ses enjeux.

    Disponible sur la plateforme FUN MOOC, co-réalisée par Inria Learning-Lab, la formation Class’Code IAI hébergée par Inria est ouverte à tous dès le 6 avril.

    À propos de Class’Code

    Class’Code, projet initialement créé en 2014 dans le cadre du PIA, est une association d’utilité publique qui a pour ambition de répondre au besoin de formation et d’accompagnement de la population en matière d’éducation à la pensée informatique dans un contexte où la France affiche un certain retard face au enjeux numériques. Class’Code regroupe des acteurs privés et publics, et coordonne des actions destinées au grand public sur tout le territoire tout en produisant des ressources innovantes accessibles à tous, en ligne et gratuitement.

    A propos d’Inria 

    Inria est l’institut national de recherche en sciences et technologies du numérique. La recherche de rang mondial et l’innovation technologique constituent son ADN, avec pour ambition de faire émerger et d’accompagner des projets scientifiques et entrepreneuriaux créateurs de valeur pour la France dans la dynamique européenne.

    *Une co-production Class’Code avec Inria, Magic Makers , S24B interactive, la participation de 4 minutes 34, Data Bingo, Université de Nantes, La Compagnie du Code et de La Ligue de l’enseignement, et avec le soutien du Ministère de l’Éducation nationale et de la Jeunesse, UNIT, EducAzur et leblob.fr, avec le concours et la collaboration de :

  • Une éthique de l’IA « au futur »

    Pas une journée sans que nous n’entendions parler d’intelligence artificielle, et notamment, de plus en plus souvent, des questions éthiques que des outils basés sur cette technologie soulèvent.  Co-titulaire de la Chaire Droit et éthique de la santé numérique à l’université catholique de Lille, Alain Loute s’interroge sur la capacité à questionner les futurs développements de la technologie et nous entraîne vers une réflexion sur l’éthique composée au futur. Pascal Guitton

    L’Intelligence Artificielle (IA) est au cœur de nombreux débats et polémiques dans la société. Nul domaine de la vie sociale et économique ne semble épargné par le sujet. Ce qui est intéressant à souligner, c’est que dans tous les débats aujourd’hui autour de l’IA, l’éthique est à chaque fois convoquée. Personne ne semble réduire la question de l’IA à une simple problématique technique. En atteste actuellement la prolifération des rapports sur l’éthique de l’IA, produits tant par des entreprises privées, des acteurs publics ou des organisations de la société civile.

    Parmi les rapports, les propos peuvent diverger quelque peu, mais ils semblent tous souscrire à une même forme d’impératif éthique. Il s’agit de l’injonction à anticiper les impacts des technologies. L’éthique – pour reprendre des termes du philosophe Hans Jonas – doit se faire aujourd’hui « éthique du futur ». Anticiper les impacts du développement de l’IA devient donc un impératif éthique.

    Cette photo montre la couverture du livre intitulé Pour une éthique du futur écrit par Hans Jonas
    Couverture de l’ouvrage Pour une éthique du futur – Editions Rivage Poche Petite bibliothèque

    Un tel impératif n’est pas neuf. Il est notamment au cœur de la démarche de la « recherche et l’innovation responsable » prôné par la Commission Européenne. Il me semble qu’un tel concept analogue de responsabilité est également au cœur des récents rapports français sur l’IA. Je me centrerai ici sur trois rapports récents : celui de la CNIL [1], le rapport Villani [2], ainsi que le rapport de la CERNA [3]. Commençons par le rapport Villani. Ce rapport précise que : « la loi ne peut pas tout, entre autres car le temps du droit est bien plus long que celui du code. Il est donc essentiel que les « architectes » de la société numérique (…) prennent leur juste part dans cette mission en agissant de manière responsable. Cela implique qu’ils soient pleinement conscients des possibles effets négatifs de leurs technologies sur la société et qu’ils œuvrent activement à les limiter ».

    Le mouvement est double : anticiper l’aval du développement technologique, pour – en amont – modifier la conception afin d’empêcher les impacts éthiques négatifs. A l’appui de cette démarche, le rapport Villani envisage d’obliger les développeurs d’IA à réaliser une évaluation de l’impact des discriminations (discrimination impact assessment ) afin de « les obliger à se poser les bonnes questions au bon moment ». On retrouve également dans le rapport de la CNIL, une recommandation similaire : « Travailler le design des systèmes algorithmiques au service de la liberté humaine ». Anticiper pour intégrer l’éthique au plus tôt du développement technologique. La volonté de mettre en œuvre une « éthique au futur » est tout à fait louable mais de nombreuses questions restent en suspens que je voudrais passer en revue.

    Le futur est-il anticipable ?

    On peut tout d’abord poser une critique d’ordre épistémologique. Comment juger éthiquement des potentialités ouvertes par le numérique ? Face à un tel développement, ne sommes-nous pas plongés dans ce que les économistes appellent une « incertitude radicale » ? Les possibles ouverts par les « Big Data » sont un bon exemple de cette incertitude radicale. Sous cette appellation, il est fait référence au phénomène de prolifération ininterrompue et exponentielle des données. Cette évolution a fait évoluer le langage technique utilisé pour mesurer la puissance de stockage des données. De l’octet, nous sommes passés au mégaoctet, au gigaoctet, etc. Comme le souligne Eric Sardin, avec des unités de mesures comme le petaoctet, le zetaoctet ou le yotaoctet, il est clair que nous manions des unités de mesure qui excèdent purement et simplement nos structures humaines d’intelligibilité [4]. De plus, les rapports n’insistent-ils pas tous sur le caractère imprévisible de certains algorithmes d’apprentissage ? Ayant conscience de cette imprévisibilité, la CNIL défend, dans son rapport un principe de « vigilance » qui institue l’obligation d’une réflexion éthique continue. Mais plus fondamentalement, ne faut-il pas reconnaître que tout n’est pas anticipable ?

    Photo credit: Ian-S on Visualhunt.com / CC BY-NC-ND

    Un futur « colonisé » ?

    Il est également important de prendre conscience que ce futur que l’on nous enjoint d’anticiper est saturé de peurs, d’attentes et de promesses. Le futur n’est pas un temps vide, mais un temps construit par des scénarios, road-maps et discours prophétiques. Pour le dire en reprenant une expression de Didier Bigo, le futur est « colonisé » par de nombreux acteurs qui essaient d’imposer leur vision comme une matrice commune de toute anticipation du futur. Initialement, il a forgé cette expression dans le cadre d’une réflexion sur les technologies de surveillance, pour désigner les prétentions et stratégies des experts qui appréhendent le futur comme un « futur antérieur, comme un futur déjà fixé, un futur dont ils connaissent les événements » [5].

    L’éthique robotique nous fait courir le même risque d’une colonisation du futur comme l’illustre Paul Dumouchel et Luisa Damiano dans leur livre Vivre avec des robots. Ces derniers pensent notamment à des auteurs comme Wallach et Allen, dans Moral Machines, Teaching Robots Right from Wrong, qui proposent un programme visant à enseigner aux robots la différence entre le bien et le mal, à en faire des « agents moraux artificiels ». Mais « programmer » un agent moralement autonome n’est-il pas une contradiction dans les termes ? Mon propos n’est pas de rentrer ici dans un débat métaphysique à ce sujet. Je voudrais plutôt souligner le fait qu’un tel programme a littéralement « colonisé » l’horizon d’attente des débats sur l’éthique robotique. Suivons Dumouchel et Damiano pour saisir ce point. Ils relèvent que, de l’avis même de certains des protagonistes de l’éthique robotique, « nous sommes encore loin de pouvoir créer des agents artificiels autonomes susceptibles d’être de véritables agents moraux. Selon eux, nous ne savons même pas si nous en serons capable un jour. Nous ne savons pas si de telles machines sont possibles » [6]. Une des réponses avancées par les tenants de l’éthique robotique est alors qu’« il ne faut pas attendre pour élaborer de telles règles que nous soyons pris au dépourvu par l’irruption soudaine d’agents artificiels autonomes. Il est important déjà à se préparer à un avenir inévitable. Les philosophes doivent dès aujourd’hui participer au développement des robots qui demain peupleront notre quotidien en mettant au point des stratégies qui permettent d’inscrire dans les robots des règles morales qui contraignent leur comportements » [7].

    Ce thème de l’autonomisation inévitable des machines est puissant et tout à fait problématique. Parmi tous les possibles, l’attention se trouve focalisée sur ce scénario posé comme « inéluctable ». Une telle focalisation de l’attention pose plusieurs problèmes. D’une part, elle pose des questions épistémologiques : d’où vient que l’on puisse soutenir cette inéluctabilité ? D’autre part, pour Dumouchel et Damiano, cette croyance, bien que non rationnelle, a des effets réels certains : elle détourne l’attention d’enjeux de pouvoir qui se posent dès à présent, à savoir que l’autonomisation des robots, le fait de leur déléguer des décisions et de leur laisser choisir par eux-mêmes signifie peut-être la perte du pouvoir de décision de quelques-uns, mais intensifie aussi la concentration de la décision dans les mains de certains (les programmateurs, les propriétaires des robots, etc.).

    Image extraite du film Forbiden Planet (USA, 1956) – MGM productions

    Qui anticipe ?

    Autre question connexe : qui effectuera cette anticipation des impacts éthiques ? Qui seront les auteurs des discriminations impacts ? Ne s’agit-il que des seuls chercheurs ?  Sur ce point, tous les rapports précisent bien que cet impératif éthique d’anticipation ne concerne pas que ceux-ci. Le rapport de la CERNA précise que « le chercheur doit délibérer dès la conception de son projet avec les personnes ou les groupes identifiés comme pouvant être influencés ». Pour le rapport Villani, « Il faut créer une véritable instance de débat, plurielle et ouverte sur la société, afin de déterminer démocratiquement quelle IA nous voulons pour notre société ». Quant à la CNIL, elle affirme dans son rapport que « Les systèmes algorithmiques et d’intelligence artificielle sont des objets socio-techniques complexes, modelés et manipulés par de longues et complexes chaînes d’acteurs. C’est donc tout au long de la chaîne algorithmique (du concepteur à l’utilisateur final, en passant par ceux qui entraînent les systèmes et par ceux qui les déploient) qu’il faut agir, au moyen d’une combinaison d’approches techniques et organisationnelles. Les algorithmes sont partout : ils sont donc l’affaire de tous ».

    Les rapports cités portent bien une attention à la question de savoir QUI anticipe. Néanmoins, l’injonction à délibérer avec « les personnes ou les groupes identifiés comme pouvant être influencés » (CERNA) ne suffit pas. Il faut que la détermination de la liste de ses personnes concernées soit un objet même de réflexion et de recherche et non pas un prérequis de cette démarche d’anticipation. En effet, l’anticipation de ces impacts peut nous faire prendre conscience de nouvelles parties prenantes à intégrer dans la réflexion. De plus, quelle forme donner à une éthique de l’IA qui soit « l’affaire de tous » ? Comment l’instituer ?

    Une prise en compte du temps qui occulte l’espace

    Enfin, une dernière question laissée en suspens est le privilège accordé au temps par rapport à la spatialité dans la réflexion éthique. Le développement du numérique et en particulier de l’IA ont contribué à l’idée que la virtualisation des échanges réduirait les distances et l’importance des lieux. Une telle croyance est par exemple au cœur du développement de la télémédecine : un malade chronique peut être surveillé indifféremment à son domicile ou en institution, un spécialiste peut être sollicité par télé-expertise quelle que soit la distance qui le sépare de son confrère, etc. Or comme l’affirment les sociologues Alexandre Mathieu-Fritz et Gérald Gaglio, « la télémédecine ne conduit pas à une abolition des frontières et des espaces, contrairement à une vision du sens commun souvent portée implicitement par les politiques publiques » [8]. Pour pouvoir être effectif, les actes de télémédecine demandent un certain aménagement des espaces. Dans un travail ethnographique mené auprès de patients télé-surveillés, Nelly Oudshoorn, a démontré combien les lieux, l’espace domestique et l’espace public influencent et façonnent la manière dont les technologies sont implémentées, de même qu’à l’inverse, ces technologies transforment littéralement ces espaces. La maison devient ainsi un lieu hybride, un lieu de vie médicalisé. Cette dimension spatiale ne semble pas réellement prise en compte.

    Pourtant, un auteur comme Pierre Rosanvallon, nous rappelait il y a une dizaine d’année dans son ouvrage La légitimité démocratique que la légitimité de l’action publique passe de plus en plus aujourd’hui par ce qu’il appelle un « principe de proximité », une attention aux contextes locaux. En atteste aujourd’hui la promotion d’une démarche d’« expérimentation » dans le domaine de l’IA en santé : « afin de bénéficier des avancées de l’IA en médecine, il est important de faciliter les expérimentations de technologie IA en santé en temps réel et au plus près des usagers, en créant les conditions réglementaires et organisationnelles nécessaires » (Rapport Villani). De manière plus inductive et partant du terrain, il s’agirait de privilégier une nouvelle construction de l’action publique : « expérimenter l’action publique » comme nous l’y invite Clément Bertholet et Laura Létourneau [9].

    Si cette démarche d’expérimentation invite à prendre en compte les réalités contextuelles locales, l’objectif reste toujours la « scalabilité » (le fait de pouvoir être utilisé à différentes échelles). Je reprends ce terme à l’anthropologue Anna Lowenhaupt Tsing qui le définit comme : « la capacité de projets à s’étendre sans que le cadre de leur hypothèse ne change » [10]. On expérimente localement certes, mais me semble-t-il pour dégager ce qui est généralisable et opérationnel de manière indifférenciée à différentes échelles. Or, un dispositif de télésurveillance – pour prendre cet exemple – peut-il s’appliquer dans tout contexte ? Tous les lieux de vie peuvent-ils devenir des lieux de soin ?

    L’éthique de l’IA prend-elle bien en compte le fait que les impacts de l’IA vont se différencier selon les lieux et les espaces ? Où doivent prendre place les « ethical impact assessment » ? Doivent-ils être centralisés ou localisés dans les lieux de conceptions des objets techniques ? Plus fondamentalement, est-il possible de déterminer ces impacts sans se déplacer ? Sur ce point, la cartographie du paysage global de l’éthique de l’IA réalisée par A. Jobin et alii [11] est tout à fait instructive. Ils ont réalisé une analyse comparative de 84 rapports sur l’éthique de l’IA. Il s’agit de document produits par des agences gouvernementales, des firmes privées, des organisations non lucratives ou encore des sociétés savantes. Leur analyse met en avant le fait que les rapports sont produits majoritairement aux USA (20 rapports), dans l’Union européenne (19), suivi par la Grande-Bretagne (14) et le Japon (4). Les pays africains et latino-américains ne sont pas représentés indépendamment des organisations internationales ou supra-nationales. Cette distribution géographique n’est-elle pas significative de l’occultation de cette dimension spatiale ?

    Alain Loute (Centre d’éthique médicale, labo ETHICS EA 7446, Université Catholique de Lille)

    [1] Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, CNIL, 2017.

    [2] Donner un sens à l’intelligence artificielle, Pour une stratégie nationale et européenne, Rapport Villani, 8 mars 2018.

    [3] Ethique de la recherche en apprentissage machine, Avis de la Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene (CERNA), juin 2017

    [4] E. Sardin, La vie algorithmique, Critique de la raison numérique, Ed. L’échappée, Paris 2015, pp. 21-22.

    [5] D. Bigo, « Sécurité maximale et prévention ? La matrice du futur antérieur et ses grilles », in B. Cassin (éd.), Derrière les grilles, Sortons du tout-évaluation, Paris, Fayard, 2014, p. 111-138, p. 126.

    [6] P. Dumouchel et L. Damiano, Vivre avec des robots, Essai sur l’empathie artificielle, Paris, Seuil, 2016, p. 191.

    [7] ibid., p. 191-192.

    [8] A. Mathieu-Fritz et G. Gaglio, « À la recherche des configurations sociotechniques de la télémédecine, Revue de littérature des travaux de sciences sociales », in Réseaux, 207, 2018/1, pp. 27-63.

    [9] C. Bertholet et L. Létourneau, Ubérisons l’Etat avant que les autres ne s’en chargent, Paris, Armand Collin, 2017, p.182.

    [10] A. Lowenhaupt Tsing, Le champignon de la fin du monde, Sur la possibilité de vivre dans les ruines du capitalisme, Paris, La Découverte, 2017, p. 78.

    [11] A. Jobin, M. Ienca, & E. Vayena, « The global landscape of AI ethics guidelines », in Nat Mach Intell, 1, 2019, pp. 389–399.

  • Quarante activités pour la quarantaine

    Les acteurs de Class´Code se sont mobilisés rapidement pour mettre à votre disposition des ressources variées au delà de nos ressources usuelles afin de vous aider à vous occuper de vos enfants si vous êtes parent, et à assurer la continuité de la formation en science, tout particulièrement en informatique, suite aux mesures de restrictions des déplacements, si vous êtes enseignant ou animateur. C’est notre mission de partager avec le plus grand nombre les meilleures ressources scolaires ou familiales. Alors, faites vos jeux…

     

    Une question ? Un avis ? Besoin de conseil quel qu’il soit ? Notre bureau d’accueil est là via classcode-accueil@inria.fr, on vous répond au plus vite !

    https://pixees.fr/quarante-activites-pour-la-quarantaine

  • Pourquoi votre chat est nul aux échecs et pourtant plus intelligent qu’une IA

    Omniprésente dans les médias depuis quelques années, l’intelligence artificielle est décrite tantôt comme l’avenir de l’humanité, tantôt comme sa fossoyeuse. Nous reprenons un article de Nicolas Rougier consacré à la notion d’intelligence et publié par The Conversation. Pascal Guitton.
    Chat ou Mac, lequel est le plus intelligent ?
    Sereja Ris/Unsplash

    Si vous possédez un animal domestique, par exemple un chien ou un chat, regardez-le attentivement et vous aurez alors un bon aperçu de tout ce qu’on ne sait pas faire en intelligence artificielle… « Mais mon chat ne fait rien de la journée à part dormir, manger et se laver », pourriez-vous me répondre. Et pourtant votre chat sait marcher, courir, sauter (et retomber sur ses pattes), entendre, voir, guetter, apprendre, se cacher, être heureux, être triste, avoir peur, rêver, chasser, se nourrir, se battre, s’enfuir, se reproduire, éduquer ses chatons, et la liste est encore très longue.

    Chacune de ces actions met en œuvre des processus qui ne sont pas directement de l’intelligence au sens le plus commun mais relève de la cognition et de l’intelligence animale. Tous les animaux ont une cognition qui leur est propre, de l’araignée qui tisse sa toile jusqu’aux chiens guides qui viennent en aide aux personnes. Pour certains, ils peuvent même communiquer avec nous. Pas par la parole, bien entendu, mais en utilisant le langage du corps ainsi que la vocalisation (par exemple des miaulements ou des aboiements). En ce qui concerne votre chat, lorsqu’il vient négligemment se frotter contre vous ou bien qu’il reste assis devant sa gamelle ou devant une porte, le message est assez clair. Il ou elle veut une caresse, a faim ou veut sortir, puis rentrer, puis sortir, puis rentrer… Il a appris à interagir avec vous pour arriver à ses fins.

    La marche, un problème complexe

    RunBot.
    Berndporr/Wikimedia, CC BY

    Parmi toutes ces aptitudes cognitives, il n’y en a aujourd’hui qu’une toute petite poignée que l’on commence un peu à savoir reproduire artificiellement. Par exemple la marche bipède. Ça n’a l’air rien de rien et c’est pourtant quelque chose d’extrêmement compliqué à réaliser pour la robotique et il aura fallu de nombreuses décennies de recherche avant de savoir construire et programmer un robot qui marche convenablement sur deux jambes. C’est-à-dire sans tomber à cause d’un petit caillou sous son pied ou lorsqu’une personne l’a simplement effleuré d’un peu trop près. Mais cette complexité existe aussi chez l’homme puisque si vous vous rappelez bien, il nous faut en moyenne une année pour apprendre à marcher. C’est dire la complexité du problème. Et je ne parle que de la marche, je ne vous parle même pas de la marelle ou du foot. Ou bien si. Aujourd’hui, un des plus gros défis en robotique autonome et de faire jouer des robots au football ! La Robocup 2020 réunissant près de 3 500 chercheurs et 3 000 robots aura lieu l’année prochaine à Bordeaux. Vous pourrez y observer des robots jouer au football, encore un peu maladroitement, il faut bien le reconnaître.

    Et la reconnaissance des objets alors ? On sait le faire ça aujourd’hui, non ? S’il est vrai que l’on a vu apparaître ces dernières années des algorithmes capables de nommer le contenu de pratiquement n’importe quelle image, on ne parle pas pour autant d’intelligence ou de cognition. Pour le comprendre, il faut regarder comment ces algorithmes fonctionnent. L’apprentissage supervisé, qui reste aujourd’hui la méthode la plus populaire, consiste à présenter au programme des images ainsi qu’un mot décrivant le contenu de l’image. Le nombre total d’images est généralement bien supérieur au nombre de mots utilisés car pour un même mot, on va associer un très grand nombre d’images représentant l’objet dans différentes situations, sous différents angles de vues, sous différentes lumières, etc. Par exemple, pour reconnaître les chats, on peut présenter jusqu’à un million d’images. En faisant cela, le programme va se constituer une représentation visuelle interne de ce qu’est cet objet, en calculant une sorte de moyenne de l’ensemble des images. Mais cette représentation n’est in fine qu’une simple description qui n’est pas ancrée dans la réalité du monde.

    L’expérience sensible

    Pour cela, il faudrait que cet algorithme possède un corps lui permettant de faire l’expérience de l’objet. Mais quand bien même, pourrait-il comprendre ce qu’est un verre s’il n’a jamais soif ? Pourrait-il comprendre le feu s’il ne ressent jamais la douleur ? Pourrait-il comprendre le froid s’il ne frissonne jamais ? Ce qu’il faut donc comprendre lorsqu’un algorithme reconnaît un objet dans une image c’est que ce même algorithme ne comprend pas du tout (mais vraiment pas du tout) la nature de cet objet. Il ne procède que par recoupement avec des exemples qu’on lui aura présenté auparavant. Cela explique d’ailleurs pourquoi qu’il y a eu des accidents avec les voitures autonomes. Des éléments du paysage ont été pris pour d’autres (un camion pour un panneau) amenant à des collisions parfois mortelles.

    Helen Keller.
    Bibliothèque du Congrès des États-Unis

    Quid de l’humain ? Faites donc l’expérience de montrer une seule fois un vrai chiot à un enfant et il saura reconnaître n’importe quel autre chiot (même s’il ne connaît pas encore le mot). Les parents, en désignant et en nommant les choses, vont permettre à l’enfant de développer le langage sur des concepts dont il aura fait lui-même l’expérience auparavant. Mais cet apprentissage qui pourrait nous paraître facile, voire évident, ne l’est pourtant pas.

    Cela est très bien illustré par la vie d’Helen Keller qui est devenue sourde, aveugle et muette à l’âge de 2 ans. Son éducatrice, Anne Sullivan, a essayé pendant longtemps de lui apprendre les mots en lui dessinant des signes sur la paume de la main puis en lui faisant toucher l’objet correspondant. Les efforts d’Anne Sullivan ont été dans un premier temps infructueux : Helen ne possédait pas les points d’entrées de cet étrange dictionnaire. Jusqu’au jour où Anne amena Helen à un puits pour lui faire ruisseler de l’eau sur les mains et…

    « Soudain, j’ai eu une conscience vague de quelque chose d’oublié – le frisson d’une pensée qui me revenait – et le mystère du langage m’a alors été révélé. J’ai su que “water” signifiait la merveilleuse chose fraîche qui ruisselait sur ma main. Cette parole vivante a réveillé mon âme, lui a donné la lumière, l’espoir, la joie, l’a libéré ! Il y avait encore des obstacles, c’est vrai, mais des obstacles qui pourraient être éliminés avec le temps. »

    C’est Helen Keller elle-même qui écrira ces phrases quelques années plus tard dans son livre The Story of My Life (1905). Pour elle, ce jour-là, les symboles ont été ancrés à jamais dans la réalité. Si des progrès spectaculaires ont été accomplis ces dernières années dans le domaine de l’apprentissage automatique (IA pour faire court), le problème de l’ancrage du symbole demeure quant à lui plein et entier. Et sans la résolution de ce problème, qui est une condition nécessaire mais vraisemblablement pas suffisante, il n’y aura pas d’intelligence artificielle générale. Il y a donc encore énormément de choses qu’on est très loin de savoir faire avec l’intelligence artificielle.

    Nicolas P. Rougier, Chargé de Recherche en neurosciences computationnelles Université de Bordeaux


    Cet article est publié dans le cadre de l’évènement « Le procès de l’IA », un projet Arts & Science de l’Université de Bordeaux, en partenariat avec Primesautier Théâtre.

    Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

    The Conversation

  • Ils ne savaient pas que c’était insoluble, alors ils l’ont résolu

    Un nouvel « entretien autour de l’informatique », celui de Daniel Le Berre, Médaille CNRS de l’Innovation 2018, enseignant-chercheur en informatique à l’Université d’Artois, au Centre de recherche en informatique de Lens. Daniel Le Berre est l’initiateur et le développeur principal du solveur Sat4j, un logiciel libre utilisé par des millions de personnes à travers le monde. Cet article est publié en collaboration avec The Conversation.
    Daniel Le Berre. Crédits : Frédérique PLAS / CRIL / CNRS

    Binaire : tu es chercheur en intelligence artificielle. Comment devient-on chercheur en IA ?

    Je suis un pur produit de l’Université. Je n’avais aucune idée de ce qu’était le métier d’enseignant-chercheur avant d’en rencontrer à la fac à Brest. J’ai été particulièrement impressionné par la diversité des connaissances en informatique de mes enseignants en licence et maitrise d’informatique et je me suis dit : quel métier formidable ; je veux faire ça ! Cela m’a donné envie de faire une thèse. J’ai choisi l’informatique car j’aime depuis le collège utiliser des ordinateurs (on avait un Bull Micral 30 à la maison pour faire la comptabilité de la ferme). Je suis de cette génération qui a eu la chance d’une initiation à l’informatique au lycée. Ça a disparu ensuite pour n’être réinstallé que depuis peu. Après Brest, je suis parti à Toulouse pour sa réputation en intelligence artificielle. C’est là que j’ai découvert le problème SAT autour duquel j’ai travaillé depuis. Après ma thèse, je suis parti en post-doc en Australie, c’est à cette période que j’ai découvert la conférence SAT au cours d’un atelier à Boston en 2001. Quelques semaines après mon arrivée à Lens en septembre 2001, on me proposait de co-organiser la compétition SAT. J’avais plongé dans le grand bain, le bain des grands !

    B : on ne va pas faire durer plus le suspense. Si tu nous disais ce que c’est que ce fameux problème SAT, sans doute le problème le plus étudié en informatique. 

    Le problème SAT est un problème parmi les plus simples des problèmes compliqués. 

    Crédits : Yeatesh at the English Wikipedia [CC BY-SA 3.0]
    Imaginez un immeuble avec des pièces éclairées par des ampoules. Chaque ampoule peut être éclairée par un ou plusieurs interrupteurs, dans une position donnée (ouvert ou fermé). Chaque interrupteur peut contrôler une ou plusieurs ampoules, et on connaît pour chaque ampoule les interrupteurs associés. Les interrupteurs sont au pied de l’immeuble. On cherche à éclairer toutes les pièces de l’immeuble. Ce n’est pas toujours possible (par exemple si l’on dispose de deux pièces reliées chacune seulement à une position différente de l’interrupteur, on ne pourra jamais éclairer les deux pièces en même temps). Dès que l’on associe plus de 2 interrupteurs à une ampoule, ce problème est difficile.

    Un algorithme simple permet de résoudre le problème. On met tous les interrupteurs à off et on essaie. Si ça ne marche pas, on essaie ensuite toutes les configurations possibles avec un seul interrupteur à on, puis deux… Si j’ai 3 interrupteurs, cela fait 8 configurations à tester ; avec 4, ça en fait 16… A chaque interrupteur que j’ajoute, je double le nombre de configurations à tester. On vous parle souvent de croissance exponentielle dans les journaux. Là c’est vraiment exponentiel. C’est vite effrayant : dès que le nombre d’interrupteurs est plus grand que 270, le nombre de configurations à tester est plus grand que le nombre d’atomes dans l’univers !

    SAT est une abréviation pour « boolean SATisfiability problem » ou en français « SATisfaisabilité de formules booléennes ». En résumé, on nomme problème SAT un problème de décision visant à savoir s’il existe une solution à une série d’équations logiques données. Un algorithme qui résout le problème SAT est appelé un solveur SAT. Je suis un spécialiste de ces solveurs SAT.

    B : SAT est un problème très branché en informatique. Pourquoi ? A quoi ça sert de le résoudre ?

    La raison de sa popularité est qu’il sert de problème pivot pour résoudre beaucoup d’autres problèmes : on traduit le problème original en SAT, on utilise un solveur SAT pour obtenir une réponse, et ensuite on interprète ce résultat par rapport au problème original. Cela fait des solveurs SAT des outils de résolution de problèmes combinatoires génériques.

    L’application la plus visible du problème SAT est  la vérification de processeurs. C’est cette application qui a motivé à la fin des années 90 la conception des solveurs SAT modernes, capables de résoudre des problèmes avec des millions d’interrupteurs.  Un autre problème a donné lieu à beaucoup de travaux en Intelligence Artificielle au début des années 90, celui de la planification : choisir quelles actions effectuer pour atteindre un but étant données une situation initiale et une description des actions possibles. Des chercheurs ont montré qu’ils arrivaient à résoudre super efficacement le problème de planification avec des solveurs SAT. En fait, il y a tout un paquet de problèmes différents que l’on rencontre en pratique qui demandent des techniques semblables. On se rend compte pour une liste croissante de ces problèmes qu’une approche générique par traduction à SAT est plus efficace qu’une approche dédiée. Cela s’explique notamment par les performances impressionnantes des solveurs SAT actuels.

    Le problème SAT est posé sur des variables qui valent 0 ou 1 (les positions des interrupteurs, on ou off). C’est simple un booléen et c’est facile à réaliser sur un ordinateur.  Du coup, on peut réaliser des solveurs vraiment bien optimisés. On a par exemple inventé des structures de données super intelligentes pour mémoriser ce qu’on a déjà appris ou ce qu’il nous reste à apprendre du problème posé. Et cela compense largement le fait qu’au lieu de travailler directement sur le problème original, comme la planification, on bosse sur une représentation du problème avec SAT.

    Visualisation d’un problème SAT. Crédits : Daniel Le Berre

    Le problème est finalement assez simple mais il faut se montrer très intelligent pour le résoudre rapidement. Il faut trouver des raisonnements plus intelligents que ceux consistant par exemple à vérifier l’une après l’autre les solutions possibles.

    On fait même des trucs de plus en plus compliqués, comme de faire causer un solveur SAT qui cherche à trouver une solution et un autre qui essaie de montrer qu’il n’y en a pas. 

    B : tu as reçu la médaille de l’innovation pour tes travaux sur le solveur SAT4j. Que fait ce solveur en particulier ?

    SAT4j est mon troisième solveur SAT en Java, un langage de programmation très populaire chez les développeurs, mais pas dans la communauté SAT. Java n’est pas considéré comme particulièrement rapide alors que la rapidité est le coeur du sujet pour un solveur SAT, parce qu’il y a énormément de choses à calculer à l’intérieur. Alors, ça peut sembler une drôle d’idée de développer un solveur SAT en Java. Pourtant, Java est utilisé par des gens d’horizons divers. Il n’y a pas de raisons pour que les programmeurs Java, et c’est une énorme communauté, soient exclus de la technologie des SAT solveurs, que cette techno soit réservée aux programmeurs d’autres langages ! SAT4j a été conçu pour la communauté Java, pour y diffuser les avancées de la communauté SAT, et en appliquant les principes du génie logiciel que j’enseigne à mes étudiants. Depuis juin 2008, la plate-forme ouverte Eclipse, souvent connue comme un environnement de développement de logiciel mais encore plus utilisée par de nombreuses sociétés comme base de leurs outils, s’appuie d’ailleurs sur Sat4j pour résoudre “ses dépendances logicielles”  : savoir quels composants sont nécessaires pour ajouter une fonctionnalité particulière, sachant qu’ils ne sont pas tous compatibles. Du coup, Sat4j est sans doute le solveur SAT le plus utilisé dans le monde.

    J’ai juste mis les résultats d’une communauté scientifique  à la portée d’un public très large.

    B : quand on parle d’IA aujourd’hui, on veut souvent dire apprentissage automatique ou réseaux de neurone. Ton IA à toi se situe ailleurs. Où ?

    Mon labo est spécialisé en “Intelligence artificielle symbolique” : on formalise le raisonnement, en particulier le raisonnement mathématique. Cela nous permet de faire des outils qui obtiennent automatiquement des preuves. Les solveurs SAT permettent d’obtenir des raisonnements dans une logique très pauvre. Mais nous nous intéressons aussi à des raisonnements dans des logiques plus sophistiquées, en rajoutant des ingrédients aux fils et interrupteurs de départ. Nous sommes là en plein dans l’intelligence artificielle.  

    Un avantage par rapport aux approches d’apprentissage statistique, c’est qu’avec l’IA symbolique, on peut expliquer les résultats : on dispose des étapes du raisonnement, des preuves, ce qu’on n’a pas avec les résultat d’un réseau neuronal. Évidemment, quand on n’y arrive plus avec l’IA symbolique, on peut essayer avec de l’apprentissage automatique. Dans de nombreuses applications, on combine d’ailleurs ces deux types d’approches. 

    Quand j’étais en thèse je faisais un truc qui ne servait à personne, qui n’était pas du tout sexy à l’époque, car on ne pouvait résoudre que des problèmes avec quelques centaines d’interrupteurs.  Cependant, chacun apportait sa contribution à l’enrichissement des connaissances, qu’elles soient théoriques ou pratiques.  En 2001, à partir de toutes les connaissances accumulées jusque là, des étudiants de master de Princeton ont fait progresser considérablement le domaine en construisant un solveur fondé sur un excellent compromis entre complexité et efficacité. Il y a vraiment eu un avant et un après ce solveur.  Cela a permis de résoudre certains problèmes avec des dizaines de milliers d’interrupteurs, une vraie révolution pour l’informatique. L’apprentissage automatique a apporté une autre révolution, beaucoup plus médiatisée celle-là.

    Mais l’intelligence artificielle a de nombreuses facettes. Attendez-vous à voir arriver d’autres révolutions en informatique.

    Serge Abiteboul (@sergeabiteboul) et Charlotte Truchet (@chtruchet)

    Retrouvez Daniel Le Berre sur twitter : @dleberre

  • Outils de décision automatique : opportunités et risques pour nos sociétés

    Les algorithmes d’aide à la prise de décision prennent une place croissante dans nos vies. Il est donc important de s’interroger sur les bénéfices qu’ils procurent mais aussi sur les risques qu’ils induisent. Deux chercheurs Inria, Claude Castelluccia et Daniel Le Métayer, ont récemment remis au Parlement européen un rapport sur ces questions.  Nous reprenons le texte de leur interview réalisé par Pauline Tardy-Galliard paru sur le site d’Inria. Serge Abiteboul & Pascal Guitton.

    Votre étude porte-t-elle sur les algorithmes d’aide à la décision ou sur les décisions automatisées ? Pouvez-vous nous donner un exemple concret d’une application où la décision automatisée est déjà opérationnelle ?

    Le rôle joué (ou pas) par l’humain dans la décision est effectivement une question essentielle. Dans certains cas, comme des systèmes de pilotage de métro automatique ou des logiciels de passage d’ordres en bourse, la décision est entièrement automatisée. Dans d’autres cas, comme les moteurs de recherche ou les plates-formes de réservation d’hébergements par exemple, il s’agit clairement de recommandations qui restent à la libre appréciation du destinataire.

    Cependant, la frontière n’est pas toujours si claire.
    Considérons, par hypothèse, le cas d’un médecin disposant d’un système d’aide au diagnostic réputé fiable, et dont il suivrait systématiquement les recommandations. Formellement, il ne s’agit pas de décision automatisée puisque celle-ci relève en dernier ressort du médecin, mais s’il ne remet jamais en cause le résultat de l’algorithme, on pourrait dire qu’en réalité c’est le système qui décide.

    Ces questions sont d’autant plus critiques que les algorithmes d’aide à la décision concernent quasiment tous les domaines aujourd’hui, à tel point que beaucoup d’internautes n’ont même plus conscience de leur existence (c’est le cas notamment de beaucoup d’utilisateurs de Facebook , et de son algorithme de gestion des fils d’actualité). Nous tenons à insister aussi sur le fait que tous ces algorithmes ne reposent pas sur l’apprentissage, même si cette technique pose des questions plus complexes et se trouve plus sous les feux des projecteurs. Par exemple, les algorithmes de Parcoursup ou de Score Cœur (pour l’appariement entre donneurs et receveurs de greffons) soulèvent des questions intéressantes sans pour autant relever de l’apprentissage.

    Selon vous, quelles sont les raisons qui font que l’on s’oriente vers ce type de techniques ?

    Il y a trois raisons dominantes. Tout d’abord, ces applications réalisent certains types de tâches de façon plus efficace que l’homme. Par exemple, le métro automatique permet d’améliorer à la fois la sécurité et la fluidité du trafic. On peut espérer les mêmes bénéfices avec les voitures autonomes.

    Ces systèmes rendent aussi possible le traitement de gros volumes de données, bien au-delà de ce que peut faire l’humain (par exemple, pour analyser un grand nombre d’images ou un historique important de jurisprudence).

    De manière générale, leur utilisation peut permettre de réduire les coûts, d’offrir de meilleur services, ou même de rendre possibles des services complètement nouveaux. Le domaine médical en fournit une multitude d’exemples à cet égard : on peut utiliser ce genre de systèmes pour améliorer les prises de décisions en matière de parcours médical (hospitalisation ou traitement à domicile par exemple, opportunité d’examens complémentaires, etc.), pour détecter beaucoup plus tôt des symptômes de maladie, pour analyser les effets des traitements, etc.

    Photo by Lelia Milaya 🌿 on Reshot

    Et quels en sont les risques ?

    Il existe différents types de risques. Ceux dont on parle le plus, notamment pour les systèmes qui reposent sur l’apprentissage, sont les risques liés aux biais dans les données utilisées pour entraîner ces systèmes.
    En effet, les données disponibles reflètent forcément les biais existant dans les comportements passés. Il existe des cas bien connus comme celui du système COMPAS de prédiction de la récidive qui utilisé dans certaines cours de justice américaines. Il a été montré par exemple que COMPAS se trompe beaucoup plus souvent en défaveur des justiciables noirs : le nombre de faux positifs (personnes considérées à tort comme à fort risque de récidive) est deux fois plus important dans la population noire que dans la population blanche.
    Il existe également des risques liés à la sécurité car ces systèmes peuvent facilement être attaqués, et leurs mécanismes peuvent être contournés (illustration d’attaques avec les images du rapport p.35).
    Il existe enfin des risques liés à la vie privée, dans la mesure où ces systèmes sont très consommateurs de données personnelles. Ces données, qui peuvent être très sensibles comme les données de santé, sont utilisées en phase opérationnelle mais aussi en amont, dans la phase d’entraînement.

    A votre avis, que faudrait-il faire pour bénéficier de toutes ces promesses sans en payer les contreparties ? Pour quelles raisons est-ce si difficile à faire ?

    Nous avons formulé plusieurs recommandations dans le rapport. Il est aussi accompagné d’un second document intitulé « Options Brief » plus spécifiquement destiné au législateur européen.
    La démarche qui nous paraît saine en la matière est celle de l’analyse d’impact. De la même manière que la RGPD impose de réaliser des analyses d’impact « vie privée », il faudrait rendre obligatoires les études d’impact « algorithmique » avant le déploiement des systèmes qui peuvent affecter significativement la vie des personnes concernées. Depuis la publication de notre rapport, le Canada a d’ailleurs adopté une directive dans ce sens. De manière plus générale, il faut rendre plus concrètes et « vérifiables » les déclarations de bonne conduite et autres chartes d’éthique qui se multiplient aujourd’hui à propos de l’IA. Nous insistons beaucoup dans le rapport sur cette notion d’accountability , c’est à dire d’obligation de rendre des comptes.

    D’un point de vue de la recherche, le plus gros chantier aujourd’hui est celui de l’explicabilité.

    Comment faire en sorte que les décisions prises ou recommandées par ces systèmes soient compréhensibles par les humains ? Cette question est d’autant plus critique quand c’est l’humain qui, in fine , doit prendre la décision et en accepter la responsabilité. On sait pourtant que, pour certains types d’applications, les systèmes les plus précis (au sens de la correction des prévisions) sont aussi les plus opaques. On peut penser aux réseaux de neurones profonds notamment. Comment concilier précision et explicabilité ? Comment formuler les explications pour qu’elles soient véritablement utiles ? Comment mesurer cette utilité ? Toutes ces questions vont susciter de nombreux travaux de recherche dans les années à venir et nous pensons qu’il est important de mener ces travaux de manière interdisciplinaire, non seulement avec des juristes mais aussi des psychologues, sociologues, philosophes, etc.
    Beaucoup de questions se posent aussi du point de vue réglementaire : par exemple, dans quels cas exiger l’explicabilité ? Dans quels domaines exiger une certification des outils d’aide à la décision (à l’instar, par exemple, des dispositifs médicaux) ?
    Enfin, il est nécessaire de mettre sur pied un débat de société sur certains usages de ces outils d’aide à la décision : par exemple en matière de reconnaissance faciale, comme le recommande la CNIL, dans les domaines militaire, judiciaire, etc. Ce débat est d’autant plus nécessaire que certains principes ou objectifs peuvent entrer en tension et qu’il est parfois nécessaire de décider où nous souhaitons positionner le curseur. Il peut exister notamment des tensions entre efficacité (ou précision) et explicabilité des systèmes, entre vie privée et sécurité des personnes, etc. Il est important aussi de poser ces questions en considérant tous les risques et bénéfices liés à l’usage ou au non-usage des système d’aide à la décision.

    Pour quelles raisons la Parlement européen s’est-il tourné vers vous pour ce rapport ?

    La réalité est que les femmes et hommes politiques, que ce soit au niveau européen ou à l’échelle nationale, ont généralement une formation plutôt littéraire ou juridique : ils ont conscience des enjeux en la matière mais sont souvent démunis devant la complexité des questions techniques. Ils sont donc demandeurs d’expertise. Ils sont venus vers nous, comme d’autres institutions (Conseil de l’Europe, Assemblée nationale, etc.) parce que nous sommes reconnus par nos travaux scientifiques mais aussi parce que nous avons adopté depuis des années une démarche interdisciplinaire. C’est ce qui nous permet notamment de comprendre les questions juridiques et de pouvoir échanger avec le législateur sur ces sujets. Nous pensons qu’à l’ère des sociétés technologiques, il est impératif de plus développer ces compétences transverses. Inria en particulier a un rôle important à jouer et devrait être plus volontariste sur ce terrain.

    Claude Castelluccia et Daniel Le Métayer (Inria, équipe-projet PRIVATICS)

  • Un robot dans la robe des juges

    Nous vivons au temps des algorithmes, ces outils ne décident rien mais fournissent des réponses statistiquement significatives, au point de provoquer un dilemme au moment de prendre une décision, quand notre conviction intime rentre en contradiction avec ce que le résultat de l’algorithme propose. Et un domaine où cela devient critique est celui de la justice. Voyons comment dépasser ce dilemme avec Serge Abiteboul. Thierry Viéville.
    Fresque représentant la justice de Luca Giordano ©wikicommons

    Les algorithmes exécutés par des ordinateurs sont entrés dans nos vies : ils nous conseillent des films, nous proposent des chemins pour nous rendre à notre prochain rendez-vous… Bientôt, ils conduiront nos voitures ou nous permettront de rester chez nous dans notre quatrième âge. En prenant autant d’importance, ils soulèvent des questionnements, des inquiétudes. Prenons un exemple frappant dans un domaine régalien, la justice. Aux États-Unis, le logiciel Compas assiste les juges pour décider de libérations conditionnelles, en évaluant le risque de possibles récidives – la décision de remise en liberté est strictement liée à la probabilité de récidive. L’algorithme assiste, mais ne décide pas. Oui, mais un juge aura-t-il le courage, ou la légèreté, de remettre un condamné en liberté contre l’avis du logiciel si l’on peut prouver que l’algorithme fait statistiquement de meilleures prédictions que les juges ?

    Justice et inégalité ©wikicommons

    La question est philosophique : y a-t-il des tâches de telles natures que les confier à des machines nous ferait perdre une part de notre humanité, des tâches qu’il faut leur interdire même si elles les réalisent mieux que nous ? Nous ne répondrons pas à cette question, mais relativisons son importance aujourd’hui. Si les algorithmes deviennent de plus en plus intelligents, ils sont loin de pouvoir, par exemple, remplacer les juges dans des cas encore plus complexes que celui de la libération conditionnelle aux États-Unis. Quand des algorithmes participent à la vie de la cité se pose également la question de leur responsabilité. Revenons sur le logiciel Compas. Il présente sur un juge l’avantage d’une certaine cohérence. Il a été montré notamment que les décisions des juges sont dépendantes de l’heure ; il vaut mieux passer après le repas qu’avant. Et celles des cours de justice, par exemple aux prud’hommes, varient énormément d’une chambre à une autre. Pas de cela avec les algorithmes ! Ils peuvent garantir une certaine cohérence.

    Nous pourrions également espérer qu’ils soient plus « justes », qu’ils ne discriminent pas suivant les origines ethniques, le genre… Pourtant, des journalistes ont évalué les prédictions de Compas et découvert qu’il surestimait largement les risques de récidives des condamnés noirs. Des informaticiens racistes ? Pas vraiment, mais on ne sait pas écrire un algorithme qui prédise les récidives – la question est trop complexe. Alors on utilise un algorithme d’apprentissage automatique. On lui apprend le travail à réaliser en l’entraînant sur un grand volume de données de décisions de juges, à imiter des humains. Ce sont ces décisions, qui présentaient des biais raciaux, que Compas a reproduites. Il faut avoir conscience des problèmes que l’utilisation de programmes informatiques peut soulever, vérifier ces programmes et les données qui sont utilisées pour les « entraîner », surveiller leurs résultats.

    Saint Thomas d’Aquin : pour lui, la justice est une morale ©wikicommons

    Notre exemple nous a permis d’insister sur un aspect essentiel de la responsabilité : l’absence de biais, l’équité. La transparence en est un autre. Nous pouvons, par exemple, nous inquiéter de ce que Facebook fait de nos données personnelles dans une relative opacité. Nous pourrions aussi parler de la loyauté : faut-il accepter un service qui propose des restaurants en disant ne tenir compte que des avis de consommateurs et qui remonte en réalité dans sa liste de résultats les commerçants qui paient pour ça ? La responsabilité sociétale des algorithmes a nombre de facettes.

    Les algorithmes peuvent nous permettre d’améliorer nos vies. Il faut corriger leurs défauts, combattre leurs biais inacceptables. Il peut s’avérer difficile de vérifier, d’expliquer leurs choix, s’ils proviennent de statistiques mettant en jeu des milliards d’opérations ou s’ils se basent sur des motifs complexes découverts par des algorithmes d’apprentissage. Pourtant, notre incompétence ne peut pas servir de justification pour autoriser le viol de principes moraux. Quand les effets des décisions sont sérieux, comme garder une personne incarcérée, sans doute vaut-il mieux attendre d’être certain du fonctionnement de l’algorithme, exiger qu’il explique ses choix et, bien sûr, faut-il pouvoir les contester.

    Serge Abiteboul, Inria et ENS, Paris

    Cet article est paru dans Le magazine La Recherche, N°531 • Janvier 2018
  • Les robots à l’hôpital

    Jocelyne Troccaz est Directrice de recherche CNRS au Laboratoire « Techniques de l’ingénierie médicale et de la complexité – informatique, mathématiques et applications » de l’Université de Grenoble. Ses travaux concernent principalement la robotique et l’imagerie médicale et sont appliqués à des domaines cliniques variés. Ainsi, ses recherches sur l’aide à la biopsie de la prostate permettent le guidage plus précis de la ponction, améliorant la prise en charge du cancer de la prostate, de loin le plus fréquent chez l’homme. Ses travaux sont au cœur des activités de plusieurs start-up valorisant les travaux du laboratoire. Cet article est publié en collaboration avec The Conversation.
    Le robot médical par Saint-Oma
    Jocelyne Troccaz, site du CNRS

    B : Jocelyne, pourrais-tu nous parler de ton domaine de recherche ?

    JT : je travaille en informatique et en robotique, au service des gestes médico-chirurgicaux assistés par ordinateur. Il s’agit de concevoir, développer des systèmes, inventer des dispositifs pour aider les cliniciens lors de leurs interventions, pour le diagnostic, ou la thérapie. C’est prioritairement guidé par les besoins cliniques. On a les pieds dans la clinique et on espère aider les cliniciens à résoudre de vrais problèmes qu’ils rencontrent. Les domaines de l’informatique qui sont les plus pertinents dans mon travail sont le traitement d’images, du signal la robotique vue du côté de la programmation et de la modélisation et l’IHM.  L’IA aussi.

    B : comment en es-tu arrivée là ?

    JT : j’ai suivi une licence, une maîtrise et un DEA d’informatique. J’ai étudié l’intelligence artificielle avec Jean-Claude Latombe et Christian Laugier en particulier, le raisonnement géométrique pour comprendre et reproduire le mécanisme de la préhension d’objets par des robots. Il n’y avait là rien de médical. Après avoir soutenu ma thèse en 1986, je suis entrée au CNRS en 1988.  En 1990, je me suis réorientée en rejoignant un laboratoire CNRS de Technologies pour la Santé à l’Université de Grenoble, TIMC, physiquement implanté à l’intérieur du CHU. C’est là que j’ai rencontré le domaine médical et j’ai découvert que c’était à cela que je désirais consacrer mon énergie et ma créativité. Je me suis même posé la question d’entreprendre des études de médecine. Je ne l’ai pas fait, mais j’en ai appris suffisamment pour comprendre les problèmes cliniques et essayer de trouver des solutions.

    B : qu’est ce qui est spécifique à la robotique médicale ?

    JT : les êtres humains. Pendant ma thèse, quand on mettait des robots en marche, tout le monde se tenait à distance car c’était potentiellement dangereux. À TIMC, l’une des premières interventions que j’ai vues, c’était un bras robotisé qui passait à dix centimètres de la tête d’un patient, j’étais effarée. Le robot est à côté, voire à l’intérieur du patient. Les cliniciens sont tout proches. De plus, les tâches qu’on va faire faire au robot ne sont pas stéréotypées comme dans une ligne d’assemblage. Chaque patient est un cas particulier ; parfois aussi, les organes bougent ou se déforment, et le robot doit s’adapter en permanence. Et puis, un bloc opératoire est un environnement très contraint en termes d’espace, avec des contraintes de propreté, des contraintes électromagnétiques, etc., et toute une batterie de règlements auxquels il faut obéir.

    crédits: KOELIS) : Utilisation de la fusion d’images en urologie pour les biopsies de prostate : visualisation per-opératoire d’une zone cible (en rouge) et de la forme de la prostate (maillage) issues de l’IRM préopératoire ainsi que des biopsies déjà réalisées (cylindres verts, jaunes et rouges).
    crédits: KOELIS : Utilisation de la fusion d’images en urologie pour les biopsies de prostate : visualisation per-opératoire d’une zone cible (en rouge) et de la forme de la prostate (maillage) issues de l’IRM préopératoire ainsi que des biopsies déjà réalisées (cylindres verts, jaunes et rouges)

     

    B : ce sont toutes ces contraintes qui guident les comportements des robots ?

    JT : les images du patient sont à la base des décisions. Il faut être capable d’y lier la planification des gestes. Il faut fusionner des informations provenant de plusieurs sources, modéliser des processus de déformation des organes sur lesquels on agit. On utilise des capteurs, mais on utilise aussi des modèles statistiques, biomécaniques, ou mixtes. Il faut également gérer les interactions entre l’utilisateur et le robot.

    Et d’autres problématiques peuvent intervenir. Par exemple, pour des minirobots qui vont dans le corps du patient et peuvent y demeurer, on a la question des sources d’énergie. On travaille sur un tel robot et on se propose de lui fournir de l’énergie en utilisant les ressources du corps humain (sucre, ions, etc.). On fait coexister biologie et robotique.

    C’est par exemple, le M2A, un objet autonome à peu près de la taille d’un gros antibiotique. Le patient l’avale ; dedans il y a une caméra, de la lumière, des batteries ; ce dispositif prend des images de l’intérieur du tractus digestif, et périodiquement les envoie à un boîtier qui se trouve à la ceinture du patient. C’est utile pour des examens endoscopiques, en particulier pour la zone médiane de l’intestin qu’il est difficile à atteindre par moyen classique. Ce type de système est passif et de nombreuses équipes cherchent à pouvoir en contrôler la trajectoire.

    B : quels sont les grands défis de ta discipline ?

    JT : un défi est la question de l’autonomie décisionnelle des robots. Par exemple, en radiothérapie, on délivre des rayons X sur une tumeur, et plus il y a des incidences nombreuses avec des petits faisceaux, plus vous pouvez être précis. C’est comme faire de la peinture avec un rouleau ou avec un pinceau fin.  Un robot nommé Cyberknife  existe actuellement en radiothérapie, et il porte un système d’irradiation. À ce robot, les chercheurs ont ajouté la capacité de suivre la respiration du patient. Quand on respire, la tumeur bouge. Ils ont développé un modèle qui corrèle le mouvement  facilement détectable de la cage thoracique avec celui de la tumeur, et le robot utilise cela pendant le traitement pour mieux diriger les radiations vers celle-ci.  Avec une telle autonomie de prise de décision, il faut garantir la sécurité ; le partage des prises de décision avec un opérateur humain devient un défi important. Aujourd’hui, l’homme décide, le robot réalise. Mais on assiste à un début de glissement : le robot décide certaines choses. Plus on aura des robots qui agissent de manière un peu autonome sur des tissus mous où tout n’est pas modélisable a priori, plus ces questions se poseront.

    Un autre défi, qui n’est pas spécifiquement lié à la robotique, c’est de pouvoir démontrer une valeur ajoutée clinique. Qu’on développe un dispositif, un robot, ou une méthode de traitement d’images médicales, il faut en faire une évaluation technique : cela doit être correct, répétable, et conforme à ce qu’on devrait avoir. Mais il faut aussi démontrer un bénéfice clinique : par exemple, il y a moins d’effets secondaires, ou le patient passe moins de temps à l’hôpital, ou ça coûte moins cher, etc. Ce n’est pas toujours simple. Par exemple on parle beaucoup du robot médical Da Vinci, mais il coûte très cher et en ce qui concerne son bénéfice clinique pour les patients, les études sont contradictoires. Par contre, il est certain que la formation des cliniciens à la technique de laparoscopie est beaucoup plus simple et rapide avec ce robot.

    Il y a des difficultés spécifiques au travail avec des cliniciens. Quand on travaille avec des gens d’un domaine différent du sien, il peut être difficile de se comprendre. Déjà, il y a le problème du vocabulaire : la première année, je ne comprenais rien au jargon médical.  On finit par apprendre et on découvre alors le plaisir d’interagir avec des personnes d’une culture très différente. C’est une chance et une richesse d’avoir un labo si proche des cliniciens du CHU.

    B : n’y a-t-il pas un risque, pour l’humain, d’être dessaisi du pouvoir décisionnel, de se retrouver juste là à admirer ce que fait le robot ?

    JT : de mon point de vue, l’idée n’est pas de remplacer le clinicien. Pour les choses que nous faisons bien, ce n’est pas la peine de remplacer l’humain par une machine ; il y a beaucoup de choses que l’humain fait mieux que le robot. Pour la dextérité, les gestes fins de l’humain peuvent être excellents grâce à sa perception haptique. Pour l’intelligence, l’humain est très bon en ses capacités d’analyse et de prise de décision surtout dans des conditions critiques.  Il faut voir ces dispositifs comme le moyen de faire faire aux robots des choses que nous ne faisons pas bien nous-mêmes ou avec des moyens non robotisés. Aujourd’hui, si on confie des tâches à un robot qui travaille de manière autonome, ce sont des tâches encore limitées ; par exemple, quand le robot se synchronise sur la respiration du patient pour la radiothérapie.

    Évidemment, je parle de la situation actuelle, mais avec le deep learning et les évolutions futures, il y aura sans doute de plus en plus de tâches et des tâches de plus en plus complexes qui seront déléguées à des machines. En tout cas, ce qui me semble fondamental, c’est que si un robot prend des décisions, il puisse les expliquer aux humains qui l’accompagne et que ces méthodes permettent l’interaction et la prise de décision conjointe.

    Crédits: CHU Grenoble Alpes : Utilisation d’un robot porte-endoscope contrôlé par commande vocale. Le dispositif développé au laboratoire TIMC a été industrialisé par la société Endocontrol Medical

    B : de ta formation initiale, qu’est ce qui t’a été utile pour ta recherche ?

    JT : à l’époque, en informatique, on apprenait surtout à programmer, à faire de l’algorithmique. Ça apprend à réfléchir de manière méthodique, et structurée c’est extrêmement important. On enseignait aussi les algorithmes numériques, qui ne me passionnaient pas, mais je le regrette un peu, car ça m’est utile tous les jours. Mes cours d’électronique, je ne suis pas sûre que ça m’ait servi à grand-chose. Globalement, je crois que ma formation m’a assez bien préparée. Et puis, on apprend beaucoup « sur le tas » : la robotique, je l’ai apprise en faisant ma recherche parce qu’elle n’était pas encore enseignée. Par contre, les mathématiques de base, les manipulations de matrices par exemple, c’est évidemment indispensable et ça, il vaut mieux l’avoir appris dans ses études. Peut-être une chose qui m’a manquée, c’est  d’apprendre une méthodologie expérimentale, pour concevoir une expérience, analyser ses résultats, comprendre ce qui ne marche pas. J’ai surtout appris cela « sur le tas ».

    B :  apprendre « la robotique », qu’est-ce que ça veut dire ?

    JT : dans mon premier laboratoire, on travaillait sur les aspects algorithmiques de la robotique, la modélisation géométrique, la prise de décision. En arrivant à TIMC, je m’imaginais connaitre la robotique, mais j’y ai découvert d’autres aspects indispensables : la calibration de robot, la préparation de manips, le contrôle de plus bas niveau du robot et bien évidemment l’imagerie qui nourrit la planification du robot. Ce que j’aime dans la robotique, c’est la diversité des tâches et des disciplines concernées. Nous écrivons beaucoup de programmes informatiques. Mais, il nous arrive aussi de concevoir des robots, c’est à dire d’inventer des dispositifs nouveaux d’un point de vue architectural, d’un point de vue physique, introduisant de nouvelles formes d’interactions avec les humains. On va jusqu’à la réalisation de ces dispositifs, y compris leur mise en œuvre clinique.

    B :  quelles sont des choses que tu as faites et dont tu es particulièrement fière ?

    JT : je suis fière de travaux sur la « co-manipulation » réalisés dans les années 90 que j’appelais « robotique synergique » et qui étaient très innovants. L’outil est porté par le robot mais tenu également par l’opérateur humain. Ainsi le robot peut « filtrer » les mouvements proposés par l’opérateur. Cela permet de faire cohabiter planification globale et ajustement local, assistance robotisée et sécurité car le clinicien est « dans la boucle ». Cette approche intéresse beaucoup les cliniciens.

    Les autres choses dont je suis le plus fière sont les systèmes qu’on est arrivé à amener jusqu’à une utilisation clinique.  Il n’y a rien de plus gratifiant que de voir son propre système utilisé sur des patients en routine clinique. Par exemple, je travaille avec le CHU de Grenoble et la Pitié-Salpêtrière sur le cancer de la prostate depuis longtemps, du point de vue à la fois du diagnostic et du traitement.

    Côté diagnostic, pour faire une biopsie de la prostate, il y a des carottes de tissu qui sont prélevées puis examinées au microscope. Ces biopsies sont faites sous contrôle échographique, avec une sonde mise dans le rectum du patient. Or la prostate est un peu comme une châtaigne, et quand on bouge la sonde ça bouge la prostate ; du coup ce n’est pas très facile de savoir où est faite la biopsie. En cas de cancer, la recommandation en France, c’est de faire 12 biopsies, les « mieux réparties possibles » dans la prostate.  Comment vous faites pour bien les répartir ? L’idée qui a germé a été de développer des méthodes de fusion de données ultrasonores, échographie et IRM. On travaille en 3D. On a développé des méthodes de recalage d’image pour s’orienter dans l’espace. J’ai eu la chance d’avoir deux étudiants en thèse brillants, l’un urologue et l’autre d’une école d’ingénieur sur ce thème. Les méthodes de recalage en trois dimensions se sont avérées robustes et complètement automatiques. Cela a débouché sur un dispositif industriel de la société KOELIS. Plus de 250 000 patients ont maintenant eu des biopsies avec ce dispositif, dans 20 pays, sur 4 continents.

    Au début, certains urologues disaient que ça ne servait à rien, qu’ils se débrouillaient bien sans, mais leur point de vue a évolué. La chirurgie peut avoir des effets secondaires graves d’incontinence ou d’impuissance, et les gens se posent donc beaucoup de questions sur la décision de traitement et son type, alors si on sait mieux faire les biopsies, on peut faire un traitement plus adapté. Les gens ont commencé à dire qu’au lieu d’enlever la prostate toute entière, si on localise mieux le cancer, on peut n’enlever qu’une partie de la prostate. On était dans une phase d’évolution de la pratique clinique et l’outil développé allait dans le sens de cette évolution. Il est maintenant très bien accueilli.

    L’informatique s’est rendue indispensable à la médecine. On a construit les premiers scanners il y a cinquante ans. Le scanner n’existerait pas sans l’informatique. Les dispositifs d’imagerie qui sont capables de reconstruire une image en trois dimensions à partir de radios n’auraient pas d’existence s’il n’y avait pas de tomographie.

    B :  comment vois-tu une bonne formation d’étudiants ?

    JT : pour ce qui est de l’informatique, ce serait bien si les élèves avec un master d’informatique avaient une formation un peu plus homogène. C’est génial de picorer des choses à droite à gauche, mais ça rend leur intégration plus difficile pour nous, car les étudiants peuvent avoir le diplôme et avoir des lacunes importantes sur des aspects basiques de l’informatique.

    Pour ce qui est de la formation en médecine, on voit se développer des simulateurs informatisés pour la médecine et la chirurgie. Les étudiants ne pratiquent plus une opération la première fois directement sur un corps vivant ou sur un cadavre, ils s’entrainent sur des simulateurs. L’informatique est utile pour cela aussi.

    On a développé un simulateur de biopsie, pour enseigner aux étudiants à faire des biopsies sur simulateurs avant de les leur faire réaliser sur des patients. Pour la biopsie de la prostate, il y a eu une expérimentation avec deux groupes d’étudiants en médecine, un groupe avec une formation traditionnelle sur cadavre, et un groupe formé sur le simulateur. Le groupe formé avec simulateur était vraiment meilleur.

    La recherche à l’interface entre santé et informatique est passionnante. La plupart de nos étudiants attrapent très vite la fibre. Même si parfois, les challenges posés à l’informatique sont hyper intéressants et que cela peut conduire à des résultats fondamentaux, nous sommes également très motivés par la résolution de questions posées par la santé.

    Serge Abiteboul, Inria & ENS, Paris, Claire Mathieu, CNRS & Univ. Paris VII

  • L’informatique rentre en scène

    Après avoir évoqué les bénéfices croisés entre Art et Science dans un texte précédent, nous vous proposons de nous focaliser sur l’apport de l’informatique au théâtre. Pour cela, nous nous sommes adressés à Rémi Ronfard, informaticien, et Julie Valéro, dramaturge et chercheuse en arts de la scène, qui ont suivi ensemble les répétitions du spectacle « La fabrique des monstres » de J.-F. Peyret (Théâtre Vidy-Lausanne, Janvier 2018) pour les documenter en direct. Ecoutons les 3 coups et laissons leur la parole ! Pascal Guitton

     

    Chercher à étudier la représentation théâtrale, c’est tenter de saisir l’éphémère : tous les pédagogues et chercheur.e.s en arts de la scène en ont fait l’expérience, analyser une représentation qui a déjà eu lieu s’apparente nécessairement à un processus de reconstruction subjectif et fragmentaire. Le recours à la captation vidéo ne permet pas de résoudre l’ensemble des difficultés posées par l’étude d’un objet qui n’existe plus : selon l’angle choisi, une partie du spectacle peut échapper à l’oeil de la caméra, le son est souvent médiocre et l’expérience face à l’écran rend peu compte de celle du spectateur en salle.

    Cette difficulté est d’autant plus grande lorsqu’on choisit de s’intéresser aux processus de création, c’est-à-dire à la façon dont émerge l’acte théâtral en répétitions, dans la lignée des rehearsal studies (1). Si de très nombreuses compagnies théâtrales utilisent depuis longtemps la vidéo pour filmer leurs répétitions, le plus souvent dans le but de créer une « mémoire » de la compagnie, d’enregistrer ces moments fugaces et souvent décrits comme « magiques » que sont les répétitions, force est de constater que ces heures de captations sont rarement « traitées » et s’entassaient hier dans des cartons (en format dv) ou s’accumulent aujourd’hui sur des disques durs externes.

    C’est à partir de ce constat que nous avons proposé à Jean-François Peyret, metteur en scène, de tester en direct, dans le temps même de ces répétitions, un procédé de traitement informatique des images enregistrées, Kino Ai (2), qui permet de profiter d’un dispositif de prises de vues en caméra fixe, peu invasif et peu coûteux (pas de technicien supplémentaire), souvent déjà présent dans les salles de répétitions, comme base à la réalisation de documentaires décrivant les différentes étapes des répétitions.

    Cette photo montre 2 acteurs en train de répéter sous le regard du metteur en scène.
    Crédit : Kino AI

    Une question de point de vue

    Reprenant un dispositif qui avait déjà été expérimenté au cours d’un projet précédent, Spectacle en ligne (3), nous avons placé une unique caméra au milieu de l’orchestre, une position qui est également privilégiée par le metteur en scène pour observer les répétitions. Nous avons suivi en cela une proposition ingénieuse de Jean-Luc Godard (4) : « Pourquoi les gens de théâtre n’ont-ils jamais envie de filmer leurs spectacles pour les garder comme archives ? (…) Ce serait très simple : la caméra au milieu de l’orchestre avec un objectif moyen – mais pas le zoom, qui donnerait déjà lieu à une interprétation ».

    Ce « point de vue du metteur en scène » présente plusieurs avantages théoriques et pratiques. D’une part, c’est le point de vue le plus adapté à la projection des films des spectacles dans la même salle. D’autre part, c’est le point de vue le plus proche des acteurs, et le seul qui permette de saisir le jeu des regards entre les acteurs et la salle. Enfin, c’est également le point de vue pour lequel les éclairages sont mis au point, ce qui nous permet de filmer sans modifier ces éclairages. Ce dernier point reste difficile à réaliser en pratique, surtout lorsque les éclairages varient brusquement, mais cela nous paraît important de respecter les choix de mise en scène, ce qui n’est possible que de ce seul point de vue.

    Théâtre et cinématographie

    Comme le souligne justement Pascal Bouchez (5), une problématique particulière à la captation vidéo, c’est l’opposition entre le traitement parallèle de l’information au théâtre (le spectateur voit l’ensemble des acteurs et perçoit globalement la scène), et le traitement séquentiel de cette même information au cinéma ou à la télévision (le spectateur ne voit que les acteurs choisis par le réalisateur et perçoit donc de façon séquentielle la scène à travers une suite d’images). Ainsi, le suivi séquentiel des dialogues peut être problématique lorsque ceux-ci font intervenir trois acteurs éloignés. Un plan fixe des trois acteurs ne permet pas facilement au spectateur de se repérer à l’écran comme il le ferait face à la scène. Une série de gros plans peut être utilisée pour diriger l’attention du spectateur. Il faut donc bien comprendre le système cognitif de l’attention et son fonctionnement dans les deux situations différentes de la scène et de l’écran.

    Les techniques classiques du cinéma permettent en principe de résoudre ces différents problèmes, par une transposition entre les langages dramatique et cinématographique. Mais dans les conditions du direct, le réalisateur est de plus en plus démuni au fur et à mesure que croît le volume spatial de la scène. Comme l’écrit Pascal Bouchez, “tout se joue en direct, si vite que les plans dont la création nécessiteraient de nombreuses répétitions et une longue préparation au cinéma – sont impossibles au théâtre”.

    Théâtre et informatique

    Le projet de recherche Kino Ai aborde précisément cette question grâce à des techniques d’intelligence artificielle qui proposent automatiquement des solutions de cadrage et de montage montrant les actions scéniques et leur enchainement : les données extraites des heures filmées peuvent ainsi s’adapter aux besoins exprimés soit par les professionnels du spectacle, soit par les enseignants et les chercheurs (archivage pour la compagnie, communication auprès des diffuseurs, documentation pour la pédagogie et/ou la recherche).

    On peut remarquer que cette méthode de recadrage en post-production est une option technique et artistique nouvelle, décrite par Walter Murch sous le nom de montage vertical (6), et qui permet de contrôler le « zoom de l’interprétation » dont parlait Jean-Luc Godard en post-production. Cette technique est particulière fastidieuse pour les monteurs, mais se prête en revanche très bien au traitement informatique.

    A partir d’une captation unique, nous proposons ainsi des solutions de montage multiples, destinés à visualiser la captation selon plusieurs lectures possibles. Notre approche tire parti du fait que tous les rushes peuvent être virtuellement disponibles. Dans un autre contexte, Francis Ford Coppola a utilisé cette possibilité pour intervenir en direct sur le montage de son film Twixt lors de projections en festivals (7).

    En suivant ce principe, nous calculons plusieurs cadres mettant en avant les différents aspects de la représentation théâtrale : décors et mouvements d’acteurs en plan large ; codes de proximités entre les acteurs en plan moyen ; langage verbal et non verbal en plan rapproché. Chaque série de plans ainsi recadrés peut être organisée en temps réel en un montage dédié au point de vue choisi. Cette technique permet l’exploration de la représentation sous ses différents aspects.

    Kino AI

    Ces techniques ont été développées au cours d’une thèse menée dans l’équipe IMAGINE d’Inria (8) et expérimentées en vraie grandeur pendant trois semaines de répétitions du spectacle de Jean-François Peyret, La fabrique des monstres. Les prises de vues ont été réalisée par le logiciel Kino Ai de façon entièrement automatique, et ont fourni le matériau de base de trois courts métrages documentaires montrant trois étapes du travail de création de la pièce (9). La lecture suivie de ces trois courts documentaires traduit la progressivité de la création et de ses étapes successives. Le choix de confier, à ce stade de l’expérience, le montage des court-métrages à trois monteur et monteuses professionnel.le.s était dicté par l’envie d’affirmer le récit de répétitions comme une narration nécessairement subjective : la confrontation des pratiques professionnelles des vidéastes avec les potentialités et les contraintes du logiciel fut aussi riche d’enseignements.

    Notre procédé de captation se prête bien aussi aux techniques d’affichage en “split-screen” qui décomposent l’écran dynamiquement et permettent par exemple de zoomer sur plusieurs acteurs simultanément (10). Ce type de présentation est particulièrement bien adapté à la consultation sur le web. Par rapport au montage classique, le montage en split-screen demande des efforts importants, et il est d’autant plus important d’automatiser autant que possible le choix des cadres. Nous avons développé pour cela des algorithmes spécifiques qui permettent de pré-calculer toutes les combinaisons possibles des acteurs et de choisir à chaque instant la composition spatiale la plus pertinente pour montrer simultanément l’ensemble des actions scéniques. Ainsi l’informatique permet dans une certaine mesure de préserver le traitement parallèle de l’information au théâtre en la traduisant directement à l’écran. Ceci pose de nouveaux problèmes de recherche intéressants, par exemple la généralisation de cette approche à des dispositifs à plusieurs écrans, ou à des dispositifs interactifs permettant aux chercheurs de zoomer à leur guise sur les actions scéniques de leur choix.

    Exemple de split-screen. Image extraite de (10)

    Conclusion

    Dans ce billet, nous avons souligné le rôle que peut jouer l’informatique pour faciliter la prise en main des outils audiovisuels par les chercheurs en arts de la scène. Qu’il s’agisse d’explorer une représentation enregistrée en vidéo ultra haute définition, ou de naviguer dans une collection d’enregistrements des différentes étapes des répétitions, la recherche théâtrale a besoin d’outils d’analyse d’images, d’indexation et d’annotation spécifiques et innovants. Au-delà de la seule recherche en arts de la scène, il en va aussi de la survie d’une mémoire des compagnies : toutes n’ont pas les moyens de réaliser des captations attractives et commercialisables, ce qui crée une inégalité forte dans la constitution d’une mémoire du théâtre aux XXe et XXIe siècles : ne reste que les travaux des artistes les mieux dotés financièrement et les plus visibles institutionnellement. Mettre des outils informatiques simples d’utilisation et peu coûteux au service des professionnels c’est aussi assurer non seulement la production des traces mais leur plus grande accessibilité et visibilité. Nous entrons dans l’ère de l’informatique théâtrale.

    Rémi Ronfard (Directeur de recherches Inria, Responsable de l’équipe-projet Imagine) et Julie Valéro (Maître de conférences Arts de la scène, Université Grenoble Alpes).

    Ils animent un groupe de recherche sur les  « dramaturgies numériques » dans le cadre du projet Performance Lab de l’Université Grenoble Alpes : https://performance.univ-grenoble-alpes.fr

    Références

    1 MacAuley Gay : Not magic but work, An ethnographic account of a rehearsal process. Manchester University Press, 2012

    2 Ronfard, Rémi et Valéro, Julie. Kino Ai: La fabrique de la fabrique des monstres, Colloque Attention Machines, Univ. Grenoble Alpes, février 2018.

    3 Ronfard, Rémi et al. Capturing and Indexing Rehearsals: The Design and Usage of a Digital Archive of Performing Arts. International Conference on Digital Heritage, Grenade, Sep 2015.

    4 Godard, Jean-Luc. Conversation avec R. Allio et A. Bourseiller. Cahiers du cinéma n°177. Avril 1966.

    5 Bouchez, Pascal: Filmer l’éphémère. Presses Universitaires du Septentrion, 2007.

    6 Murch, Walter. En un clin d’oeil. Capricci Editions, 2011.

    7 Murch, Walter. Sur le montage digital. Cahiers du Cinéma, novembre 2011.

    8 Gandhi, Vineet, Automatic Rush Generation with Application to Theatre Performances, Thèse de Dotorat, Univ. Grenoble Alpes, Décembre 2014.

    9 Répétitions en cours, Episode 1, Episode 2, Episode 3

    10 Moneish Kumar, Vineet Gandhi, Rémi Ronfard, Michael Gleicher Zooming On All Actors: Automatic Focus+Context Split Screen Video Generation, Proceedings of Eurographics, Computer Graphics Forum, Wiley, 2017, 36 (2), pp.455-465.

  • Big Data et innovation : c’est pour aujourd’hui ou pour demain ?

    Avner Bar-Hen, Crédits TheConversation
    Avner Bar-Hen est professeur au Conservatoire national des arts et métiers (CNAM) à Paris. Spécialiste de statistiques dans les domaines de la fouille de données et des méthodes d’apprentissage, il est également membre du conseil scientifique du Haut Conseil des Biotechnologies.
    Gilles Garel est professeur titulaire de la chaire de gestion de l’innovation du Cnam depuis 2011 et professeur à l’Ecole polytechnique depuis 2006. Il a été directeur du Lirsa 2012 à 2015 et est en charge aujourd’hui de l’équipe pédagogique « Innovation » du Cnam.

    Gilles Carel, Crédits CNAM

    Pour Binaire, ils évoquent le travail qu’il reste à accomplir en matière d’innovation mais aussi d’éducation, pour que les Big Data apportent de nouvelles ruptures technologiques. Antoine Rousseau. Cet article est publié en collaboration avec The Conversation.

     

    Dans le maelstrom du « Big Data-numérique-digital-IA » qui mélange buzz superficiel et réelles ruptures, il est important de s’interroger sur le caractère innovant des Données Massives ? En effet, Innovation et Big Data (Données Massives) sont deux termes à la mode, souvent associés et parés de nombreuses promesses, mais il ne suffit pas de parler d’innovation pour être innovant. Quelle(s) innovation(s) se cache(nt) réellement derrière les Données Massives ?

    En mobilisant des tera, peta, exa, zetta ou des yotta données, les ordres de grandeur de la capture, du stockage, de la recherche, du partage, de l’analyse ou la visualisation des données sont bouleversés. De nouveaux outils se développent avec l’avènement de dimensions inconnues jusque-là, mais ceci ne dit que peu de choses des usages, des transformations positives dans la vie des citoyens ou des acteurs économiques. Le secteur des services a été fortement transformé par l’arrivée des Données Massives. On peut penser à des services comme Uber, Deliveroo, aux recommandations d’Amazon, à l’assistance diagnostic médical, à l’identification d’images, aux messages et échanges automatiques… La valeur ajoutée, la pertinence du service ou l’utilité sociale de ces nouveaux outils n’est pas nulle, mais il y a longtemps que l’on peut prendre un taxi, acheter un livre, cibler une campagne marketing ou identifier une personne. L’arrivée d’un ordinateur champion du monde de Go ne change pas vraiment la vie ou la motivation des joueurs de go, ni même des non-joueurs. Les outils de traitement des Données Massives optimisent des paramètres connus : plus rapide, plus de variables, plus de variété, moins coûteux, plus de personnes, sans personne… Dans cette « compétition paramétrique », on accélère le connu, on remonte à la surface une abondance de données existantes, pas forcément connectées jusque-là. L’enjeu est aussi de tirer les Données Massives vers l’innovation, c’est-à-dire de passer de l’optimisation de propriétés connues à la conception de propriétés nouvelles dans une perspective de partage de la valeur et non de sa captation par quelques acteurs de la « nouvelle économie ».

    Si le traitement des Données Massives peut être tiré par des start-ups très dynamiques, seuls les grands groupes peuvent aujourd’hui valider un prototype de voiture autonome ou développer des programmes de traitement contre le cancer. Les traces numériques massivement disséminées modifient la manière d’appréhender nos individualités. La course à l’appropriation des données est lancée. Les directives européennes comme le RGPD (règlement général pour la protection des données européen) poussent vers un statut privé. Le rapport de Cédric Villani revendique clairement une Intelligence Artificielle pour l’humanité. Nos modes de consommation et nos interactions sociales se transforment grâce à l’omniprésence des ordinateurs et plus largement des machines. Il est temps que les Big Data produisent un Big Bang. Il ne s’agit pas juste d’ouvrir les données, mais de s’en libérer pour leur associer des propriétés innovantes et ne pas rester fixés sur des améliorations, des accélérations et des approches strictement marchandes. Il faut que les citoyens s’approprient les Données Massives afin de donner ensemble un sens à cette avalanche d’informations mais aussi pour faciliter leur intégration au processus d’innovation et de décision au sein des organisations et des entreprises. Seule l’innovation permettra d’imaginer le citoyen de demain. Cet enjeu stratégique passe par une éducation et une formation aux outils numériques et à leurs usages.