Catégorie : Entretiens autour de l’info

  • Remue-méninge pour informathématicien

    Un nouvel « Entretien autour de l’informatique  ». Serge Abiteboul  et Claire Mathieu interviewent Olivier Faugeras, un informaticien et mathématicien français, membre de l’Académie des sciences et de l’Académie des technologies. Olivier Faugeras est Directeur de recherche (émérite) à Inria, Sophia Antipolis. Il a apporté des contributions fondamentales à de nombreux sujets comme l’analyse d’images, la vision par ordinateur, la robotique, ou les neurosciences computationnelles et mathématiques. Ses recherches l’ont conduit aux frontières de l’informatique.

    Cet article est publié en collaboration avec TheConversation.

    Olivier Faugeras, © Inria
    Olivier Faugeras, © Inria

    B : Olivier, tes sujets de recherche ont beaucoup évolué pendant ta carrière.
    OF : Oui. J’ai commencé par le traitement des images. Nous cherchions par exemple à éliminer les distortions dans des images. J’ai passé quelques années aux USA. Quand je suis rentré, j’ai démarré un groupe de recherche à l’INRIA. Nous avons travaillé sur des applications comme la vision par ordinateur. Il s’agissait, par exemple, de permettre à un robot de modéliser ce qu’il voyait pour réaliser une tâche particulière. Je suis passé ensuite tout naturellement à l’analyse des images du cerveau, ce qui m’a conduit à m’intéresser aux neurones. Aujourd’hui, je cherche à modéliser les ensembles de neurones pour contribuer à la construction de ce que j’appelle la neuroscience mathématique, un écho biologique à la physique mathématique.

    cajal13B : Que sait-on dans ce domaine ?
    OF : On sait finalement peu de choses. C’est tout sauf simple. Un neurone isolé, c’est déjà un monde très complexe en soi. Alors les connections d’un grand nombre de neurones… Avec les synapses et les dendrites… C’est un travail très pluridisciplinaire avec des biologistes, des chimistes, des physiciens, des informaticiens, des mathématiciens …

    B : Que peut-on espérer obtenir de cette modélisation ?
    OF : Bien sûr, nous espérons des avancées en « sciences fondamentales », comprendre les mécanismes de base, construire des modèles mathématiques ou informatiques du cerveau, lever le mystère de son fonctionnement. Et puis nous pouvons espérer des résultats en science clinique, par exemple, découvrir des traitements de maladies neuro-dégénératives comme Alzheimer ou Parkinson. On peut aussi imaginer de réduire la part d’expérimentation humaine de médicaments avec des simulations d’ensembles de neurones. Enfin, nous nous inspirons du fonctionnement du cerveau pour imaginer de nouvelles architectures d’ordinateurs, de nouveaux algorithmes.

    B : Imaginer de nouvelles architectures d’ordinateurs, de nouveaux algorithmes ?
    OF : Le cerveau n’est pas un ordinateur dans le sens d’une « machine de von Neumann », une machine purement numérique, avec d’un coté une mémoire et de l’autre un processeur. Dans le cerveau, mémoire et calcul sont mélangés ; des traitements analogiques et numériques se combinent ; c’est mystérieux mais ça fonctionne ! Peut-être moins bien qu’un ordinateur classique pour calculer ou faire des raisonnements mathématiques, mais mieux pour de nombreuses choses comme la mémoire associative par exemple, ou pour reconnaître des objets dans une image.

    B : On parle beaucoup du « Human Brain Project ». Est-ce que tu pourrais nous en dire quelques mots ?
    OF : C’est beaucoup d’argent : un milliard d’euros sur 10 ans, réparti entre plusieurs centaines d’équipes : donc finalement, ce n’est pas énorme rapporté au nombre de chercheurs. Henry Markram est l’homme à l’origine de ce projet, un expérimentateur de grand talent, un neuro-physiologiste qui a effectué des expériences fondamentales pour mesurer l’activité des neurones. Le but est, en dix ans, de construire un simulateur du cerveau humain. Pour y arriver, il faut mieux comprendre comment les choses se passent à plusieurs échelles de temps et d’espace et utiliser les ordinateurs les plus puissants disponibles, voire construire des ordinateurs spécialisés. Il faut aussi développer de nouveaux outils mathématiques qui font défaut.

    Pour ce qui est de la modélisation de l’ensemble du cerveau de manière précise, c’est, à mon avis, hors de portée pour longtemps. On peut néanmoins arriver à modéliser de manière très détaillée le fonctionnement d’une zone du cerveau, une aire corticale par exemple, à laquelle appartiennent plusieurs millions de neurones. Pour modéliser l’audition, on peut ainsi modéliser l’aire auditive de façon très détaillée, et modéliser les aires périphériques à un niveau macroscopique, plus grossier, en s’appuyant par exemple sur les équations obtenues en prenant la limite thermodynamique c’est-à-dire en supposant que le nombre de neurones est très grand. Modéliser le tout de manière très détaillée, pas encore ; peut-être que cela sera en fait inutile.

    La complexité des neurones, HBP
    La complexité d’un réseau de neurones, image obtenue dans le « Humain Brain Project », Le Temps

    B : Est-ce que le Humain Brain Project a déjà produit des résultats ?
    OF : Le projet a un peu plus de deux ans. Pour l’instant, les gens se focalisent sur le développement de plateformes informatiques ouvertes. Certaines de ces plateformes proposent des architectures hautement parallèles, parfois neuro-inspirées. Le but est que des expérimentateurs puissent tester les modèles qu’ils proposent. D’autres visent à construire de grandes bases de données, avec des mesures diverses de neurones auxquelles les chercheurs ont accès pour comparer avec leurs modèles, entrainer ces modèles. Dans d’autres plateformes enfin, on peut piloter des robots avec des ordinateurs conçus autour d’architectures bio-inspirées. La partie du projet dans laquelle je travaille poursuit des buts moins appliqués et plus lointains, il s’agit d’un bloc scientifique intitulé « Théorie ».

    B : Dans tes exposés, tu insistes sur l’importance des modèles mathématiques ?
    OF : Oui. Les aspects théoriques de ces recherches sont adossés à deux piliers fondamentaux : le concept mathématique de bifurcation issu de la théorie des systèmes dynamiques et la théorie des probabilités.

    Localement, un ensemble de neurones est un système dynamique qui se débrouille pour régler ses paramètres de façon à se rapprocher de ce qu’en mathématiques on appelle une bifurcation. Quand on regarde un système d’équations différentielles qui dépendent de paramètres, certains choix de valeurs des paramètres induisent un changement brutal des solutions. Proche d’une bifurcation, la réponse du système peut être plus rapide et le système plus réactif. Ça se passe comme cela dans les réseaux de neurones. Le système “s’installe” localement près d’une bifurcation et c’est cela qui lui donne sa réactivité dynamique.

    L’autre pilier, ce sont les probabilités. Le cerveau est un système extrêmement «  bruité » avec de l’aléatoire partout. Il y a une sensibilité aux variations thermiques, chimiques, électriques… On pourrait croire que tout cet aléa va détériorer les informations, perturber leur transmission. Pas du tout. Le cerveau arrive à s’en sortir malgré tout. Comment ? D’au moins deux façons. D’abord avec la redondance ! Les informations sont dupliquées, des neurones voisins véhiculent souvent des informations similaires. C’est cela qui induit la robustesse. Ensuite en utilisant l’aléa pour enrichir la dynamique dont nous parlions plus haut. C’est cela qui permet de construire des « comportements » neuronaux plus sophistiqués. Et puis il y a à côté de tout cela des mécanismes très sophistiqués de décodage pour reconstruire et utiliser l’information.

    B : Ça paraît très complexe le mécanisme de stockage de l’information dans la mémoire.
    OF : Très. Des neurones sont connectés les uns aux autres par des synapses auxquels sont attachés des poids : ces poids définissent l’importance de chaque connexion. Localement, celle-ci évolue aléatoirement dans le temps en fonction de l’état du neurone auquel elle appartient. Localement, il n’y a pas, ou très peu, de mémoire. Mais ce qui est génial, quand on considère un ensemble de plusieurs neurones, c’est qu’il apparaît au niveau collectif des phénomènes de mémoire. C’est un peu comme dans les verres de spins en physique.

    B : C’est très joli comme terme les « verres de spin » mais nous n’avons pas la moindre idée de ce que c’est.
    OF : C’est un phénomène physique. Les verres de spin sont des systèmes magnétiques dans lesquels les interactions entre les atomes sont aléatoirement de signe ferro- ou anti-ferromagnétique. On les appelle verres car ils possèdent, comme les verres, beaucoup d’états métastables aux basses énergies. En première approximation, les interactions entre ces atomes les font passer aléatoirement dans deux états distincts. Les physiciens avaient eu l’intuition qu’il existait une sorte de mémoire globale des états antérieurs même s’il n’y avait pas de mémoire locale. Cela a été démontré rigoureusement, notamment par les mathématiciens Gérard Ben Arous, Alice Guionnet et Michel Talagrand. On retrouve ce curieux phénomène dans les réseaux de neurones. Ce sont les corrélations globales qui contiennent une trace de l’histoire de l’ensemble du système, donc sa mémoire, même si au niveau du neurone individuel il n’y a aucune trace. C’est une des nombreuses correspondances surprenantes que l’on peut découvrir entre la physique statistique et les systèmes neuronaux.

    B : Nous sommes là dans le domaine des neurosciences, plus précisément de la « neuroscience mathématique » et de la « neuroscience computationnelle ». Tu nous expliques ?
    OF : Dans les neurosciences computationnelles, on part d’un réseau de neurones, on écrit des équations, et on les « résout » avec de la simulation numérique. Pour modéliser un réseau de quelques millions de neurones, on doit modéliser l’activité de chacun des neurones au cours du temps. Il y a des millions d’équations et c’est très difficile, voire impossible, à analyser, à comprendre. Pour y arriver, il faut adopter une approche mathématique. Cela nous conduit aux neurosciences mathématiques. L’approche mathématique, en extrayant la substantifique moelle de ces gigantesques systèmes d’équations, aboutit à des modèles beaucoup plus concis qui capturent les propriétés fondamentales du système initial et permettent donc de mieux le comprendre. L’apport des mathématiques est essentiel.

    B : Comment fonctionne la communauté des neurosciences computationnelles ?
    OF : La communauté fonctionne bien. Les logiciels sont en général des logiciels ouverts, et l’esprit est au partage des connaissances. Tous les ans, à l’EPFL en Suisse, il y a un concours du meilleur modèle pour un neurone. On fournit des observations des neurones basées, par exemple, sur l’activité de sa membrane. On compare les logiciels pour voir lesquels s’approchent le mieux des observations. Les logiciels sont ouverts. On peut progresser en s’appuyant sur le travail des autres. La recherche scientifique avance bien ainsi. C’est, je trouve, un bel exemple à suivre de collaboration scientifique.

    B : Qu’est-ce que les jeunes chercheurs dans ce domaine devraient avoir comme formation ?
    OF : Il faut qu’ils aient des connaissances en neurosciences, en informatique, en mathématiques, en physique. Parmi des jeunes qui nous rejoignent, les lacunes sont parfois flagrantes. C’est parfois en informatique alors que les connaissances dans cette discipline sont indispensables. Nous avons, par exemple, à résoudre des problèmes de tri, et sans notions des bases de l’algorithmique… L’Allemagne a conçu, grâce au financement des réseaux Bernstein, des cursus adaptés recrutant des scientifiques venant d’horizons divers à l’entrée en Master et en leur donnant une formation complémentaire.

    B : Tu as complètement passé sous silence certains domaines de l’informatique, comme la logique et la représentation des connaissances, qui pourtant semblent proches ?
    OF : Nos connaissances en neurosciences restent modestes. Nous commençons à comprendre certains mécanismes de base comme le stockage et la transmission d’information par exemple. Pour ce qui est des mécanismes cognitifs de plus haut niveau, il faudra attendre. C’est totalement inaccessible actuellement, si ce n’est à des niveaux d’observations très grossiers qui limitent les tentatives de modélisation.

    B : Tu es passionné par cette recherche. Qu’est-ce qui te passionne tant ?
    OF : Ses aspects mathématiques. Développer une théorie qui capture le fonctionnement de ces ensembles de neurones. Quel défi ! C’est une étape pour comprendre un jour le raisonnement ou la conscience. C’est ça qui me fascine !

    Serge Abiteboul Inria, Claire Mathieu, ENS Paris

    Pour aller plus loin :

  • Laurence Devillers : l’empathie des robots

    Laurence Devillers est Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Elle nous parle des dimensions affectives dans nos interactions avec les machines. Avec elle, nous pouvons imaginer ces robots à venir qui participeront au soin des personnes âgées, les aideront dans leurs tâches quotidiennes, leurs permettront de rester plus longtemps autonomes. Cela nous conduit évidemment à réfléchir à un autre sujet : il ne faudrait pas que de tels robots deviennent une excuse pour nous décharger sur eux du soin de personnes qui doivent aussi être entourées par des humains.
    Laurence Devillers est membre de la CERNA, la commission de réflexion sur l’Ethique de la recherche en sciences et technologies du Numérique d’Allistène et a participé au rapport sur l’Ethique du chercheur en robotique. Elle participe également à une initiative mondiale IEEE sur l’éthique dans la conception de systèmes autonomes.

    Dans le cadre des Entretiens autour de l’informatique.

    Laurence Deviller @LD
    Laurence Devillers ©LD

    B : Laurence, ta page web explique que ta recherche porte sur la « dimension affective et sociale dans les interactions parlées avec les robots ». Tu peux nous expliquer ?
    LD : Lorsqu’on interagit avec quelqu’un, on fait passer par le langage verbal et non verbal, non seulement des informations sémantiques mais aussi des informations d’ordre affectif et social, liées à la connaissance qu’on a de l’autre, à l’intimité qu’on va avoir avec l’autre. Le langage non verbal, par exemple l’intonation de la voix, les gestes, les mimiques faciales, mais aussi l’attitude corporelle nous permet d’exprimer  beaucoup d’informations émotionnelles. Nous essayons de faire des machines qui aient ce type de compétence, qui comprennent les humains, des machines « empathiques », capables d’exprimer une émotion particulière à un moment donné.

    B : Comprendre ce que ressent une personne, pour mieux la servir, c’est facile de voir pourquoi c’est utile. Mais pourquoi une machine devrait-elle exprimer de l’empathie ?
    LD : Cela peut servir à expliquer, à éduquer, à rassurer les personnes avec lesquelles la machine interagit. Par exemple, je pense à la stimulation cognitive des personnes âgées atteintes de maladies telles que la maladie d’Alzheimer. Un robot peut réagir comme un chat, avec des comportements pseudo-affectifs. Le malade va alors jouer avec le robot comme si c’était un animal de compagnie, ce qui le stimule du point de vue émotionnel et crée un lien social. De même, les robots peuvent aider des enfants autistes qui ont du mal à exprimer leurs émotions ou à comprendre les émotions des autres.

    Mais il nous reste beaucoup de progrès à réaliser. Nous sommes seulement capables de créer des objets non contextualisés, qui ne savent pas vraiment interagir avec le monde réel. L’adaptation des robots aux personnes et au contexte est un défi, et ce défi passe par la modélisation des états affectifs.

    B : La difficulté pour un robot est-elle de comprendre les sentiments des personnes ou est-ce de simuler des sentiments ?
    LD : Les émotions sont en quelque sorte l’expression des sentiments, l’interface avec les autres. Les émotions vont de pair avec des sensations physiques et un passage à l’action,  par exemple la fuite devant un serpent. L’expression des émotions est multimodale et combine des indices dans la voix, le visage et les gestes. Il est plus facile, d’un point de vue informatique pour un robot de simuler des émotions même si celles-ci sont dépourvues de sensations physiques que de les reconnaître. Pour créer une expression émotionnelle sur le visage, nous pouvons nous appuyer sur de nombreux travaux depuis Darwin, par exemple ceux de Paul Ekman, qui a créé des unités faciales que l’on peut composer sur le visage d’un robot afin d’exprimer une émotion donnée. Il y a aussi un grand nombre de travaux sur la génération des gestes et sur la synthèse émotionnelle de voix expressive.

    Pour la reconnaissance des émotions, c’est beaucoup plus compliqué à cause de la très grande variabilité des expressions entre les individus suivant les contextes et les cultures. Les sentiments sont des représentations mentales conscientes et sont souvent cachés, particulièrement dans certaines cultures. Par exemple, il nous arrive d’exprimer une émotion positive et d’éprouver en réalité un sentiment de tristesse. Si le robot reconnaissait les expressions émotionnelles exprimées par une personne, il pourrait peut-être ensuite prédire le sentiment suivant le contexte. Pour la reconnaissance des émotions à partir de la voix, on s’appuie par exemple sur des indices comme le timbre, l’énergie, le rythme ou encore la qualité vocale de la voix d’une personne. On utilise des techniques d’ « apprentissage automatique » pour modéliser les émotions. C’est le machine learning dont on parle tant en ce moment.

    B : Tu peux nous en dire un peu plus sur les algorithmes que vous utilisez ?
    LD : Nous procédons en trois phases : codage, étiquetage, modèle. Prenons un exemple de reconnaissance des émotions à partir d’une bande son. Nous choisissons dans ce signal un certain nombre d’ « aspects », qui vont nous donner des centaines, voire des milliers de coordonnées physiques. Nous codons donc la bande son en une séquence de vecteurs de ces coordonnées. Le codage est la phase la plus compliquée. Il faut choisir les bons paramètres, et cela demande une compréhension poussée des expressions des émotions. Il faut arriver à une information plus compacte, mais qui ait gardé suffisamment d’information pour pouvoir encore y retrouver les émotions.

    L’être humain intervient ensuite en étiquetant ces séquences de vecteurs (segments de son, de vidéo), avec des émotions, colère, joie, tristesse… L’algorithme d’apprentissage automatique essaie ensuite d’ « apprendre » un modèle à partir du signal et des étiquettes. C’est ce modèle que le robot va utiliser. Une personne va parler et un programme va utiliser alors le modèle pour prédire que le signal correspond vraisemblablement à telle ou telle émotion.
    En quelque sorte, le programme essaie de trouver des ressemblances avec des signaux existants dans le corpus de données de départ. S’il trouve une ressemblance avec un signal étiqueté « colère », il en déduit que la personne est en colère.

    La détection des émotions dans une vidéo sur Youtube, « Vivre avec les robots »  © Élodie Fertil

    B : Vous utilisez l’apprentissage profond, le deep learning ?
    LD : Nous avons surtout utilisé une autre technologie, les « machines à vecteurs de support », pour la détection des émotions. Nous commençons à utiliser le deep learning, c’est à dire les « réseaux de neurones convolutionnels », mais il est nécessaire d’avoir de très grands corpus pour l’apprentissage. Le deep learning extrait directement les paramètres à partir du signal brut et les compose automatiquement. C’est une direction intéressante qui donne de bons résultats mais c’est une approche de type boite noire qui ne permet pas de savoir quels sont les critères utiles. L’approche manque de transparence.

    B : On voit bien l’importance de la qualité des données du départ, et de leur étiquetage.
    LD : C’est essentiel. La plupart des corpus disponibles sont artificiels. Ils sont obtenus par exemple avec des acteurs de théâtre à qui on demande de reproduire des émotions. Et c’est une limitation importante. Un axe majeur de recherche est de construire des corpus importants de données sur les sentiments, obtenus dans des contextes réels, étiquetés par les émotions effectivement présentes. Pour ma part, j’ai travaillé avec des corpus réels enregistrés au SAMU. Nous observons alors que la plupart des émotions ne sont pas aussi simples que cela. Elles sont souvent mélangées, par exemple vous pouvez ressentir de l’anxiété, ou de la peur et du soulagement en même temps parce que quelqu’un vient vous aider. Nous retrouvons cette complexité dans des conversations, que nous avons également étiquetées, de clients non satisfaits et qui contactaient le centre d’appels d’EDF.

    De manière plus générale, nous analysons les informations linguistiques, les mots que les personnes prononcent, ainsi que les informations paralinguistiques, les intonations, le rythme, le timbre de la voix mais également certaines expressions du visage comme le sourire, etc. Nous essayons de corréler toutes ces informations pour comprendre le sentiment réel de la personne.

    B : Quel est le critère de succès ?
    LD : Il est très simple : c’est la réaction de l’individu devant le robot. Concrètement, si le robot dit « Tu as l’air en colère, Marie », et que Marie répond : « Oui ! Je suis très en colère », c’est gagné !

    B : Mais nous n’exprimons pas tous nos sentiments de la même manière. Pouvez-vous personnaliser cette analyse en fonction de l’individu ?
    LD : Nous normalisons la voix, puis nous construisons au fur et à mesure un profil expressif de la personne, par exemple ses dimensions d’extraversion, d’émotionalité et d’interaction : répond-elle quand nous lui posons une question ? Nous conservons cette information et nous pouvons en tenir compte pour analyser plus tard les sentiments de cette personne ou pour la prise de décision du robot et le changement de comportement en temps réel durant l’interaction. Il est aussi important d’adapter ces technologies en fonction des différentes cultures.

    B : Les machines sont-elles capables de faire des choses que les psychologues ne peuvent pas faire ?
    LD : Les robots peuvent avoir une meilleure qualité de perception. Ils peuvent chercher dans la voix des indices que l’oreille humaine n’entend peut-être pas. Par exemple, la personne peut faire passer ses émotions par des micro-tremblements, qu’un humain n’entendra pas forcément mais qu’une machine peut entendre. Les médecins sont preneurs de telles technologies surtout pour le suivi de malades.

    Les robots peuvent aussi enregistrer et analyser des signaux 24 heures sur 24. Ils peuvent y détecter des signes et quand c’est nécessaire déclencher une alerte auprès d’un médecin. Par exemple, en ce qui concerne les débuts de démence ou de dépression, il peut y avoir des signes ponctuels pendant la journée, qui ne surgissent pas forcément au moment où le patient voit le médecin.
    Enfin, les robots sont patients. Des humains en fin de vie ont un rythme très lent. Les humains accompagnants ne sont pas toujours prêts à répéter les mêmes phrases avec un rythme super lent, mais un robot, si. Le robot sait synchroniser ses mots dans un dialogue très lent. Il sait attendre que quelqu’un trouve ses mots.

    B : L’humain n’aura-t-il pas l’impression qu’on rentre dans son intime, si la machine sait tout ce qu’il ressent ?
    LD : Il faut des garde-fous. Personnellement, je trouverais insupportable un environnement dans lequel nous serions entourés de machines qui analyseraient nos émotions, sans raison, ou juste pour des motifs commerciaux, ou pour une surveillance policière. Mais si c’est pour l’accompagnement médical des personnes, pour leur bien-être, cela se justifie.

    Attachement aux robots.
    Le Centre communal d’action sociale d’Issy-les-Moulineaux met à la disposition des personnes âgées un robot NAO «coach pour seniors» pour animer leurs activités.

    B : Ces liens d’émotion entre humains et robots ne peuvent-ils pas avoir quelque chose de déconcertant, voire d’inquiétant ?
    LD : Dans les années 50, les psychologues Heider et Simmel ont fait l’expérience de projeter un film où un grand triangle poursuivait deux autres petites formes géométriques, un triangle et un rond. Les spectateurs, en voyant ces mouvements, leur prêtaient des intentions et imaginaient des scenarios rocambolesques sachant très bien qu’ils s’agissaient de formes géométriques. Dans le film, il y a bien une intention qui vient du réalisateur, mais le sentiment vient de l’interprétation que l’humain fait de ce qu’il voit. Est-ce qu’un robot a des sentiments ? Non, c’est l’humain qui lui prête des sentiments, une personnalité. On peut ainsi parler à son chien ou à son chat en étant parfaitement conscient qu’il ne comprend pas.

    Les roboticiens cherchent à produire des robots avec lesquels une personne aura de l’empathie. Pour eux, les machines simulent, ce sont juste des coquilles vides qui n’ont pas d’intériorité, pas d’émotions. Ce sont les utilisateurs de ces machines qui vont interpréter leur comportement à travers un prisme anthropomorphique, leur prêter une humanité qu’elles ne possèdent pas. Les utilisateurs vont projeter leurs émotions sur ces machines. Mais est-ce que c’est gênant ? Où est le problème si les personnes préfèrent s’imaginer que les robots ont des émotions ? De mon point de vue, il n’y a pas de problème.

    Je ne vois qu’un seul risque : que l’humain s’attache trop à un robot. Il faut maitriser cette empathie avec les machines pour éviter la confusion avec une empathie humaine. Ce risque est d’autant plus présent que la future génération de robot sera douée d’apprentissage en continu. Les robots apprendront au contact des humains ce qui risque de renforcer l’attachement à la machine, un peu comme un adulte apprend à son enfant. L’apprentissage en continu des machines est une importante rupture technologique et juridique. Il y pourrait y avoir une coresponsabilité en cas de problème avec un robot entre le concepteur et l’utilisateur.

    Laurence et Zora @LD
    Laurence et Pepper ©LD

    B : Tu es passionnée par ton travail. Qu’est-ce qui te motive ?
    LD : Le mystère des sentiments. Je cherche avant tout à comprendre. Quand j’étais enfant, je voulais travailler sur le cerveau. Je ne suis pas si loin ! Cela m’a conduite à interroger mon rapport aux machines et aux robots et à réfléchir sur l’éthique de ces robots affectifs artificiellement. J’aimerais construire des systèmes d’interaction entre robots et humains qui respectent les règles morales de la vie en société et puissent accompagner les personnes âgées notamment souffrant de la maladie d’Alzheimer. A titre personnel, j’aimerais avoir, chez moi dans trente ou quarante ans, un robot qui ait aussi le sens de l’humour ! C’est un sujet de recherche sur lequel nous travaillons.

    Entretien recueilli par Serge Abiteboul et Claire Mathieu.

    Pour aller plus loin : « Rire avec les robots pour mieux vivre avec », Journal du CNRS 2015.

    Robot, tu seras humain et drôle:

    Cet article est publié en collaboration avec The Conversation.

  • Les experts à Grenoble

    Nous avons rencontré Paul Vidonne, créateur de la société Lerti spécialisée dans l’Expertise et l’investigation numérique. Paul, ancien professeur d’université, directeur du Lerti, est expert judiciaire depuis 1992 auprès de la cour d’appel de Grenoble. Nous lui avons demandé de nous parler d’informatique légale. 

    Binaire : Comment définiriez vous l’informatique légale ? Est-ce la traduction littérale de Computer Forensic ?

    Crédit photo : LERTI
    Crédit photo : LERTI

    Paul Vidonne : La traduction du terme « Computer Forensic » est effectivement « Informatique Légale », sa compréhension en est relativement facile pour tout le monde car elle fait le parallèle avec la médecine légale. Elle est ainsi définit dans Wikipedia : « On désigne par informatique légale ou investigation numérique légale, l’application de techniques et de protocoles d’investigation numériques respectant les procédures légales et destinée à apporter des preuves numériques à la demande d’une institution de type judiciaire par réquisition, ordonnance ou jugement. On peut encore la définir comme l’ensemble des connaissances et méthodes qui permettent de collecter, conserver et analyser des preuves issues de supports numériques en vue de les produire dans le cadre d’une action en justice. »

    Binaire : Il y a une grande différence entre les fonctionnements de la justice entre les pays anglo-saxons et latins. Cela impacte-t-il votre pratique ?

    PV : Dans beaucoup de pays, les analyses pratiquées par les experts sont les mêmes, il n’y a pas de différence dans les techniques d’investigation numérique. Néanmoins pour comprendre les différences, il est important de préciser comment sont régis les experts et l’expertise judiciaire.

    Crédit photo : LERTI
    Crédit photo : LERTI

    En France les personnes reconnues pour leur expérience et leur expertise dans leur spécialité peuvent demander leur inscription sur des listes dressées par les Cours d’appel. Ils portent alors le titre d’« expert judiciaire ». Dans le domaine pénal, ils peuvent être désignés par les juges d’instruction et les parquets pour effectuer des expertises, rémunérées par l’État. En matière civile, ils sont désignés par ordonnance ou par jugement et seront payés par les parties, selon un montant et des modalités fixées par une décision de justice. En revanche, dans beaucoup de pays, de telles listes n’existent pas. Les experts des parties sont alors désignés et rémunérés par les parties elles-mêmes, les parties pouvant aussi échanger des preuves de manière privée avant le procès.

    Binaire : Comment devient-on expert ?

    PV : On devient expert après une longue expérience professionnelle de type cadre d’entreprise, direction ou professeur – il y très peu d’experts jeunes – et l’inscription sur une liste comme nous venons de le voir. Le titre d’expert judiciaire est un engagement de servir la Justice et non un gallon de plus ou une ligne à ajouter au CV. En échange de quoi, pour un prix raisonnable, la justice fait appel à vous pour réaliser des expertises dont elle a besoin pour mener à bien ses investigations et la recherche de la vérité. Un expert doit avoir un autre travail. Les experts sont inscrits sur des listes de Cour d’appel, mais leur compétence n’est pas limitée à leur Cour d’inscription.

    Aperçu du PCB et de la puce Mémoire Samsung KLM8G1WEMB-B031 Photo Lerti
    Aperçu du PCB et de la puce Mémoire Samsung KLM8G1WEMB-B031
    Crédit photo : LERTI

    Binaire : Pourriez-vous nous parler des outils que vous utilisez ? C’est quoi votre boîte à outil ?

    PV : Il existe tout un ensemble d’outils dédiés et spécifiques, la plupart étant des outils commerciaux. On trouve ainsi des outils pour expertiser et investiguer les disques durs, les téléphones mobiles et les GPS… Pour ces objets, on trouve des outils comme EnCase Forensic ou Forensic Toolkit qui permettent de retrouver des informations sur des disques durs et de passer à travers certaines protections des ordinateurs personnels et de bureau. Pour pratiquer des expertises plus exhaustives, il est parfois nécessaire de disposer de plusieurs logiciels car il y a des différences importantes dans les informations remontées par ces derniers.

    Pour les téléphones mobiles, ce qui inclut aussi les tablettes et les GPS, nous utilisons les produits de la société suédoise MSAB ou israélienne Cellebrite. Ces produits permettent de connecter un grand nombre de téléphones et d’analyser leurs mémoires avec des logiciels pour en extraire des informations . On a aussi des produits de niche sous forme de « box » qui permettent de connecter des téléphones d’origine chinoise.

    Ces éditeurs vendent les licences et des abonnements annuels ainsi que des formations pour être « expert agréé sur leurs logiciels ». Selon les pays, ces logiciels sont plus ou moins reconnus par les juridictions.

    Il existe des solutions issues du monde du libre mais elles ont du mal à être à jour. Par ailleurs elles souffrent d’un manque de reconnaissance auprès des tribunaux.

    Pour une société comme Lerti dont le chiffre d’affaire est de 500 K€, le coût des licences de ces outils n’est pas négligeable : il représente de l’ordre de 15% du chiffre d’affaire. On remarquera que pour un expert réalisant 1 ou 2 expertises par an, l’investissement dans ce type d’outil est quasiment impossible et il ne pourra mener à bien son expertise… qui pourra d’ailleurs être demandée à Lerti au final.

    Mais on ne s’arrête pas là ! Par exemple, si un téléphone est cassé ou a été immergé, les puces mémoires peuvent ne pas être endommagées… Dans ce cas, après avoir enlevé les soudures, celles-ci sont mises sur un banc permet d’accéder aux données contenues dans la puce. Sous certaines conditions, un disque dur pourra être réparé en changeant les têtes de lectures si celles-ci sont défectueuses.

    Extraction de la mémoire par points de contact sur le PCB. Source LERTI
    Extraction de la mémoire par points de contact sur le PCB.
    Crédit photo : LERTI

    Binaire : Il fut un temps ou l’on recommandait d’effacer de très nombreuses fois un disque dur pour s’assurer que personne ne pourrait (re)lire les anciennes informations, qu’en est-il aujourd’hui ?

    PV : Ces techniques nécessitaient la mise en œuvre de moyens considérables. Aujourd’hui, avec les disques durs modernes ce type de précaution n’est plus nécessaire.

    Binaire : Quel est le protocole mis en place pour expertiser un objet ou un système informatique ?

    PV : Il n’y a pas de protocole validé par des instances reconnues ou de norme, on est seulement dans les bonnes pratiques. Ainsi, on ne met jamais en marche un ordinateur – le faire serait une faute professionnelle -, on extrait le disque dur, on interpose un dispositif de blocage de toute écriture sur ce disque, on fait une copie de ce dernier avec des dispositifs techniques qui permettent de faire une copie de l’image physique, qui sera toujours signée avec une fonction de hachage pour avoir une copie « conforme » et non altérée.

    La puce Skhynix après extraction (vues recto) Crédit photo : LERTI
    La puce Skhynix après extraction (vues recto)
    Crédit photo : LERTI

    Il est intéressant de remarquer que depuis le début des années 2000, la Gendarmerie avec l’IRCGN et la police disposent de cellules à même de mener des investigations numériques. La différence avec les experts judiciaires c’est que ces investigations  sont rapidement et directement utilisés  dans les enquêtes.

    La puce Skhynix après extraction (vue verso). Crédit photo : LERTI
    La puce Skhynix après extraction (vue verso).
    Crédit photo : LERTI

    Binaire : Avez-vous un exemple d’affaires où l’informatique a joué le premier rôle ?

    PV : Par exemple dans les affaires civiles, c’est l’expertise qui fait la décision dans des procès liés à des contrefaçons. De même, dans les procès aux assises, j’ai le souvenir d’une affaire ou un médecin gynécologue a été condamné pour agressions sexuelles ou viols de mineurs de moins de 15 ans ; les preuves, vidéos/photos des agissements du médecin, avaient été retrouvées sur des supports numériques. Sans ces éléments, le médecin aurait sans doute obtenu un non lieu ou un acquittement.

    De même, l’expertise permet parfois de prouver la préméditation ou la bande organisée, ce qui change fortement le niveau de condamnation des coupables pour un délit ou un crime.

    Binaire : Le crime numérique parfait existe-t-il ?

    PV : Non… Pour un crime parfait, il vaut mieux ne pas toucher et/ou utiliser des outils numériques et détruire physiquement les objets…

    Binaire : Un exemple de l’impuissance de l’informatique ?

    PV : Oui, il y en a. Sous certaines conditions, la cryptographie permet de protéger des éléments d’information. L’autre nouveau défi pour les experts, c’est le volume colossal des informations à traiter : il n’est pas rare de devoir analyser des millions de fichiers sur un disque dur, 100 000 SMS/MMS dans un téléphone portable !

    Binaire : Un dernier mot ?

    PV : On rencontre lors de chaque affaire/expertise de nouvelles questions, c’est ce qui fait que c’est un métier passionnant.

    Pierre Paradinas, CNAM.

    Pour aller plus loin :

    La page wikipedia sur le sujet : https://fr.wikipedia.org/wiki/Informatique_légale

    La liste de diffusion sur laquelle les experts du domaine échanges régulièrement : http://mail.kreatys.com/cgi-bin/mailman/listinfo/forensic-list

    A propos de Lerti : http://www.lerti.fr

  • Big data : l’enjeu est moins la donnée personnelle que la disparition de la personne

    Cet article est publié en collaboration avec TheConversation.

    Un nouvel « Entretien autour de l’informatique ». Antoinette Rouvroy, chercheure au Fond National de la Recherche Scientifique Belge, rattachée au Centre de Recherche Information, Droit et Société de l’Université (CRIDS) de l’Université de Namur répond à nos questions sur les algorithmes et la gouvernementalité algorithmique. Elle nous conduit aux frontières du droit et de la philosophie. C’est une occasion exceptionnelle de nous interroger sur ces nouvelles dimensions de nos vies et du monde numérique. Serge Abiteboul et Christine Froidevaux

    Antoinette Rouvroy, site personnel
    Antoinette Rouvroy, site personnel

    Binaire : Antoinette Rouvroy, qui êtes-vous ?
    Antoinette Rouvroy : J’ai fait des études de droit, que j’ai poursuivies par une thèse de doctorat en philosophie du droit à l’Institut universitaire européen de Florence (*). Je m’intéresse depuis lors aux enjeux philosophiques, politiques et juridiques de la « numérisation » du monde et de ses habitants et de l’autonomisation croissante des systèmes informatiques .

    Le problème de la protection des données personnelles se pose aujourd’hui de façon aigüe ?
    Il est vrai que le phénomène des « données massives » (Big data) met les régimes juridiques de protection des données personnelles « en crise ». Ce qui pose problème, avec la prolifération exponentielle, extrêmement rapide, de données numériques diverses, c’est tout d’abord que les régimes de protection des données semblent peu aptes à faire face aux défis inédits posés par les phénomènes de profilage et de personnalisation propres à la société numérisée.

    Aujourd’hui, toute donnée numérique est potentiellement susceptible de contribuer à nous identifier ou à caractériser très précisément nos comportements singuliers si elle est croisée avec d’autres données même peu « personnelles ». Ce qui paraît nous menacer, dès-lors, ce n’est plus prioritairement le traitement inapproprié de données personnelles, mais surtout la prolifération et la disponibilité même de données numériques, fussent-elles impersonnelles, en quantités massives. Les informaticiens le savent : l’anonymat, par exemple est une notion obsolète à l’heure des Big data. Les possibilités illimitées de croisements de données anonymes et de métadonnées (données à propos des données) permettent très facilement de ré-identifier les personnes quand bien même toutes les données auraient été anonymisées.

    C’est la quantité plus que la qualité des données traitées qui rend le traitement éventuellement problématique.

    Ces quantités massives de données et les Big data entrent en opposition frontale avec les grands principes de la protection des données : la minimisation (on ne collecte que les données nécessaires au but poursuivi), la finalité (on ne collecte les données qu’en vue d’un but identifié, déclaré, légitime), la limitation dans le temps (les données doivent être effacées une fois le but atteint, et ne peuvent être utilisées, sauf exceptions, à d’autres fins que les fins initialement déclarées). Les Big data, c’est au contraire une collecte maximale, automatique, par défaut, et la conservation illimitée de tout ce qui existe sous une forme numérique, sans qu’il y ait, nécessairement, de finalité établie a priori. L’utilité des données ne se manifeste qu’en cours de route, à la faveur des pratiques statistiques de datamining, de machine-learning, etc.

    Darpa Big data. Wikimedia Commons
    Darpa Big data. Wikimedia Commons

    Pourtant, on ne peut pas étendre le champ des données protégées ? Cela reviendrait à soumettre aux régimes juridiques de protection des données quasiment toutes les données numériques, cela signerait la mise à mort de l’économie numérique européenne. Il y a autre chose à faire ?
    L’urgence, aujourd’hui, c’est de se confronter à ce qui fait réellement problème plutôt que de continuer à fétichiser la donnée personnelle tout en flattant l’individualisme possessif de nos contemporains à travers des promesses de contrôle individuel accru, voire de propriété et de libre disposition commerciale de chacun sur « ses » données. Si l’on se place du point-de-vue de l’individu, d’ailleurs, le problème n’est pas celui d’une plus grande visibilité sociale ni d’une disparition de la sphère privée. On assiste au contraire à une hypertrophie de la sphère privée au détriment de l’espace public.

    Les technologies contemporaines de l’information et de la communication ne nous rendent pas vraiment plus « visibles ». Les « demoiselles du téléphone » de jadis, entremetteuses incontournables et pas toujours discrètes des rendez-vous galants dans des microcosmes sociaux avides de rumeurs, représentaient une menace au moins aussi importante pour la protection des données personnelles et de la vie privée des personnes que les algorithmes aveugles et sourds des moteurs de recherche d’aujourd’hui. Peut-être n’avons-nous jamais été moins « visibles », moins « signifiants » dans l’espace public en tant que sujets, en tant que personnes, qu’aujourd’hui. La prolifération des selfies et autres performances identitaires numériques est symptomatique à cet égard. L’incertitude d’exister induit une pulsion d’édition de soi sans précédent : se faire voir pour croire en sa propre existence.

    Le vrai enjeu : la disparition de la « personne »

    Ce qui intéresse les bureaucraties privées et publiques qui nous « gouvernent », c’est de détecter automatiquement nos « potentialités », nos propensions, ce que nous pourrions désirer, ce que nous serions capables de commettre, sans que nous en soyons nous-mêmes parfois même conscients. Une propension, un risque, une potentialité, ce n’est pas encore une personne. L’enjeu, ce n’est pas la donnée personnelle, mais bien plutôt la disparition de la « personne » dans les deux sens du terme. Il nous devient impossible de n’être « personne », d’être « absents » (nous ne pouvons pas ne pas laisser de traces) et il nous est impossible de compter en tant que « personne ». Ce que nous pourrions dire de nous mêmes ne devient-il pas redondant, sinon suspect, face à l’efficacité et à l’objectivité machinique des profilages automatiques dont nous faisons l’objet ?

    Les traces parlent de/pour nous mais ne disent pas qui nous sommes : elles disent ce dont nous sommes capables. Aux injonctions explicites de performance-production et de jouissance-consommation qui caractérisaient le néolibéralisme s’ajoute la neutralisation de « ce dont nous serions capables », de « ce que nous pourrions vouloir ». Dans le domaine militaire et sécuritaire, c’est l’exécution par drones armés ou les arrestations préventive de potentiels combattants ou terroristes. Dans le domaine commercial, il ne s’agit plus tant de satisfaire la demande, mais de l’anticiper.

    Maillage volumique pour la simulation: un maillage tétraedrique.isotrope est obtenu par optimisation d'une triangulation de Delaunay 3D. Photothèque Inria.
    Maillage volumique pour la simulation: un maillage tétraedrique.isotrope est obtenu par optimisation d’une triangulation de Delaunay 3D. ©Inria / Projet GEOMETRICA

    N’y-a-t-il pas contradiction entre la disparition de la « personne » et l’hyperpersonnalisation ?
    Oui, il peut paraître paradoxal que, dans le même temps, l’on fasse l’expérience à la fois de la personnalisation des environnements numériques, des interactions administratives, commerciales, sécuritaires,… grâce à un profilage de plus en plus intensif et de la disparition de la personne ! L’hyperpersonnalisation des environnements numériques, des offres commerciales, voire des interactions administratives, porte moins la menace d’une disparition de la vie privée que celle d’une hypertrophie de la sphère privée au détriment de l’espace public. D’une part, il devient de plus en plus rare, pour l’individu, d’être exposé à des choses qui n’ont pas été prévues pour lui, de faire, donc, l’expérience d’un espace public, commun ; d’autre part, les critères de profilage des individus échappent à la critique et à la délibération collective,… alors même qu’ils ne sont, pas plus que la réalité sociale dont ils se prétendent le reflet passif, justes et équitables. Par ailleurs, les individus sont profilés non plus en fonction de catégories socialement éprouvées (origine ethnique, genre, expérience professionnelle, etc.) dans lesquelles ils pouvaient se reconnaître, à travers lesquels ils pouvaient faire valoir des intérêts collectifs, mais en fonction de « profils » produits automatiquement en fonction de leurs trajectoires et interactions numériques qui ne correspondent plus à aucune catégorie socialement éprouvée. Ce qui me semble donc surtout menacé, aujourd’hui, ce n’est pas la sphère privée (elle est, au contraire, hypertrophiée), mais l’espace public, l’ « en commun ».

    Nous intéressons les plateformes, comme Google, Amazon, ou Facebook, en tant qu’émetteurs et agrégats temporaires de données numériques, c’est-à-dire de signaux calculables. Ces signaux n’ont individuellement peu de sens, ne résultent pas la plupart du temps d’intentions particulières d’individu, mais s’apparentent plutôt aux « traces » que laissent les animaux, traces qu’ils ne peuvent ni s’empêcher d’émettre, ni effacer, des phéromones numériques, en quelque sorte. Ces phéromones numériques nourrissent des algorithmes qui repèrent, au sein de ces masses gigantesques de données des corrélations statistiquement significatives, qui servent à produire des modèles de comportements. Les causes, les raisons, les motivations, les justifications des individus, les conditions socio-économiques ou environnementales ayant présidé à tel ou tel état du « réel » transcrit numériquement n’importent plus du tout dans cette nouvelle forme de rationalité algorithmique. Non seulement on peut s’en passer, mais en plus la recherche des causes, des motivations psychologiques, l’explicitation des trajectoires biographiques devient moralement condamnable : « Expliquer, c’est déjà un peu vouloir excuser », disait Manuel Vals le 10 janvier à l’occasion d’une cérémonie organisée sur la Place de la République à Paris en mémoire des victimes d’une attaque terroriste. On est dans une logique purement statistique, purement inductive. Il ne reste aux « sujets » plus rien à dire : tout est toujours déjà « pré-dit ». Les données parlent d’elles-mêmes ; elles ne sont plus même censées rien « représenter » car tout est toujours déjà présent, même l’avenir, à l’état latent, dans les données. Dans cette sorte d’idéologie technique, les Big data, avec une prétention à l’exhaustivité, seraient capables d’épuiser la totalité du réel, et donc aussi la totalité du possible.

    Le processus de formalisation et d’expression du désir est court-circuité.

    Ce qui intéresse les plateformes de commerce en ligne, par exemple, c’est de court-circuiter les processus à travers lesquels nous construisons et révisons nos choix de consommation, pour se brancher directement sur nos pulsions pré-conscientes, et produire ainsi du passage à l’acte d’achat si possible en minimisant la réflexion préalable de notre part. L’abandon des catégories générales au profit du profilage individuel conduit à l’hyper-individualisation, à une disparition du sujet, dans la mesure où, quelles que soient ses capacités d’entendement, de volonté, de réflexivité, d’énonciation, celles-ci ne sont plus ni présupposées, ni requises. L’automatisation fait passer directement des pulsions de l’individu à l’action ; ses désirs le précèdent. Ce que cela met à mal – et on pourrait se rapporter pour cela à Deleuze et Spinoza – c’est la puissance des sujets, c’est-à-dire, leur capacité à ne pas faire tout ce dont ils sont capables. Du fait de la détection automatique de l’intention, le processus de formalisation et d’expression du désir est court-circuité.

    Je ne condamne pas ici dans l’absolu l’ « intelligence des données », ni la totalité des usages et applications qui peuvent être faits des nouveaux traitements de données de type Big data. Il y a des applications formidables, dans de nombreux domaines scientifiques notamment. La « curiosité automatique » des algorithmes capables de naviguer dans les données sans être soumis au joug de la représentation et sans être limités par l’idée du point-de-vue toujours situé de l’observateur humain, tout cela ouvre des perspectives inédites et promet des découvertes inattendues. Ce dont je m’inquiète ici, c’est des usages contemporains de cette rationalité algorithmique pour la modélisation et le gouvernement des comportements humains.

    Mais, est-ce que c’est nouveau ? L’individu fait ses choix et décide en fonction de ce qu’il sait. Quand un algorithme fait une recommandation, n’est-ce pas une chance, pour l’individu d’être mieux informé, et donc de faire des choix plus éclairés, moins arbitraires ?
    Bien sûr, nous n’avons jamais été les êtres parfaitement rationnels et autonomes, unités fondamentales du libéralisme fantasmés notamment par les économistes néoclassiques. La seule liberté que nous ayons, écrivait Robert Musil, c’est celle de faire volontairement ce que nous voulons involontairement. Mais, si nous ne maîtrisons pas ce qui détermine effectivement nos choix, il doit nous être néanmoins possible, après coup, de nous y reconnaître, de nous y retrouver, d’adhérer au fait d’avoir été motivés dans nos choix, dans nos décisions, par tel ou tel élément que nous puissions, après-coup, identifier, auquel nous puissions, après coup toujours, souscrire. La liberté consiste donc, pour moi, en la capacité que nous avons de rendre compte de nos choix alors même que nous ne maîtrisons pas les circonstances qui ont présidé à la formation de nos préférences.
    Par contre, il n’est pas vrai, à mon sens, que l’individu fasse toujours des choix et prenne des décisions seulement ni prioritairement en fonction de ce qu’il connaît. La détection des profils psychologiques de consommateurs et la personnalisation des offres en fonction de ces profils permet d’augmenter les ventes, mais pas nécessairement d’émanciper les individus, qui pourraient très bien, alors qu’ils sont de fait extrêmement sensibles à l’argument de la popularité, préférer parfois cultiver l’objet rare ou, alors qu’ils sont victimes de leurs pulsions tabagiques ou alcooliques, préférer n’être pas incités à consommer ces substances addictives. Le profilage algorithmique, dans le domaine du marketing, permet l’exploitation des pulsions conformistes ou addictives dont les individus peuvent préférer n’être pas affectés. C’est bien d’un court-circuitage des processus réflexifs qu’il s’agit en ce cas.

    Les algorithmes de recommandation automatique pourraient aussi intervenir dans la prise de décision administrative ou judiciaire à l’égard de personnes. Imaginez par exemple un système d’aide à la décision fondé sur la modélisation algorithmique du comportement des personnes récidivistes. Alors qu’il ne s’agit en principe que de « recommandations » automatisées laissant aux fonctionnaires toute latitude pour suivre la recommandation ou s’en écarter, il y a fort à parier que très peu s’écarteront de la recommandation négative (suggérant le maintien en détention plutôt qu’une libération conditionnelle ou anticipée) quelle que soit la connaissance personnelle qu’ils ont de la personne concernée et quelle que soit leur intime conviction quant aux risques de récidive, car cela impliquerait de prendre personnellement la responsabilité d’un éventuel échec. De fait, la recommandation se substitue en ce cas à la décision humaine, et les notions de choix, mais aussi de décision, et de responsabilité, sont éclipsées par l’opérationnalité des machines.

    Dans le cas de la libération conditionnelle, entre un algorithme qui se trompe dans 5% des cas et un décideur qui se trompe dans 8% des cas, il faut se méfier de l’algorithme et ne croire qu’en la dimension humaine ?
    En premier lieu, il est difficile de dire quand exactement un algorithme « se trompe ». Si l’on peut effectivement évaluer le nombre de « faux négatifs » (le nombre de récidivistes non détectés et donc libérés), il est en revanche impossible d’évaluer le nombre de « faux positifs » (les personnes maintenues en détention en raison d’un « profil » de récidivistes potentiels, mais qui n’auraient jamais récidivé si elles avaient été libérées). Faut-il tolérer un grand nombre de faux positifs si cela permet d’éviter quelques cas de récidive ? C’est une question éthique et politique qui mérite d’être débattue collectivement. La problématique est assez similaire à celle d’une éventuelle arrestation préventive de personnes désignées, sur la seule base d’un profilage algorithmique, comme terroristes potentiels. En principe, la présomption d’innocence fait encore partie du fond commun de la culture juridique dans nos pays. Il ne faudrait pas que cela change sans qu’il en soit débattu politiquement. La modélisation algorithmique du comportement récidiviste peut être utile et légitime, mais seulement à titre purement indicatif. La difficulté est de maintenir ce caractère « purement indicatif », de ne pas lui accorder d’avantage d’autorité. La décision de libération peut être justifiée au niveau de la situation singulière d’un individu dont pourtant le comportement correspond au modèle d’un comportement de futur récidiviste. Beaucoup des éléments qui font la complexité d’une personne échappent à la numérisation. De plus, une décision à l’égard d’une personne a toujours besoin d’être justifiée par celui qui la prend en tenant compte de la situation singulière de l’individu concerné. Or les recommandations automatiques fonctionnent bien souvent sur des logiques relativement opaques, difficilement traduisibles sous une forme narrative et intelligible. Les algorithmes peuvent aider les juges, mais ne peuvent les dispenser de prendre en compte l’incalculable, le non numérisable, ni de justifier leurs décisions au regard de cette part d’indécidable.

    Les algorithmes sont toxiques si nous nous en servons pour optimiser l’intolérable en abdiquant de nos responsabilités – celle de nous tenir dans une position juste par rapport à notre propre ignorance et celle de faire usage des capacités collectives que nous avons de faire changer le monde. Les algorithmes sont utiles, par contre, lorsqu’ils nous permettent de devenir plus intelligents, plus sensibles au monde et à ses habitants, plus responsables, plus inventifs. Le choix de les utiliser d’une manière paresseuse et toxique ou courageuse et émancipatrice nous appartient.

    Entretien recueilli par  Serge Abiteboul et Christine Froidevaux

    (*) Antoinette Rouvroy, Human Genes and Neoliberal Governance. A foucauldian Critique, Routledge-Cavendish, 2007.

    Pour aller plus loin :

    • Mireille Hildebrandt & Antoinette Rouvroy (eds.), Law, Human Agency and Autonomic Computing. The Philosophy of Law Meets the Philosophy of Technology, Routledge, 2011.
    • Des travaux d’Antoinette Rouvroy sont accessibles à https://unamur.academia.edu/AntoinetteRouvroy
  • Enseigner l’informatique ? Cela s’étudie !

    La didactique de l’informatique ? Des chercheurs étudient cette question et font régulièrement le point sur comment il faut enseigner l’informatique. En janvier, c’est à Namur qu’aura lieu la conférence Didapro6-Didastic. J’ai rencontré Étienne Vandeput, responsable de cet événement, pour lui poser quelques questions pour Binaire.

    Etienne vandeput
    Étienne Vandeput

    Étienne Vandeput est un mathématicien de formation qui a d’abord enseigné au lycée en Communauté française de Belgique (notamment l’informatique dès la fin des années 70), puis la didactique de l’informatique en Belgique et en Suisse.  Colin de la Higuera

     

    Le thème du congrès Didapro6-Didastic, c’est la didactique de l’informatique et des STIC. Mais en quoi est-ce une question ? Qui est concerné ?

    Étienne Vandeput : L’informatique est une discipline enseignée à l’Université, dans les écoles supérieures et, même si c’est plus confidentiel, à l’école obligatoire. Or l’acte d’enseigner ne peut cacher l’intention de transmettre la connaissance, le savoir-faire, avec le souci d’y parvenir dans un laps de temps restreint et avec une certaine efficience. Il vise aussi à toucher le plus grand nombre. Enseigner nécessite donc que l’on réfléchisse tant aux aspects épistémologiques (la question du quoi enseigner) qu’aux aspects didactiques (la question du comment le faire avec un minimum d’efficacité). Attention, ce n’est pas uniquement de méthodologie dont il est question, mais de démarches conduisant à une compréhension fine des concepts souvent complexes de l’informatique et donc, de tout ce qu’il est possible de mettre en place pour la faciliter. Tous ceux qui enseignent l’informatique, à quelque niveau que ce soit, sont donc concernés par cette réflexion. D’autre part, si le citoyen lambda n’est pas nécessairement directement concerné par l’apprentissage de l’informatique, il évolue dans un monde numérique. L’information et de la communication sont donc aussi l’objet d’une investigation scientifique de même type. L’usage des réseaux sociaux, par exemple, est régi par quelques principes simples. Il est question de profil, de compte, de permissions, autant de concepts dont une connaissance élémentaire permet de réguler, voire de catalyser nos comportements parfois impulsifs et spontanés. Mieux, ces concepts se retrouvent dans de multiples autres applications. Cette transversalité est donc intéressante à exploiter.

    Quelles sont les spécificités de l’informatique, quand on considère la question du point de vue de la didactique ? Autrement dit, est-ce différent d’enseigner l’informatique plutôt qu’une autre matière ?

    EV : Toutes les didactiques ont leur spécificité. Peut-être certaines sont-elles plus proches que d’autres ? La didactique des langues et celle des mathématiques se distinguent en ce sens qu’elles font appel à des paradigmes d’enseignement très différents. Si d’un côté, on peut privilégier les processus conversationnels en acceptant erreurs grammaticales, de prononciation, voire de vocabulaire, de l’autre, c’est la rigueur et la compréhension sans équivoque qui serviront souvent de toiles de fond à la réflexion didactique. En ce qui concerne l’informatique, ce qui est d’abord fondamental, c’est de mettre le doigt sur les fondements théoriques les plus à même de rendre des services aux apprenants, autrement dit, de les rendre autonomes. C’est vrai dans une démarche de conception de programme comme à l’occasion de l’usage d’un des très nombreux et très variés produits de l’informatique. Les quelques décennies d’enseignement de la programmation ont permis de réaliser un travail intéressant. C’est ainsi que la programmation structurée, dans les années 70, a avantageusement pris le relais d’une programmation jusque-là très intuitive et dès lors réservée à une catégorie d’individus particulièrement doués. Ce qui faisait dire à un enseignant côtoyé lors d’un séminaire et peu enclin à la réflexion didactique : « il y a ceux qui savent quoi faire et à qui nous ne sommes pas utiles et puis les autres qui ne comprendront jamais rien. ». Les réflexions menées ont permis de structurer la démarche de programmation et d’organiser son enseignement ce qui a permis de la rendre accessible à un plus grand nombre. Donc oui, la didactique de l’informatique est très spécifique et justifie son développement si on veut la rendre accessible et, oserai-je dire sympathique à un plus grand nombre.

    L’informatique que nous utilisons tous les jours a beaucoup changé en 10 ans et changera encore dans les prochaines années. Est-ce que la vitesse de ce changement est un enjeu ? Change-t-on les concepts, les méthodes ou finalement rien du tout ?

    Work found at https://en.wikipedia.org/wiki/Computer_lab  / undefined
    Work found at https://en.wikipedia.org/wiki/Computer_lab / undefined

    EV : Cette question est très importante car elle conditionne l’attitude que l’on peut avoir vis-à-vis de l’apprentissage de l’informatique et des questions numériques. En considérant que tout change très vite et en permanence, on apporte de l’eau au moulin de ceux qui prétendent que l’informatique ne s’enseigne pas, mais se pratique et qu’elle n’a pas d’essence propre. On maintient l’apprenant dans une sorte de stress permanent qui nie toute stabilité possible et l’oblige à entrer dans un processus de veille permanente. En même temps, on entretient le flou en ce qui concerne les fondements d’une discipline, voire on nie qu’elle en est une. L’autre attitude consiste à rechercher ces fondements, à regarder l’informatique dans ce qu’elle a de permanent, d’incontournable, d’essentiel. L’avantage de cette démarche est justement la recherche de la stabilité et conduit à percevoir les révolutions comme des évolutions.

    Didapro6-Didastic se veut un point de rencontre entre didacticiens et enseignants. En quoi les uns et les autres peuvent bénéficier de ce type de contacts ?

    EV : C’est un lieu commun de dire que notre enseignement s’est complexifié, que l’enseignant d’aujourd’hui doit être un chercheur, un professionnel soucieux d’adapter son enseignement à toutes les circonstances dont le monde d’aujourd’hui ne nous prive pas. Un enseignant doit être à la fois et à son niveau, un pédagogue et un didacticien. Il ne peut cependant se consacrer totalement à des recherches dans ces domaines. Rencontrer des didacticiens est donc une opportunité de faire avancer sa propre réflexion en la confrontant à celles de personnes qui s’y consacrent totalement. Par ailleurs, le didacticien doit pouvoir valider le fruit de sa réflexion et qui d’autre, sinon l’enseignant de terrain, peut l’aider à le faire avec autant de pertinence ? La richesse d’un tel colloque se mesure à la présence des uns et des autres afin d’éviter tant la dérive théorique que celle du simple partage d’expériences.

    Un autre aspect spécifique est celui de la production de ressources éducatives libres (REL). Est-ce que les enseignants en informatique sont « en avance » sur cette question ?

    EV : Il est difficile d’établir des statistiques sur ce point. Ce que l’on peut dire, sans risque de se tromper, c’est que les informaticiens possèdent, sans doute plus que d’autres, cette culture du partage, de la transparence et de la collaboration. C’est ce qui a fait et fait encore le succès du logiciel libre et de l’accès à des données ouvertes, par exemple. Le développement des ressources éducatives libres en informatique a certainement pu profiter de ces habitudes culturelles. À l’occasion de chaque innovation technologique, on peut dire que les informaticiens sont généralement ceux qui montrent la voie.

    Colin de la Higuera

    Pour en savoir plus

    • La version longue de cet entretien sera publié dans le numéro 8 de 1024 : http://www.societe-informatique-de-france.fr/bulletin/
    • Les Actes du Colloque seront en ligne dans quelques jours sur le site du colloque.
    • Les liens vers des publications plus anciennes se trouvent sur la page « Historique » du site de la conférence.
    • didapro5 s’est tenue à Clermont-Ferrand. Un résumé des actes est disponible ici.
    • Pour ce qui concerne l’enseignement de l’informatique, on peut recommander le site de l’EPI et pour toutes les questions traitant des technologies de l’information et de la communication en éducation, le portique Adjectif.
  • Disparition d’un pionnier des langages de programmation

    Le langage Algol 60 a été un des premiers langages de programmation, et a eu une importance considérable. Peter Naur a été un de ces concepteurs.  À l’occasion de son décès, Binaire a demandé à deux amis de revenir sur la contribution de Peter Naur à l’informatique. Une note biographique a été préparée par Pierre Mounier Kuhn historien des sciences. Sacha Krakowiak qui vient d’être nommé membre d’honneur de la Société Informatique de France nous parle de l’influence de Peter Naur et d’Algol sur la pensée informatique à travers des souvenirs et anecdotes. Pierre Paradinas

    Le Danois Peter Naur laisse son nom à la Backus-Naur Form, l’une de ses principales contributions à l’élaboration du langage Algol 60 et à l’étude des langages de programmation. Il reçut le prix Turing en 2005 : « for fundamental contributions to programming language design and the definition of Algol 60, to compiler design, and to the art and practice of computer programming ».

    Peu convaincu de l’existence d’une computer science, il a enseigné une discipline qu’il nommait datalogie.

    Né en 1928, Peter Naur étudia l’astronomie à l’université de Copenhague et devint assistant à l’observatoire. Un séjour à Cambridge en 1950-1951 lui permit de mener des recherches dans deux domaines qui émergeaient dans les années 1950 : la radioastronomie et la programmation d’ordinateurs (rappelons que l’équipe de Maurice Wilkes à Cambridge a publié le premier traité de programmation en 1951). Naur fait partie de cette première génération d’informaticiens qui provenaient de disciplines préexistantes, et où certains astronomes jouèrent un rôle moteur. L’astronomie le conduisit aux États-Unis, où il rencontra notamment Howard Aiken à Harvard et John von Neumann à Princeton – respectivement le dernier représentant de la filière des calculateurs programmables inspirée par Babbage et l’inventeur du concept d’ordinateur à programme enregistré.

    Rentré au Danemark, Peter Naur rejoignit à Copenhague le centre de calcul Regnecentralen, participant à la conception et à la programmation du premier ordinateur danois, Dask. Il s’intégra alors au comité international de chercheurs qui développaient un nouveau langage de programmation, bientôt baptisé Algol 60. Se passionnant pour ce projet, il devint le principal auteur du rapport décrivant ce langage – rapport présenté en 1959 au premier congrès mondial de traitement de l’information, tenu à Paris sous les auspices de l’Unesco. C’est lui qui prit la décision, vivement discutée alors, d’y inclure les procédures récursives. Collaborant avec John Backus, l’inventeur de Fortran chez IBM, il y introduisit également un procédé de notation formelle, connu depuis sous le nom de Backus-Naur Form (BNF). La BNF permettait de définir rigoureusement la syntaxe des langage de programmation et, au-delà, de les étudier et de les enseigner d’une manière formalisée.

    Dans la décennie suivante, tout en dirigeant l’Algol Bulletin et le journal scandinave BIT, Peter Naur contribua à établir l’informatique comme discipline académique au Danemark. En 1966, il inventa un mot pour la nommer : datalogie. Cette « science des données » est d’abord une réaction contre le terme computer science ; elle est plus proche de l’informatique, définie en France par un autre astronome, Jacques Arsac, comme la science des structures d’information. Naur, tout en enseignant les fondements de l’informatique, incitait vivement ses étudiants à travailler sur ses applications dans d’autres domaines. En 1969 il fut nommé professeur à l’Institut de Datalogie à l’université de Copenhague, où il passa toute la suite de sa carrière jusqu’à sa retraite en 1999, à 70 ans.

    Son insistance à distinguer sa datalogie de la computer science l’amena en 1970 à s’opposer vigoureusement à la doctrine de Programmation Structurée promue par Edsger Dijkstra et Niklaus Wirth. Tandis que ceux-ci prêchaient comment l’on devrait idéalement programmer, Naur mena des enquêtes empiriques pour observer comment l’on pratiquait la programmation[1].

    Après sa retraite, ses préoccupations se déplacèrent vers des problèmes de philosophie et de psychologie. Il exposa ses réflexions dans un article, « A Synapse-State Theory of Mental Life » (2004). Puis dans une conférence à l’ACM Turing Lecture, « Computing vs. Human Thinking »[2], concluant que « le système nerveux n’a aucune similitude avec un ordinateur ». Et que le test de Turing est à rejeter.

    Naur était profondément convaincu que le travail descriptif est au cœur de la science, beaucoup plus que la recherche des « causes ».

    [1] P. Naur, Concise Survey of Computer Methods, 1974.
    [2] http://amturing.acm.org/vp/naur_1024454.cfm ou https://www.youtube.com/watch?v=mYivRwrATTA

    Pour en savoir plus :

    Sacha Krakowiak nous parle de Peter NaurBinaire : Sacha, peux-tu nous dire comment tu as rencontré Peter Naur ?
    Sacha : En juillet 1962, je prenais mes fonctions au Bassin d’Essai des Carènes de la Marine Nationale, où j’étais chargé d’études sur des problèmes d’hydrodynamique. Quelques mois plus tard, arrivait un ordinateur Gier (construit par la société danoise Regnecentralen). Pourquoi cette machine ? Simplement parce que le directeur du Bassin, à l’époque l’ingénieur général Roger Brard, était ami de son homologue danois, qui avait lui même acquis cette machine; ils comptaient ainsi échanger des programmes d’application (ce qui fut fait). Je n’avais aucune notion d’informatique, mais je suis allé voir la machine par curiosité, et j’ai demandé comment s’en servir. On m’a alors donné un petit fascicule gris, d’allure rébarbative, intitulé « Revised Report on the Algorithmic Language Algol 60 », réalisé par Peter Naur. Je l’ai emporté chez moi et je me suis plongé dedans. Cela a été un des plus grands chocs intellectuels de ma carrière. La description du langage en BNF, et la récursivité des définitions ont été pour moi un éblouissement. Peu de temps après, j’écrivais mon premier programme. Quelques mois plus tard, j’étais responsable du service informatique du Bassin des Carènes…

    Binaire : Mais qu’est-ce qu’il y avait de si génial dans ce livre ?
    SK : Le point de départ est donc le langage de programmation, Algol 60, pour ALGOrithmic Language 1960. Peter Naur et Jørn Jensen avaient réalisé le premier compilateur du langage complet – donc un programme qui traduisait des programmes écrits en Algol 60 en code exécutable par une machine. Le Gier était équipé de ce compilateur d’Algol 60. Cette réalisation était en soi un exploit, non seulement conceptuel, mais aussi technique, car la mémoire centrale de la machine était minuscule (1000 mots de 40 bits). Il fallait 6 passes au compilateur pour transformer le programme en code exécutable. Un autre trait remarquable du Gier était son lecteur de ruban perforé, qui lisait 2000 caractères par seconde : le ruban s’échappait du lecteur à grande vitesse et était recueilli dans une corbeille placée 2 mètres plus loin ! La première passe du compilateur traitait le programme lu à la volée à cette même vitesse.

    Photo S. Krakoowiak
    Couverture du petit livre gris.Crédit Photo S. Krakowiak

    En fait, Peter Naur était venu au Bassin préparer l’arrivée de la machine, mais c’était avant ma propre arrivée, et je ne l’ai pas rencontré alors. Apparemment, il n’avait pas été impressionné par les pratiques courantes : on m’a rapporté qu’il avait parlé de «programmation de l’âge de pierre»… Il est vrai que la programmation se faisait alors principalement en assembleur.

    J’ai soigneusement gardé le petit livre gris et j’avoue qu’il m’arrive encore de m’y plonger de temps en temps. La citation de Wittgenstein qui figure en épigraphe m’avait à l’époque intrigué. En rassemblant mes bribes d’allemand scolaire, j’étais arrivé à la traduire : « Ce qui peut se dire, peut se dire clairement ; et sur ce dont on ne peut parler, il faut garder le silence ». Cette phrase s’applique parfaitement au Rapport Algol 60.

    Une page du manuel Algol 60 à propos du "si alors sinon, et du GOTO". Photo S. Krakowiak
    Une page du manuel Algol 60 à propos du « si alors sinon, et du goto ».
    Crédit Photo S. Krakowiak

    Interview réalisé par Serge Abiteboul et Pierre Paradinas

  • Jon McCormack, codeur créatif

    Cet article est publié en collaboration avec TheConversation.

    sensiLab director, Professor Jon McCormack

    Dans le cadre des « Entretiens autour de l’Informatique« , Binaire a rencontré l’artiste et chercheur Jon McCormack, grande figure du creative coding, un courant peu représenté en France qui fait de l’informatique un moyen d’expression. Non content d’avoir ses œuvres exposées dans salles les plus prestigieuses, comme le Musée d’Art Moderne de New York, Jon McCormack est professeur d’informatique à Monash University à Melbourne, et Directeur du Sensilab. Jon McCormack parle de créativité et d’ordinateurs à Charlotte Truchet, de Binaire.

    Dans votre travail, vous vous êtes souvent intéressé à des processus génératifs. Pourriez-vous nous en décrire un exemple ?

    Oui, j’ai par exemple une exposition en ce moment à Barcelone intitulée « Fifty sisters », une oeuvre créée pour le Musée Ars Electronica. Il s’agit une série de cinquante images évolutives, créées à partir d’un modèle de la croissance des plantes. A la base, j’ai choisi d’utiliser des logos de compagnies pétrolières. J’ai repris des éléments géométriques de ces logos, qui viennent nourrir le modèle de développement. Ensuite, j’utilise une grammaire, un ensemble de règles qui modélisent l’évolution d’une plante – à l’origine, cette grammaire permet de représenter la structure de plantes du Jurassique. J’utilise cette grammaire dans un processus itératif qui alterne des étapes de calcul par l’ordinateur, et des choix de ma part. D’abord, à partir des logos pétroliers, l’ordinateur calcule une premier génération de plantes en appliquant la grammaire. Cela produit plusieurs plantes, parmi lesquelles je choisis celles qui me semblent les plus étranges, ou intéressantes. Et l’on recommence. C’est donc bien l’humain qui conduit l’algorithme.

    De cette façon, les plantes sont réellement constituées d’éléments graphiques des logos. Les images finales ont des structures très complexes, et elles sont calculées à très haute définition de façon à ce que l’on puisse zoomer dans les plantes et découvrir de nouveaux détails.

    C’est un sacré travail !

    Evolved plant form based on the Shell logo, part of the the Fifty Sisters series
    Plante ayant évolué à partir du logo Shell, de la série des Fifty Sisters (crédit Jon McCormack)

    Oui, en fait la partie la plus dure a été de calculer le rendu. J’avais loué une ferme d’ordinateurs, mais au bout de 24h nous nous sommes fait jeter dehors parce que nous consommions trop de temps de calcul ! Alors, nous avons installé le programme qui calcule le rendu, petit morceau d’image par petit morceau d’image, sur tous les ordinateurs inutilisés du labo, ceux de tout le monde… C’est impressionnant car la grammaire qui sert à faire les générations est très courte, elle fait 10 lignes, et elle génère pourtant des objets extrêmement complexes.

    Comment avez-vous découvert l’informatique ?

    J’ai toujours aimé les ordinateurs, depuis l’enfance. Dans mon école, il y avait un ordinateur, un seul, c’était un TRS80 de Radioshack. Personne ne voulait l’utiliser. Je l’ai trouvé fascinant, parce qu’il faisait des calculs, et qu’il permettait de générer des choses. Le TRS80 avait des graphismes très crus, mais on pouvait faire des images avec, allumer des pixels, les éteindre… D’abord, je l’ai utilisé pour dessiner des fonctions, et puis j’ai commencé à écrire mes propres programmes : je voulais voir les fonctions en 3D. Aujourd’hui, la 3D est une technique couramment utilisée, mais ce n’était pas le cas alors ! Donc j’ai programmé une visualisation 3D. Elle n’était pas parfaite, mais elle me suffisait. C’est là que j’ai compris que l’ordinateur permettait de faire des films, de l’animation, de l’interaction. Il faut dire que c’est fascinant de construire un espace et un temps qui reflètent la réalité, même si cette réflexion n’est pas parfaite.

    Est-ce qu’il y a aujourd’hui des nouveaux langages artistiques basés sur les données numériques ou l’algorithmique ?

    C’est une question difficile. Je ne crois pas que l’ordinateur soit accepté, en soi, dans le courant dominant de l’art contemporain (« mainstream art »). Il y a des résistances. Par moment, le monde de l’art accepte l’ordinateur, puis il le rejette. Je ne pense pas que l’on puisse dire que les ordinateurs soient devenus centraux dans la pratique artistique. Mais je crois que l’informatique a ouvert des possibilités artistiques, qu’elle apporte quelque chose de réellement nouveau. C’est un peu comme le bleu. Autrefois, on ne savait pas fabriquer la couleur bleue. Dans l’histoire de l’art, la découverte du bleu a été un évènement important. C’était une question scientifique, un vrai problème technologique. Lorsque l’on a commencé à le fabriquer, le bleu était cher. Dans les peintures du début de la Renaissance, on ne l’utilisait que pour les personnes très importantes.

    Pour moi, l’ordinateur suit un chemin similaire à celui du bleu. C’est vrai dans l’art pictural mais aussi dans la musique, le cinéma, l’architecture…

     

    Fifty Sisters at the Ars Electronica Museum, April 2013
    Jon McCormack devant l’exposition Fifty Sisters au musée Ars Electronica, avril 2013 (crédit Jon McCormack)

    Pensez-vous que les artistes doivent apprendre l’informatique ?

    Je ne le formulerais pas de façon aussi stricte. Je ne dirais pas qu’ils en ont besoin, qui est un terme trop fort, mais qu’ils devraient. Au delà des artistes d’ailleurs, tout le monde devrait apprendre au moins un peu d’informatique. C’est indispensable pour comprendre le monde, au même titre que les mathématiques ou les autres sciences.  C’est important d’ajouter aux cursus la pensée algorithmique et la programmation. Et cela ouvre de nouvelles possibilités pour tout le monde, comme aucun autre medium ne le fait.

    Est-ce que le code créatif est une activité similaire à la programmation classique, ou différente ?

    Je crois que c’est juste un outil pour la créativité, car toutes les activités créatives ont été numérisées. C’est lié à ce que nous disions tout à l’heure : les gens qui travaillent dans le design, la musique ou l’architecture, utilisent l’ordinateur tout le temps, même si ce n’est que pour éditer des fichiers.

    Prenons l’exemple de Photoshop. C’est un outil fabriqué par d’excellents développeurs, qui y ont ajouté d’excellentes fonctionnalités. Mais ce sont leurs fonctionnalités. Quand on l’utilise, on n’exprime pas ses idées, mais les leurs. Et tout le monde fait la même chose ! Dès lors, la question devient : voulez-vous exprimer votre créativité, ou celle de quelqu’un d’autre ?

    Ici nous avons un projet en cours d’examen avec l’Université de Sydney pour enseigner le code créatif aux biologistes. Ils ont de gros besoins en visualisation de données statistiques, et ils utilisent en général des outils dédiés très classiques comme Excel ou le langage R. Mais l’outil a une énorme influence sur ce que l’on fait et la façon dont on perçoit les choses. Nous voulons leur apprendre à fabriquer leurs propres outils.

    Tout le monde devrait apprendre le code créatif : les ingénieurs, les biologistes, les chimistes, etc. !

    Dans le futur, quelle technologie vous ferait vraiment rêver ?

    Pour certains projets, nous avons eu ici des interfaces avec le cerveau. Pendant longtemps, la conception des ordinateurs s’est faite sans considérer le corps humain. On accordait peu d’importance au fait que nous sommes incarnés dans un corps. Regardez le clavier ! Maintenant, on a les écrans tactiles.

    La question est maintenant de concevoir des machines qui fonctionnent avec nos corps. Regardez les travaux de Stelarc sur l’obsolescence du corps humain. Il s’agit de se réapproprier la technologie. Alors que l’on voyait l’ordinateur comme un outil externe, le corps devient un outil d’interaction. C’est le même principe que la cane pour les aveugles : au début, quand on a une cane, on la voit comme un objet externe. Mais on peut l’utiliser pour tester une surface par exemple, ou pour sentir un mur. Elle devient une extension du corps. Je pense que l’on peut voir la technologie comme extension du corps humain.

    Entretien réalisé par Charlotte Truchet 

    Image of the artwork "Bloom" at Kelvin Grove Road, QUT Creative Industries Precinct.
    Photographie de l’oeuvre Bloom installée à Kelvin Grove Road, QUT Creative Industries Precinct (crédit Jon McCormack)
  • La data et le territoire

    Nous entamons, avec cet article, une collaboration avec  theconversation.fr.

    L’agriculture elle-aussi a été impactée par l’informatique. Dans le cadre des « Entretiens autour de l’informatique », Serge Abiteboul et Claire Mathieu ont rencontré François Houllier, Président directeur général de l’INRA, l’Institut National de Recherche en Agronomie. François Houllier raconte à Binaire les liens riches et complexes entre les deux disciplines, et ses inquiétudes autour du changement climatique.

    François Houllier, PDG Inra
    François Houllier, PDG de l’INRA

    La gestion des ressources forestières

    Monsieur Houllier, qui êtes vous ?
    François Houllier : Au départ, je suis un spécialiste de l’inventaire et de la modélisation des ressources forestières. J’ai été chercheur dans ce domaine. Aujourd’hui, je suis président directeur général de l’INRA. J’ai rencontré l’informatique dès le début de ma carrière, avec, pour ma thèse de doctorat l’utilisation de bases de données pour le dénombrement et la mesure d’arbres à partir de photos aériennes et d’observations de terrain. A l’Inventaire Forestier National, j’ai développé des modèles de production de forêt pour simuler les évolutions de massifs forestiers à l’échelle de cinq, dix, vingt ou trente ans, grâce aux bases de données et aux ordinateurs. Dans les années 80, nous avons réalisé un service « Minitel vert » pour donner accès librement aux informations statistiques sur les bois et les forêts dans un département ou une région. J’ai aussi dirigé des laboratoires de recherche où l’informatique était très présente, par exemple le laboratoire AMAP à Montpellier qui a essaimé en Chine, à l’École centrale de Paris et à l’Inria avec des chercheurs qui travaillaient sur la modélisation de l’architecture des plantes, de leur topologie, de leur géométrie et de leur morphogenèse. Cela demandait de faire dialoguer des botanistes, des agronomes, des écologues et des forestiers ayant le goût de la modélisation, avec des chercheurs qui maîtrisent les méthodes statistiques, les mathématiques appliquées, l’informatique.

    La modélisation mathématique et informatique a pris une place considérable en agronomie ?
    FH : Pour les forêts, ma spécialité initiale, la modélisation est particulièrement importante. On inventorie les forêts à l’échelle nationale et on se demande quelles seront les ressources en bois et la part qui pourra être exploitée dans dix, vingt ou cinquante ans. Nous sommes sur des échelles de temps longues, où l’expérience passée aide, mais où nous devons nous projeter dans le futur. Il faut tenir compte des problèmes de surexploitation ou de sous-exploitation, utiliser les techniques de sondage et la télédétection pour acquérir massivement des données. Nous partons de toutes les données dont nous disposons et, avec des modèles, nous essayons de prédire comment les forêts vont évoluer. C’est un peu comme les études en démographie humaine. Les particularités pour les forêts, c’est que les arbres ne se reproduisent pas comme des mouettes ou des humains, et qu’ils ne se déplacent pas. Mais, même si nos modèles sont parfois un peu frustes, les entreprises qui investissent dans les forêts, notamment pour alimenter les scieries ou les papeteries, attendent des prédictions raisonnables pour rentabiliser leurs investissements qui sont sur du long terme.

    Les changements climatiques et la COP21

    Quand vous vous projetez ainsi dans l’avenir, vous rencontrez la question du changement climatique. Ce changement a un impact sur les forêts ?
    FH : Quand j’ai commencé à travailler sur les forêts, à la fin des années 1980, la question du changement climatique ne se posait pas. J’ai rencontré le sujet à l’occasion d’un séminaire réalisé par un chercheur travaillait sur le dépérissement des forêts. Il avait trouvé un résultat alors invraisemblable : le sapin grossissait dans les Vosges comme il n’avait jamais grossi depuis un siècle, plus de 50% plus vite que le même sapin un siècle plus tôt. C’était d’autant plus imprévisible qu’au départ ce chercheur s’intéressait au dépérissement des forêts du fait de ce qu’on appelait les « pluies acides ». Son résultat a ensuite été confirmé. L’explication ? Ce n’était pas le climat en tant que tel, la pluviométrie ou la température même si leurs variations interannuelles ont des effets sur la croissance des arbres. Cela venait de différents facteurs, dont l’accroissement de la teneur en CO2 de l’air et surtout les dépôts atmosphériques azotés qui ont un effet fertilisant. Ce n’est pas simple de séparer les différents facteurs qui ont des effets sur la croissance des autres effets potentiellement négatifs du changement climatique. Ce changement climatique, forcément, va avoir des effets majeurs sur les forêts, des effets immédiats et des effets décalés. Par exemple, comme un chêne pousse en bonne partie en fonction du climat de l’année antérieure, il y a un effet d’inertie. Quand j’ai commencé mes recherches, nous considérions le climat comme une constante, avec des variations interannuelles autour de moyennes stables. Maintenant, ce n’est plus possible.

    bleCela nous conduit à l’impact du changement climatique sur l’agriculture…
    FH : Nous avons des échelles de temps très différentes entre les forêts et, par exemple, les céréales.  Prenons le blé et son rendement depuis un siècle. On observe une faible augmentation de 1900 à 1950, puis une forte augmentation, d’un facteur quatre environ, de 1950 à 1995, et puis… la courbe devient irrégulière mais plutôt plate. (Voir la figure.) Comment expliquer cette courbe ? Après 1950, les progrès viennent des engrais, de nouvelles pratiques de culture, et beaucoup de la génétique.

    En amélioration génétique des plantes, ça se passe un peu comme dans le logiciel libre avec un processus d’innovation ouverte où chacun peut réutiliser les variétés précédemment créées par d’autres améliorateurs. Chaque année, les sélectionneurs croisent des variétés ; ils filtrent ces croisements pour obtenir de nouvelles variétés plus performantes. Cela prend une dizaine d’années pour créer ainsi une nouvelle variété qui est ensuite commercialisée sans pour autant que son obtenteur paie de royalties à ceux qui avaient mis au point les variétés parentes dont elle est issue. Le progrès est cumulatif.

    En 1995, les généticiens avaient-il atteint le rendement maximal ? Pas du tout. Le progrès génétique a continué, et aurait dû entraîner une hausse des rendements de l’ordre de 1% par an. Alors pourquoi la stagnation ? Des modèles ont montré qu’environ la moitié du progrès génétique a été effacée par le réchauffement climatique et par la multiplication des événements climatiques défavorables, et l’autre moitié a été perdue du fait des changements de pratiques agricoles, notamment de la simplification excessive de l’agriculture, un effet beaucoup plus subtil. Il y a plusieurs décennies, on avait des rotations, avec des successions d’espèces par exemple entre le blé et des légumineuses, telles que le pois. Quand on arrête ce type de rotations, le sol devient moins fertile.

    Vous voyez, ce n’est pas simple de comprendre ce qui se passe quand on a plusieurs facteurs qui jouent et dont les effets se combinent. Nous travaillons beaucoup dans cette direction. Nous utilisons des modèles prédictifs pour déterminer selon différents scénarios climatiques et selon les endroits du globe, si les rendements agricoles vont augmenter ou pas. Les bases écophysiologiques de ces modèles sont bien connues mais il y a beaucoup de facteurs : la qualité des terres et des sols, le climat et les variations météorologiques, les espèces et les variétés, les pratiques agronomiques et les rotations. La complexité est liée au nombre de paramètres qui découlent de ces facteurs. En développant de nouveaux modèles, on comprend quelles informations manquent, on se trompe, on corrige, on affine les paramètres. C’est toute une communauté qui collectivement apprend et progresse par la comparaison des modèles entre eux et par la confrontation avec des données réelles.

    Ce que nous avons appris. Pour les 10 ans à 20 ans qui viennent, pratiquement autant de prédictions indiquent des augmentations que des réductions des rendements agricoles, au niveau global. Mais si on se projette en 2100, 80% des prédictions annoncent des diminutions de rendement. Même s’il y aura des variations selon les endroits et les espèces, la majorité des cultures et des lieux seront impactés négativement !

    Cela pose de vraies questions. Pour nourrir une population qui croît, on doit accroître la production. On peut le faire en augmentant le rendement ; c’est ce qui s’est passé quand l’Inde a multiplié en cinquante ans sa production de blé par six sans quasiment modifier la surface cultivée. Ou alors on peut utiliser des surfaces supplémentaires, par exemple en les prenant sur les forêts, mais cela pose d’autres problèmes. La vraie question, c’est évidemment d’arriver à produire plus de manière durable. Et avec le changement climatique, on peut craindre la baisse des rendements dans beaucoup d’endroits.

    Image satellitaire infra-rouge. IGN.
    Image satellitaire infra-rouge. IGN. Via INRA.

    Le monde agricole s’intéresse beaucoup au big data. Comme ailleurs, cela semble causer des inquiétudes, mais être aussi une belle source de progrès. Comment voyez-vous cela ?
    FH : Nous voyons arriver le big data sous deux angles différents, sous celui de la recherche et sous celui de l’agriculture.

    Premier angle : la recherche, pour laquelle le big data a une importance énorme. Considérons, par exemple, l’amélioration génétique classique : on cherche à utiliser de plus en plus précisément la connaissance du génome des animaux et des végétaux en repérant des « marqueurs » le long des chromosomes ; ces marqueurs permettent de baliser le génome et de le cartographier. Les caractères intéressants, comme le rendement ou la tolérance à la sécheresse, sont corrélés à de très nombreux marqueurs. On va donc faire des analyses sur les masses de données dont on dispose : beaucoup d’individus sur lesquels on identifie la présence ou l’absence de beaucoup de marqueurs qu’on corrèle avec un grand nombre de caractères. L’objectif c’est de trouver des combinaisons de marqueurs qui correspondent aux individus les plus performants. On sait faire cela de mieux en mieux, notamment à l’INRA. Les grands semenciers le font aussi : ils investissent entre 10 et 15% de leurs ressources dans la R&D. Aujourd’hui, la capacité bioinformatique à analyser de grandes quantités de données devient un facteur limitant.

    On peut aussi considérer le cas des OGM, avec le maïs. La tolérance à un herbicide ou la résistance à un insecte ravageur peuvent être contrôlées par un seul gène ou par un petit nombre de gènes. Par contre, le rendement dépend de beaucoup de gènes différents : des dizaines, voire des centaines. D’où deux stratégies assez différentes. Pour les caractères dont le déterminisme génétique est simple, on peut utiliser une approche de modification génétique ciblée, les fameux OGM. Pour les caractères dont le déterminisme est multifactoriel, l’approche « classique » accélérée par l’usage des marqueurs associés aux gènes est celle qui marche actuellement le mieux. Donc, pour disposer d’un fond génétique qui améliore le rendement, le big data est la méthode indispensable aussi bien en France, sans OGM, qu’aux Etats-Unis, avec OGM.

    Deuxième angle : l’utilisation du big data chez les agriculteurs. Un robot de traite est équipé de capteurs qui produisent des données. Un tracteur moderne peut aussi avoir des capteurs, par exemple pour mesurer la teneur en azote des feuilles. Avec les masses de données produites, nous avons vu se développer de nouveaux outils d’analyse et d’aide à la décision pour améliorer le pilotage des exploitations. Mais ce qui inquiète le monde agricole, c’est qui va être propriétaire de toutes ces données ? Qui va faire les analyses et proposer des conseils sur cette base ? Est-ce-que ces données vont être la propriété de grands groupes comme Monsanto, Google, ou Apple ou les fabricants de tracteurs ? En face de cela, même les grandes coopératives agricoles françaises peuvent se sentir petites. Le contrôle et le partage de toutes ces données constituent un enjeu stratégique.

    L’agriculteur connecté

    Il ressort de tout cela que l’agriculteur est souvent très connecté ?
    FH : Il reste bien sûr des zones dans les campagnes qui sont mal couvertes par Internet, mais ce n’est pas la faute des agriculteurs. Les agriculteurs sont plutôt technophiles. Quand les tracteurs, les robots de traites ou les drones sont arrivés, ils se sont saisis de ces innovations. Il en va de même avec le numérique. Les agriculteurs qui font de l’agriculture biologique sont eux aussi favorables au numérique. Les nouvelles technologies permettent aux agriculteurs de gagner du temps, d’améliorer leur qualité de vie, de réduire la pénibilité de certaines activités. Ils sont conscients des améliorations que les applications informatiques peuvent leur apporter.

    Automate de caractérisation des plantes. INRA.
    Automate de caractérisation des plantes. INRA.

    La data et le territoire

    Ils sont connectés et solidaires ?
    FH : Les agriculteurs ont l’habitude de partager des pratiques et des savoir faire, ou des matériels agricoles, et d’exprimer des formes de solidarité. Par exemple, dans un même territoire, ils échangent « par dessus la haie », c’est-à-dire qu’ils regardent ce qui se fait à côté et imitent ce qui marche chez leurs voisins. Dans le domaine de la sélection animale la recherche publique, l’INRA, travaille depuis longtemps avec les différents organismes qui font de l’insémination artificielle et qui sélectionnent les meilleurs animaux pour la production de lait ou de viande, par exemple. Les races bovines sont certes différentes mais certaines méthodes sont identiques, comme le génotypage qui consiste à déterminer tout ou partie de l’information génétique d’un organisme. Jusqu’à récemment, il existait une forte solidarité entre les différentes filières animales : d’une certaine manière, les progrès méthodologiques réalisés sur les races bovines dédiées à la production laitière bénéficiaient aux autres races puis ensuite aux ovins ou aux caprins.

    Ces dernières années, l’arrivée de nouvelles formes d’analyse à haut débit, très automatisées, spécialisées, a induit des changements. Cela a conduit au développement d’activités concurrentielles. Par exemple, il y a des sociétés qui proposent des services de génotypage pour analyser des milliers de bovins en identifiant leurs marqueurs génétiques. Ça peut se faire n’importe où dans le monde, à Jouy-en-Josas, comme au Canada : il suffit d’envoyer les échantillons. Les solidarités territoriales ou nationales qui existaient sont en train de se fracturer sous les effets combinés de la mondialisation et du libéralisme. Elles sont en train de se défaire du fait de la compétition au sein de métiers qui se segmentent, et de la création d’opérateurs internationaux sans ancrage territorial. Regardez le big data : les données ne sont pas localisées ; elles ne sont pas ancrées dans un territoire ; les calculs se réalisent quelque part « dans le cloud ». C’est une cause de l’inquiétude actuelle de nos collègues des filières animales ou végétales : l’angoisse du big data ne vient pas de la technologie en tant que telle, mais plutôt de la perte d’intermédiation, de la perte du lien avec le territoire.

    L’agronome et l’agriculteur

    Dans d’autres sciences, la distance entre les chercheurs et les utilisateurs de leurs recherches est souvent très grande. On a l’impression en vous entendant que c’est moins vrai des agronomes.
    FH : Ça dépend. Prenez un chercheur qui travaille sur les mécanismes cellulaires fondamentaux de recombinaison génétique. Il révolutionnera peut-être la sélection végétale dans vingt ans, mais il peut faire des recherches sur ce sujet sans rencontrer d’agriculteurs.  Nous avons des recherches de ce type à l’INRA, mais nous assurons aussi une continuité avec des travaux plus en aval au contact du monde agricole. Le plus souvent, nous ne réalisons pas nous mêmes les applications ; cela peut être fait par des entreprises, par des instituts techniques dédiés ou par des centres techniques industriels, financés pour partie par l’État et pour beaucoup par des fonds professionnels. De tels instituts existent pour les fruits et légumes, pour les céréales, pour les oléagineux, pour l’élevage en général ; il en existe un spécifique pour le porc, et un pour la volaille. Nous collaborons avec eux.

    Informatique et agriculture

    Comment se passe le dialogue entre vos spécialistes d’agronomie et les informaticiens ?
    FH : Nous avons de plus en plus de besoin de compétences en modélisation, en bioinformatique, en mathématiques appliquées, en informatique, avec des capacités à conceptualiser, à traiter des grands ensembles de données, à simuler…  Quelles sont les compétences d’un chercheur qu’on embauche à l’INRA aujourd’hui ? Cela évolue, les métiers changent et on en voit naître de nouveaux. Mais il est clair que même dans des disciplines « anciennes » comme l’agronomie ou la physiologie, les jeunes chercheurs que nous recrutons doivent et devront avoir des compétences ou pour le moins une sensibilité affirmée pour l’informatique et le big data. Nous avons fait un exercice de gestion prévisionnelle des emplois et des compétences : il en ressort que beaucoup des nouveaux besoins exprimés relèvent du numérique au sens large. Nous nous posons sans arrêt ces questions : quelle informatique voulons-nous faire ou avoir en interne ? Que voulons-nous faire en partenariat, notamment avec Inria avec qui nous collaborons beaucoup ? Parmi les organismes de recherche finalisés et non dédiés au numérique, nous sommes l’un des rares à être doté d’un département de mathématiques et informatique appliquées, héritier du département de biométrie. Même si c’est le plus petit des 13 départements de l’INRA et si ce n’est pas notre cœur de métier, de telles compétences sont vraiment essentielles pour nous aujourd’hui.

    Entretien recueilli par Serge Abiteboul et Claire Mathieu

    SAS, un grand éditeur de logiciel américain spécialiste de la statistique, doit beaucoup à l’agriculture. Quand ce n’était encore qu’une startup de l’Université de Caroline du Nord, SAS a eu besoin de puissances de calculs. C’est le monde agricole, le service de recherche agronomique du ministère de l’agriculture des États-Unis, qui a fourni l’accès à des moyens de calcul. Ce n’est pas vraiment surprenant quand on sait que l’agriculture a été très tôt un objet d’étude privilégié des statisticiens et a donné lieu à beaucoup de développements méthodologiques originaux. Voir https://en.wikipedia.org/wiki/Maurice_Kendall
    Dans le même ordre d’idée, c’est intéressant de savoir que c’est l’INRA qui a commandé l’un des premiers ordinateurs personnels équipés d’un microprocesseur, le premier Micral vers 1970. Il était destiné à des études de bioclimatologie dirigées par Alain Perrier. Voir https://en.wikipedia.org/wiki/Micral

     

  • La culture de la cybersécurité

    Dans le cadre des « Entretiens autour de l’informatique », Serge Abiteboul et Claire Mathieu ont rencontré Stanislas de Maupeou, Directeur du secteur Conseil en sécurité chez Thalès. Stanislas de Maupeou parle à Binaire de failles de logiciels et de cybersécurité.

    190c61a
    Stanislas de Maupeou

    Failles, attaques et exploits… et certification

    B : À quoi sont dûs les problèmes de sécurité informatique ?
    SdM : Le code utilisé est globalement de mauvaise qualité et, de ce fait, il existe des failles qui ouvrent la porte à des attaques. Le plus souvent, ce sont des failles involontaires, qui existent parce que le code a été écrit de façon hâtive. Il peut y avoir aussi des failles intentionnelles, quelqu’un mettant volontairement un piège dans le code.

    Il y a des sociétés, notamment aux USA, dont le travail est de trouver les failles dans le logiciel. C’est toute une économie souterraine : trouver une faille et la vendre. Quand on trouve une faille, on y associe un « exploit » (*), un code d’attaque qui va exploiter la faille. On peut vendre un exploit à un éditeur de logiciels (pour qu’il comble la faille) ou à des criminels. Si une telle vente est interdite par la loi en France, cela se fait dans le monde anglo-saxon. Pour ma part, si je trouve une faille dans un logiciel, je préviens l’éditeur en disant : « on vous donne trois mois pour le corriger, et si ce n’est pas fait, on prévient le public ».

    C’est pour pallier au risque de faille qu’on met en place des processus de certification de code. Mais développer un code sans faille, ou avec moins de failles, cela peut avoir un coût faramineux. On ne peut pas repenser tout un système d’exploitation, et même dans des systèmes très stratégiques, il est impensable de réécrire tout le code. Ça coûterait trop cher.

    B : Comment certifiez-vous le code ?
    SdM : Il y a différentes méthodes. J’ai des laboratoires de certification. Nous n’écrivons pas le code. Nous l’évaluons selon un schéma de certification, suivant une échelle de sûreté qui va de 1 à 7. En France, la certification est gérée par l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information). Le commanditaire dit : « Je voudrais que vous certifiez cette puce », et l’ANSSI répond « Adressez vous à l’un des laboratoires suivants qui ont été agréés». Sur l’échelle, le 1 signifie « J’ai une confiance minimum », et le 7 signifie « j’ai une confiance absolue ». Le niveau « évaluation assurance niveau 7 » ne peut être obtenu que par des méthodes formelles, de preuve de sécurité. Par exemple, nous avons certifié au niveau 7 un élément de code Java pour Gemalto. Il y a peu de spécialistes des méthodes formelles dans le monde, un seul dans mon équipe. Dans le monde bancaire, on se contente des niveaux 2 et 3. On fait des tests en laboratoire, on sollicite le code, on regarde la consommation électrique pour voir si c’est normal. On fait ça avec du laser, de l’optique, il y a tout un tas d’équipements qui permettent de s’assurer que le code « ne fuit pas ». Pour la certification de hardware, le contrôle se faire à un niveau très bas. On a le plan des puces, le composant, et on sait le découper en couches pour retrouver le silicium et faire des comparaisons.

    B : Le code lui-même est-il à votre disposition?
    SdM : Parfois oui, si on vise à développer la confiance dans les applications. C’est par exemple le cas pour l’estampille « visa » sur la carte bancaire qui donne confiance au commerçant. Dans d’autres contextes, on n’a pas accès au code. Par exemple, on nous demande de faire des tests d’intrusion. Il s’agit de passer les barrières de sécurité. Le but est de prendre le contrôle d’un système, d’une machine, par exemple avec une requête SQL bien ficelée.

    B : Cela aide si le logiciel est libre ?
    SdM : Le fait qu’un logiciel soit libre n’est pas un argument de sécurité. Par exemple, dans la librairie SSL de Debian, il y avait eu une modification de quelque chose de totalement anodin en apparence, mais du coup le générateur de nombres aléatoires pour la librairie SSL n’avait plus rien d’aléatoire ; on n’a découvert cette erreur  que deux ans plus tard. Pendant deux ans tous les systèmes qui reposaient sur SSL avaient des clés faciles à prévoir. Ce n’est pas parce qu’un logiciel est libre qu’il est sûr ! Par contre, s’il est libre, qu’il est beaucoup utilisé, et qu’il a une faille, il y a de fortes chances que quelqu’un la trouve et que cela conduise à sa correction. Cela dit, pour la sécurité, un bon code, qu’il soit libre ou pas, c’est un code audité !

    B : Est-ce que les méthodes formelles vont se développer ?
    SdM : On a besoin aujourd’hui de méthodes formelles plus pour la fiabilité du composant que pour la sécurité. On fait de la gestion de risque, pas de la sécurité absolue qui n’existe pas. Vérifier les systèmes, c’est le Graal de la sécurité. On peut acheter un pare-feu au niveau 3, mais, transposer ça à tout un système, on n’y arrive pas. Notre palliatif, c’est une homologation de sécurité : on prend un système, on définit des objectifs de sécurité pour ce système (par exemple, que toute personne qui y accède doive être authentifiée), et on vérifie ces objectifs. On sait qu’il y aura toujours des trous, des risques résiduels, mais au moins, le système satisfait des règles conformes avec certains objectifs de sécurité. C’est une approche non déterministe, elle est floue, et on accepte qu’il y ait un risque résiduel.

    Un problème c’est qu’on ne sait pas modéliser le risque. Je sais dire qu’un boulon casse avec probabilité 1%, cela a un sens, mais je ne sais pas dire quelle est la probabilité d’une attaque dans les 10 jours. Comme on ne peut pas modéliser la malveillance, on ne sait pas vraiment faire l’évaluation de la sécurité d’un système avec une approche rationnelle.

    Les métiers de la cybersécurité

    @Maev59
    @Maev59

    B : Quel est le profil des gens qui travaillent dans votre laboratoire ?
    SdM : Ce sont des passionnés. Ils viennent plutôt d’écoles spécifiquement d’informatique que d’écoles d’ingénieur généralistes comme les Mines, ENSTA, ou Supélec, où les élèves sont moins passionnés par l’informatique.

    B : Comment en êtes vous arrivé à vous intéresser à la cybersécurité ?
    SdM : À l’origine j’étais militaire, et pas du tout en lien avec l’informatique. Étudiant, je n’avais pas accroché au Fortran ! Et puis, quand on fait une carrière militaire, après une quinzaine d’années, on suit une formation. Il était clair que le système militaire allait avoir de plus en plus d’informatique. J’ai suivi en 1996, un mastère de systèmes d’information à l’ENST avec stage chez Matra, et j’ai adoré. Même si à l’époque, on ne parlait absolument pas de sécurité, j’ai réorienté ma carrière vers le Service central de sécurité et services d’information, un petit service de 30 personnes, qui à l’origine ne servait guère qu’à garder le téléphone rouge du président. À l’époque, un industriel devait donner à l’état un double de sa clé de chiffrement. En 1999, il y a eu un discours de Lionel Jospin à Hourtin, dans lequel il a dit que ce n’était plus viable et qu’il fallait libéraliser la cryptographie, libérer ce marché. À l’époque il fallait déclarer toute clé de plus de 40 bits. Il a demandé qu’on élève le seuil à 128 bits, et c’est grâce à cela que les sites de la SNCF, la FNAC, etc., ont pu se développer. Ce service est devenu une agence nationale, passant de 30 à plus de 400 personnes, l’ANSSI.

    Ensuite je suis passé chez Thalès où j’ai eu à manager des informaticiens. Ce n’est pas une population facile à manager. Et puis le domaine évolue très vite ; nous sommes en pleine période de créativité. On a encore plus besoin de management.

    B : Qu’est ce qu’un informaticien devrait savoir pour être recruté dans votre domaine ?
    SdM : J’aimerais qu’il connaisse les fondamentaux de la sécurité. J’aimerais qu’il y ait un cours « sécurité » qui fasse partie de la formation et qui ne soit pas optionnel. L’ennemi essaie de gagner des droits, des privilèges. Les fondamentaux de la sécurité, c’est, par exemple, la défense en profondeur, le principe du moindre privilège systématique sur des variables, la conception de codes segmentés, le principe du cloisonnement, les limites sur le temps d’exécution. Le moindre privilège est une notion essentielle. Le but est de tenir compte de la capacité du code à résister à une attaque. Déjà, avoir du code plus propre, de meilleure qualité au sens de la sécurité, avec plus de traçabilité, une meilleure documentation, cela aide aussi. Mais tout cela a un coût. Un code sécurisé, avec des spécifications, de l’évaluation, de la relecture de code, cela coûte 30 à 40% plus cher.

    Etat et cybersécurité

    @Mev59
    @Maev59

    B : Est-ce que l’ANSSI a un rôle important dans la sécurité informatique ?
    SdM : L’ANSSI a un rôle extrêmement important, pour s’assurer que les produits qui seront utilisés par l’état ou par des opérateurs d’importance vitale (définis par décret, par exemple les télécommunications, les banques, EDF, la SNCF, Areva…) satisfont à des règles. L’ANSSI peut imposer des normes par la loi, garantissant un niveau minimum de qualité ou sécurité sur des éléments critiques, par le biais de décisions comme « Je m’autorise à aller chez vous faire un audit si je le décide. »

    B : De quoi a-t-on peur ?
    SdM : La première grande menace que l’État craint est liée à l’espionnage. En effet, l’immense majorité des codes et produits viennent de l’extérieur de la France. Un exemple de régulation : les routeurs Huawei sont interdits dans l’administration française. La deuxième menace, c’est le dysfonctionnement ou la destruction de système. L’État craint les attaques terroristes sur des systèmes industriels. Ces systèmes utilisent aujourd’hui des logiciels standard, et de ce fait, sont exposés à des attaques qui n’existaient pas auparavant. Une des grandes craintes de l’état, c’est la prise de contrôle d’un barrage, d’un avion, etc. C’est déjà arrivé, par exemple, il y a eu le cas du « ver informatique » Stuxnet en Iran, qui a été diffusé dans les centrales nucléaires iraniennes, qui est arrivé jusqu’aux centrifugeuses, qui y a provoqué des dysfonctionnements de la vitesse de la centrifugeuse, cependant que le contrôleur derrière son pupitre ne voyait rien. Avec Stuxnet, les US sont arrivés à casser plusieurs centrifugeuses, d’où des retards du programme nucléaire iranien. Un déni de service sur le système de déclaration de l’impôt fin mai, c’est très ennuyeux mais il n’y a pas de mort. Un déni de service sur le système de protection des trains, les conséquences peuvent être tout à fait dramatiques, d’un autre ordre de gravité.

    Il y a aussi une troisième menace, sur la protection de la vie privée. Dans quelle mesure suis-je libre dans un monde qui sait tout de moi ? Dans les grands volumes de données, il y a des informations qui servent à influencer les gens et à leur faire prendre des décisions. C’est une préoccupation sociétale.

    B : En quoi le fonctionnement de l’armée en temps de guerre a-t-il été modifié par l’informatique ?
    SdM : L’armée aux États-Unis est beaucoup plus technophile que l’armée française, qui a mis un certain temps à entrer dans ce monde-là. Dans la fin des années 1990, les claviers sans fil étaient interdits, le wifi était interdit, le protocole Internet était interdit. Aujourd’hui, l’armée française en Afghanistan utilise énormément le wifi. Maintenant, il n’y a plus de système d’armes qui n’utilise pas d’informatique.

    B : La sécurité est-elle une question franco-française ?
    SdM : Il faut admettre que le monde de la sécurité est très connecté aux services de renseignement, ce qui rend les choses plus difficiles. Pour gérer les problèmes en avionique, on est dans un mode coopératif. Si un modèle pose un problème mécanique, on prévient tout le monde. En revanche, dans le monde de la sécurité informatique, si on trouve une faille, d’abord on commence par se protéger, puis on prévient l’état qui, peut-être, se servira de cette information. Ce sont deux logiques qui s’affrontent, entre la coopération et un monde plus régalien, contrôlé par l’État.

    B : Avez vous un dernier mot à ajouter ?
    SdM : Il faudrait développer en France une culture de la « sécurité ». Peu de systèmes échappent aujourd’hui à l’informatique. La sécurité devrait être quelque chose de complètement naturel, pas seulement pour les systèmes critiques. C’est comme si on disait, les bons freins, ce n’est que pour les voitures de sport. La sécurité doit être intégrée à tout.

    (*) Exploit : prononcer exploït, anglicisme inspiré du verbe anglais “to exploit” qui signifie exploiter, lui-même inspiré du français du 15e siècle.

  • Le professeur devenu doyen

    Dans le cadre des Entretiens autour de l’informatique, Binaire interviewe Zvi Galil, doyen en informatique au « Georgia Institute of Technology » aux USA après une carrière de professeur et chercheur en algorithmique, complexité, cryptographie et conception expérimentale d’algorithmes. Il nous parle de la haute administration dans le monde universitaire et du développement des MOOCs. Claire Mathieu et Maurice Nivat.

    Zvi Galil
    Zvi Galil

    B : Vous avez été doyen de l’école d’ingénierie à l’université de Columbia, président de l’université de Tel-Aviv, et, maintenant, doyen de l’informatique à Georgia Tech. Comment êtes-vous passé du statut de professeur et chercheur renommé à la haute administration ?
    ZG : Quand j’étais directeur de département à l’Université de Columbia, je pouvais faire cela et continuer à faire de la recherche dans le même temps. Mais il y a eu un moment charnière en 1995, quand on m’a demandé d’être le doyen de l’ingénierie à Columbia. J’ai hésité. Je savais que si je disais oui, ce serait un changement de carrière. Je me rendais compte que cela signifierait pour ma recherche. Ce fut une décision importante pour moi : dans les années 1990, j’étais classé numéro un pour les publications aux conférences FOCS et STOC (*). Même en n’y ayant plus rien publié depuis 1995, je suis toujours le numéro huit. De plus, j’adore faire de la recherche avec les étudiants en doctorat, ils sont comme des membres de ma famille. Je me lie d’amitié avec eux. Il y en a certains qui sont devenus des amis très proches. Ainsi, c’était un choix difficile. Je me posais également la question : ai-je atteint le sommet de ma carrière de chercheur ? En 1995, j’étais âgé de quarante-huit ans. Je me disais que j’avais atteint le sommet, et je savais que la qualité de mon travail de recherche allait diminuer. L’informatique théorique est un domaine extrêmement concurrentiel, et vous devez rester au courant des dernières évolutions. Mes principaux domaines de recherche sont les algorithmes de graphes et la ”Stringologie” (terme que j’ai inventé). Ces travaux ont eu un certain impact, et certains des résultats sont encore actuellement les meilleurs. Mais d’un autre côté, il y avait  cette occasion qui se présentait d’être un leader du monde universitaire, d’être un doyen. Cette perspective m’intéressait aussi. Une chose qui est bien quand on est directeur ou doyen, c’est l’interaction avec de nombreuses personnes dans de nombreux contextes différents, et, pour ma part, de par mon caractère j’aime interagir avec les gens. Lorsque vous êtes doyen, vous essayez d’améliorer votre école. Finalement, je décidai de répondre oui. Et, pendant que j’y ai été doyen, l’école d’ingénierie de l’université de Columbia est passée du rang 31 au rang 19.

    B : Quelles nouvelles idées avez-vous eu en tant que leader universitaire ?
    ZG : Tout d’abord, l’enseignement est très important pour moi. Dans une université, un doyen n’a pas besoin de dire à la faculté que la recherche est importants, car c’est évident pour tout le monde, mais cela n’est pas vrai en ce qui concerne l’enseignement. J’insistais donc beaucoup sur l’enseignement. À Georgia Tech, j’ai fait augmenter le taux de participation des étudiants aux enquêtes, jusqu’à environ 75% de participation, et l’enseignement s’est amélioré. Les trois quarts des cours sont maintenant évalués au dessus de 4.17, dans un intervalle de 1 à 5 ! J’ai eu une influence sur l’enseignement en invitant les mauvais enseignants dans mon bureau pour une conversation …

    Et puis, lorsqu’on est doyen, quelquefois on veut emmener son unité dans de nouvelles directions. À l’Université de Columbia, j’ai joué un rôle dans la création d’un nouveau département d’ingénierie biomédicale. À Georgia Tech, nous développons l’apprentissage machine. Je me rends compte que c’est une sous-discipline très important de la science informatique. Mais tout cela est initié par les professeurs. Moi, je parle aux gens et j’écoute leurs idées. Il faut une certaine humilité pour cela.

    B : Et lorsque vous, personnellement, avez une opinion sur une certaine direction de recherche qui vous semble importante, comment faites-vous pour convaincre les universitaires d’aller dans cette direction ?
    ZG : En tant que doyen, ma tâche principale est de recruter des gens. Les professeurs sont ceux qui décident qui embaucher. Pour collaborer avec les directeurs de département, je gagne leur confiance, et ensuite je peux à mon tour leur faire confiance. Par exemple, en ce moment aux États-Unis l’informatique est dans une situation de boom incroyable, tout le monde embauche partout, alors il est très difficile de recruter d’excellents candidats, car ils obtiennent plusieurs offres, et ils vont parfois à de meilleurs endroits. À Georgia Tech, les directeurs de département choisissent de n’embaucher personne plutôt que quelqu’un qu’ils n’ont pas vraiment aimé, ils préfèrent attendre et me font confiance pour leur redonner le poste l’année suivante.

    Par l’enseignement de cours en ligne (MOOCs), nous apprenons de nouveaux aspects de ce que la technologie peut faire pour aider à l’éducation.

     Cours en ligne sur l'apprentissage automatique de Georgia Tech. Capture d'écran.
    Cours en ligne sur l’apprentissage automatique de Georgia Tech. Capture d’écran.

    Un Mastère en ligne

    B : Comment le Mastère en ligne a-t-il commencé à Georgia Tech?
    ZG : À Georgia Tech, nous avons la tradition de faire des choses que personne n’a jamais faites auparavant. La dernière en date est le programme de Mastère en ligne. En Septembre 2012, cela faisait peu de temps que les MOOCs existaient, Sebastian Trun est venu me voir et m’a fait une suggestion : faisons un diplôme de Mastère pour un coût de mille dollars. J’ai répondu, mille dollars, ça ne marchera pas,  mais peut-être que quatre mille dollars pourraient suffire. En fin de compte, le diplôme coûte six mille six cents dollars. Même en France, un tel diplôme pourrait être intéressant parce que, même si les frais de scolarité sont très faibles en France, cela permettrait d’économiser de l’argent public. J’ai adoré cette idée. Il y avait là une occasion d’innover. Je savais aussi que ce serait une direction d’avenir pour l’enseignement supérieur. Donc, je me suis jeté à l’eau, et maintenant j’apprends à nager !

    Quelqu’un a dit deux choses au sujet des MOOCs : qu’ils sont comme une œuvre philanthropique venant d’universités d’élite, et que, tant qu’il n’y a pas de référence pour les MOOCs, ils sont comme une sorte d’éducation de deuxième classe pour la plèbe.  Personnellement, je considère les MOOCs comme des sortes de manuels sophistiqués. Mais les gens veulent des diplômes, des références, et c’est pourquoi nous avons créé un Mastère. Je prévoyais que les médias allaient réagir, mais nous avons été totalement dépassés par l’ampleur de la réaction. Le premier groupe d’étudiants terminera en décembre. Parmi eux, beaucoup ont déjà des emplois, et après avoir obtenu ce diplôme certains d’entre eux vont déjà obtenir une promotion. Vingt-quatre des étudiants sont déjà titulaires d’un doctorat et veulent peut-être une réorientation de carrière. Jusqu’à présent, tout se passe très bien.

    B : Quel a été votre plus grande surprise à propos de ce Master en ligne à ce jour?
    ZG : Tout d’abord, le degré d’investissement des étudiants. Ils utilisent des réseaux sociaux tels que Google+ ou Facebook, beaucoup plus que les étudiants sur le campus, pour étudier, interagir et s’aider les uns les autres. Nous avons maintenant près de 2300 étudiants inscrits. Un défi majeur est d’obtenir des correcteurs et des assistants d’enseignement. Je croyais que nos étudiants en ligne ne seraient pas intéressés par ces emplois parce les assistants d’enseignement sont peu payés par rapport à leur emploi principal, et  parce qu’ils sont déjà très occupés. Mais si, ils le font, parce qu’ils aiment l’interaction, et ils aiment bien rendre service ; ils ne font pas ça pour l’argent ; ils le font pour donner en retour de ce qu’ils ont reçu. Ce programme permet d’attirer des gens différents des étudiants classiques, y compris beaucoup qui ne s’inscriraient pas à un Mastère traditionnel parce que ça coûte trop cher, mais de leur point de vue ce n’est pas un diplôme de Mastère mais  plutôt une formation continue. Ils ont onze ans de plus que les étudiants classiques, et nous avons donc atteint une population différente, qui n’empiète par sur le programme de Mastère classique sur le campus. Pour le moment, la plupart sont des étudiants des USA, mais à mesure que le temps passe, le Mastère va devenir plus international.

    Ainsi, nous nous sommes jetés à l’eau, c’est une nouvelle expérience, et nous sommes nous-mêmes en phase d’apprentissage. Nous sommes surpris par ce qu’on peut accomplir avec la technologie. Par exemple, quelqu’un a dit qu’il pensait que les discussions qui ont normalement lieu en classe ne se produiraient pas en ligne. Mais en fait, il se trouve que le contexte en ligne fonctionne bien pour les discussions. Notre devise est : l’accessibilité grâce au faible coût et à la technologie. Nous ne savons pas encore où la technologie nous emmènera.

    B : À quoi les MOOCs ne peuvent-ils pas servir ?
    ZG : Initialement il y a un très grand nombre d’étudiants, mais la plupart d’entre eux abandonnent et ne reçoivent pas de diplôme. Cela ne fonctionne que pour ceux qui sont extrêmement motivés.

    Nous sommes l’université

    B : Y a-t-il autre chose que vous souhaitiez ajouter ?
    ZG : Je crois en la communauté universitaire. Une université, c’est une communauté de professeurs, d’étudiants, de parents, de personnels. Tout le monde doit avoir droit à la parole. Dans la haute administration, nous ne sommes pas obligés de faire ce qu’ils nous disent, mais nous avons l’obligation de les écouter. En 1948, quand Eisenhower est devenu le président de Columbia, il a dit aux professeurs : « Vous autres, membres du corps professoral, êtes les employés de l’université ». I.I. Rabi (prix Nobel) a levé la main et a dit: « M. le Président, nous autres professeurs ne sommes pas les employés de l’université ; nous sommes l’université. » Et c’est un point de vue auquel j’adhère.

    Claire Mathieu et Maurice Nivat

    (*) Deux conférences sélectives et prestigieuses en informatique théorique.

  • Comment le numérique a transformé l’informatique

    Dans le cadre des « Entretiens autour de l’informatique », Serge Abiteboul et Marie Jung ont rencontré Yves Caseau, responsable de l’Agence Digitale du Groupe Axa. Son objectif : moderniser les méthodes de travail des équipes chargées de concevoir les applications mobiles et les sites web. Nous nous sommes habitués à voir l’informatique construire un nouveau monde, le monde numérique. Yves Caseau raconte à Binaire comment, dans un retour de service éblouissant, ce monde numérique a véritablement transformé l’informatique.

    Yves Caseau, photo © M. Jung
    Yves Caseau, photo © M. Jung

    Une autre manière de développer du logiciel

    B : Quels sont les changements récents les plus importants dans le développement de logiciel ?

    YC : Le premier élément de changement important, c’est la manière de coder. Avant pour un problème complexe, on se lançait dans une analyse poussée et le développement d’un logiciel monolithique. Les jeunes actuels commencent par chercher avec Google si un bout de programme existe déjà quelque part qui résout une partie du problème. Du coup, avant on essayait d’avoir les développeurs les plus compétents. Maintenant, on préfère avoir des profils capables de manipuler avec brio des bouts de codes, de les combiner, et de vérifier ce qu’ils font, sans nécessairement comprendre leurs mécanismes intimes. C’est le rêve de l’approche composant où on réutilise sans arrêt des fragments.

    Des rythmes de développement effrénés

    B : Du coup, cela raccourci les cycles de développement ?

    YC. Oui, c’est le deuxième changement important. Les géants du web comme Google, Amazon ou Facebook sont des experts en la matière. Google modifie 50 % de ses modules tous les mois. Du code est fabriqué sans arrêt. Et la façon dont le code est fait importe autant que le résultat. Quand je travaillais chez Bouygues Telecom sur les « box », nous avions à faire face à des composants matériels instables et incomplets.  Ce n’est pas une question de compétence, nous avions d’excellents fournisseurs, mais le rythme d’adaptation du silicium pour suivre les évolutions des protocoles tels que HDMI était infernal. La partie logicielle devait cacher les limites du matériel et s’adapter au rythme très rapide de mises à disposition du matériel. Pour réussir dans ce monde de l’électronique grand-public, il est vital de savoir reconstruire son logiciel tous les jours.

    The lean startup, Eric Ries
    The lean startup, Eric Ries

     

    Avec les clients au centre des préoccupations

    B : Pour raccourcir les cycles de développement, vous essayez de faire passer vos équipes au « lean startup ». Qu’est-ce que ce signifie ?

    YC : C’est une manière de faire des applications en mode « centré client » et « incrémental ». Cela revient à sortir un produit minimal le plus vite possible, le mettre entre les mains des clients, regarder comment ils l’utilisent, et adapter le produit pour en proposer une nouvelle version rapidement. Ce type d’agilité n’est pas naturel pour des grands groupes. J’essaie de mettre cela en place dans les projets que je dirige. C’est une centaine de personnes qui travaillent ensemble avec des profils très différents : spécialistes du marketing, développeurs, designers. Nous essayons de mélanger tout ça.Le livre d’Octo Les géant du web m’a beaucoup inspiré. Avec l’informatique agile, le logiciel est vivant, il bouge sans arrêt tout en étant au cœur du processus de valeur de l’entreprise et en mettant le client au centre de ses préoccupations.

    Les Géants du Web : Culture – Pratiques, Octo Technology
    Les Géants du Web : Culture – Pratiques, Octo Technology

    Redécouvrir l’amour du code

    B : Cela sonne comme le début d’une nouvelle ère ?

    YC : On se retrouve comme à la belle époque de l’informatique. Il faut aimer le code ! Au début de l’informatique, les développeurs vivaient dans leur code et ils aimaient ça. Puis on a changé de modèle. Quelqu’un écrivait des spécifications d’une application (N.D.L.R. une description détaillée de ce qu’il fallait réaliser), et des développeurs, peut-être à l’autre bout du monde, écrivaient les programmes. Ce modèle, très à la mode entre 1980 et 2000, est un modèle qui se meurt. En éloignant le concepteur de l’application du développeur, on avait perdu l’artisanat du développement de code. Aujourd’hui, avec le développement agile, on a retrouvé la proximité, le contact, l’amour du code.

    On maitrise le code avec des pratiques qui reviennent à la mode comme le pair programming (N.D.L.R. le développement d’un programme en binôme sur le même ordinateur). Les développeurs ont besoin d’une unité de lieu, de contact constant. Cela dit, l’agence digitale d’Axa travaille avec des développeurs basés à Barcelone. Nous faisons de l’agile distribué, autrement dit nous travaillons comme si nous étions dans la même pièce. Les réunions quotidiennes se font via Skype, debout pour éviter qu’elles trainent en longueur. Faire de l’agile à distance est compliqué. Ce n’est bien sûr pas comparable à l’alchimie d’une équipe qui vit ensemble, mais c’est possible.

    B : Qu’est-ce que ces changements impliquent pour les développeurs ?

    YC : Le changement quotidien des applications revalorise le travail des développeurs. Ils sont invités à apporter plus d’eux-mêmes dans le produit, mais ce n’est pas toujours évident. Dans le fonctionnement de l’Agence Digitale, nous avons créé un budget « exploration » pour les développeurs, mais il faut faire attention à ne pas le voir absorber pas les besoins opérationnels courants.

    caseau4

    B : Quel est le profil type du développeur que vous recherchez ?

    YC : Le profil type du développeur dans les startups modernes, c’est celui de l’étudiant américain, moitié codeur, moitié généraliste. Je pense, qu’il y a eu un retournement dans les compétences recherchées. À la fin des années 90, la startup idéale de la Silicon Valley était très technique, avec par exemple des développeurs Russes ou Israéliens. À l’heure actuelle, les startups sont moins techniques car elles sont passées du B2B au B2C (N.D.L.R, de la vente vers d’autres entreprise à la vente au grand public), et font appel à un ensemble plus large de compétences. Leurs développeurs ont moins besoin d’être des informaticiens brillants. Il faut par contre qu’ils comprennent bien les aspects métiers de l’application, l’expérience client, qu’ils puissent imaginer ce qui plaira.

    B : Vous devez quand même innover en permanence ; comment faites-vous ?

    YC : Il est difficile de concurrencer les plus grands qui innovent sans arrêt. Pour innover en permanence dans un monde très concurrentiel, nous ne pouvons pas nous permettre de le faire seul. Nous sommes emmenés à faire de l’innovation ouverte (open innovation en anglais) au sens logiciel du terme, c’est-à-dire en nous appuyant sur une plateforme ouverte à nos partenaires et des API (*). Développer seul est épuisant, la seule façon d’y arriver est de participer à un écosystème, avec des sociétés qui ont choisi de développer des logiciels ensemble.

    Le Big data s’installe au cœur de l’informatique

    B : Vous n’avez pas mentionné le sujet à la mode, le Big Data ?

    YC : Ce qui se passe autour de la donnée à l’heure actuelle est un changement que je pressens mais que je ne vis pas encore contrairement aux changements que j’ai déjà mentionnés. Coder et construire des algorithmes nécessitent maintenant de « penser données ». Pour résoudre des problèmes, avant, on cherchait des algorithmes très complexes sur peu de données. Aujourd’hui, on revisite certains problèmes en se focalisant sur des algorithmes simples, mais s’appuyant sur des données massives. On découvre de nouveaux problèmes sans arrêt, où la valeur est plus dans la donnée que dans l’algorithme. Quand Google achète une startup à l’heure actuelle, il s’intéresse surtout aux données qu’elle possède.

    B : Quelles conséquences ce recentrage sur les données aura sur Axa ?

    YC : Dans le futur, je vois Axa faire du machine learning à haute dose. La mission d’Axa est de protéger ses clients dans des domaines comme la santé ou la maison. Cela signifie donner des conseils personnalisés à nos assurés. Si vous avez 50 ans et que vous allez faire du ski, Axa pourra analyser les risques que vous courrez selon votre profil et partager l’information avec vous en allant jusqu’au coaching. Pour l’instant, notre application de coaching pour la santé est simple. Les conseils qu’elle propose sont limités, avec une personnalisation rudimentaire. Mais nous pensons qu’elle marchera nettement mieux avec un réseau social et un moteur de recommandations.

    Toutes nos passions reflètent les étoiles, Victor Hugo
    Toutes nos passions reflètent les étoiles, Victor Hugo

    Les objets connectés

    B : Vous croyez aussi aux objets connectés ?

    YC : Je suis arrivé chez Axa au moment où tout le monde ne parlait que de ça, mais la plupart du temps le problème est envisagé à l’envers à partir des données sans se demander si le client a envie d’en générer et d’en partager. Pour le grand public, il n’y a qu’un petit nombre de cas où ces objets sont vraiment sympas, comme la balance Withings que j’adore. J’ai un cimetière d’objets connectés chez moi qui n’ont pas tenu leur promesse.

    B : Pourquoi ne tiennent-ils pas leur promesse ?

    YC : Les objets connectés ne deviennent vraiment intéressants que quand ils sont contextualisés, qu’ils fournissent la bonne information à la bonne personne au bon moment. Je suis fan du tracker Pulse de Whithings et j’en ai offert quelques uns autour de moi. Ma fille a adoré jouer avec pendant 15 jours, puis elle a trouvé l’objet limité. Par certain côté, son smartphone avait une meilleure connaissance d’elle rien qu’en étant connecté à son agenda.

    B : N’y a-t-il pas un risque avec l’utilisation de toutes ces données ? Dans le cadre d’une assurance par exemple, qui me garantit qu’elles ne seront pas utilisées contre moi, par exemple pour décider l’augmentation du prix de ma police d’assurance ?

    YC : Je pense qu’il y aura à la fois des barrières légales et sociétales pour garantir que n’importe quelle donnée ne sera pas récupérée, utilisée à mauvais escient. Il est indispensable que de telles barrières soient établies.

    B : Après des années dans la R&D autour de l’informatique, vous avez l’air d’aimer toujours autant ce que vous faites ? Qu’est-ce qui vous passionne vraiment aujourd’hui ?

    YC : J’ai une mère qui vit seule dans sa maison à 80 ans. Comme beaucoup d’entre nous, je me sens donc très concerné par le devenir des personnes âgées. Nous sommes en train de développer un mini réseau social destiné aux séniors isolés et à leurs proches. Appelée « AreYouOk ? », cette application sortira d’abord au Japon. Je pense qu’il y a beaucoup de choses à faire pour les adultes dépendants. Notre application se servira des signaux d’objets connectés comme des téléphones portables avec ses senseurs comme l’accéléromètre, des montres. Il est assez simple de détecter un incident, une chute. Bientôt, nous pourrons aussi détecter une baisse de tonus, qui peut être le symptôme d’un problème de santé sérieux. Il suffit d’analyser les déplacements, leur vitesse… Dans les années qui viennent, nous allons pouvoir améliorer considérablement la manière de vivre des personnes âgées. C’est le genre de chose qui me donne vraiment envie chaque matin d’aller travailler…

    Propos recueillis par Serge Abiteboul et Marie Jung

    (*) API : Une interface de programmation, API pour Application Programming Interface, est une façade par laquelle un logiciel offre des services à d’autres logiciels. Elle consiste en une description détaillée qui explique comme des programmes consommateurs peuvent utiliser les fonctionnalités d’un programme fournisseur, par exemple un service Web ou une bibliothèque de programmes.

  • Le sens de la ville numérique

    Dans le cadre des « Entretiens autour de l’informatique », Binaire a choisi de parler d’architecture. Spécialiste de l’histoire des technologies de l’architecture du 18e à la ville numérique, Antoine Picon nous apporte le recul indispensable pour adresser un sujet complexe. Entre deux séjours aux Etats-Unis où il enseigne, il a rencontré Serge Abiteboul et Claire Mathieu.

    Antoine Picon
    Antoine Picon

    L’informatique a révolutionné l’architecture

    B : Vous êtes à la fois ingénieur et architecte, et vous avez une thèse d’histoire. Qui êtes vous vraiment ? Entre les sciences et les lettres, où vous situez vous ?

    Antoine Picon (AP) : Je m’intéresse à la culture numérique, à la ville, à l’architecture. Je suis plutôt un historien et spécialiste des techniques de la ville, d’architecture, mais avec quand même à la base une formation de scientifique. J’ai plutôt choisi les humanités – j’ai toujours eu envie d’écrire – mais avec une certaine sensibilité scientifique. Je m’intéresse aux sciences et techniques d’un côté, à la ville et à l’architecture de l’autre.

    B : En quoi le numérique a-t-il changé le métier d’architecte ?

    AP : C’est un peu compliqué. Il y a d’abord eu l’influence, depuis les années 50, d’une perspective « calculatoire» sur l’architecture. Puis, depuis les années 90, la profession s’est informatisée. A l’école d’architecture de Harvard (aux USA), il y a peut-être plus d’ordinateurs qu’au département de physique ! L’informatique a complètement transformé la profession. Aujourd’hui, par exemple, on ne dessine quasiment plus à la main ; on fait presque tout avec l’informatique.

    B : Mais, l’ordinateur reste un outil. Est-ce que cela change fondamentalement ce qu’on construit ? Est-ce véritablement révolutionnaire ?

    AP : Ça l’est de trois façons. Premièrement, il y a des géométries de formes nouvelles, qui étaient très difficiles à concevoir avec des outils traditionnels. Cela a changé toute une série d’objets. Ainsi, on assiste actuellement à un retour de l’ornemental en architecture, grâce à la possibilité de jouer sur des « patterns ». Deuxièmement, cela modifie aussi des aspects plus profonds du métier. Les choses sont plus faciles au quotidien car en pratique on peut modifier et mettre à jour nos projets beaucoup plus facilement, mais du coup cela remet en question le « pourquoi », la finalité de ces modifications, qui devient une considération beaucoup plus importante. Enfin, les structures professionnelles changent. On voit l’émergence de pratiques transcontinentales, de nouvelles collaborations, ce qui finit par donner une prime aux grosses agences, d’où un effet de concentration ; la taille des agences croît partout dans le monde. Tout cela transforme véritablement le métier d’architecte.

    Actuellement, avec les « BIM » (Building Information Models), on va vers la constitution d’outils qui permettent de rentrer toutes les données constitutives du projet dans une base de données ; mais alors se pose la questions de déterminer qui possède cette information et qui a lieu de modifier quoi. Ce ne sont plus les architectes tout seuls, mais les architectes avec leurs clients, qui se disent que c’est peut-être maintenant l’occasion pour eux de reprendre la main. Bien sûr, l’architecture ne se produit pas dans le vide : il y a des ingénieurs, tout un contexte, et l’informatique a transformé les interactions.

    Par ailleurs l’informatique est quand même liée à une culture, la culture numérique, qui induit des changements sociétaux, anthropologiques, politiques, dont l’architecture est partie prenante. Ville et architecture sont affectées. L’intérêt du numérique, pour moi, c’est que l’informatique est l’un des vecteurs d’un changement social et culturel beaucoup plus général.

    Le rapport avec la matière

    B : Pouvez-vous être plus concret ?

    AP : Cela a commencé dès les années 50, quand la cybernétique a reposé la question : qu’est ce qu’un sujet humain ? L’architecture travaille à partir d’une certaine vision de l’homme. Qu’est ce que c’est que construire pour un homme à l’âge de l’information ? Dans les années 50, y a eu le courant des « méga-structures ». Dans ce courant, la pensée dominante était la pensée des connections. Tout est dans les connections. L’architecture est pensée en liaison avec les modèles du cerveau. Maintenant, le postmodernisme est hanté par l’idée de revenir à un vocabulaire traditionnel tel que colonnes, fronton, etc.

    B : Où trouve-t-on ce type d’architecture ?

    AP : Dans une série de projets par exemple dans l’architecture « corporate » aux USA par exemple. Un peu plus tard, le centre Pompidou est décrit par ses auteurs entre autres comme croisement entre le British Museum et un Times Square informatisé. Il montre comment technologie et société fonctionnent ensemble.

    Centre Pompidou, Paris, Wikipedia
    Centre Pompidou, Paris, Wikipedia

    B : Est-ce au niveau fantasmatique ou réel ?

    AP : Il y a des deux. Le rapport de l’architecture à la science. Les architectes travaillent sur la métaphore et arrivent parfois à saisir des choses essentielles sur la signification des choses.

    Le Corbusier, dans les années 20, faisait des constructions qui se prétendaient industrielles, mais maintenant encore la Villa Savoye paraît bien plus moderne que l’automobile des années 20. Il avait une incroyable capacité à se saisir de et à donner forme à l’imaginaire de l’époque. Il y a eu un travail similaire autour de la montée en puissance des réseaux.

    Villa Savoy, Le Corbusier, Yo Gomi @ Flickr
    Villa Savoy, Le Corbusier, Yo Gomi @ Flickr

    L’ordinateur, lorsqu’il est apparu, était vu comme une machine à calculer, puis on s’est rendu compte qu’il pouvait simuler le raisonnement, et aujourd’hui, on se dit qu’on peut s’en servir pour ressentir le monde. Les architectes travaillent sur la façon dont les gens sont en contact avec le monde physique, et cela est en mutation. Par exemple, zoomer et dé-zoomer, ce sont des actions qui nous paraissent actuellement complètement naturelles, parce que nous vivons dans une culture numérique. Les architectes travaillent sur cette question de sensibilité, du rapport que nous entretenons avec la matière. Ils essaient de capturer l’évolution de la matérialité due au numérique et de comprendre comment cela joue.

    C’est une chose que font les sciences en collaboration avec la culture, proposer une interprétation de ce que sont l’homme, le monde physique, et la relation entre eux. Par exemple, lors de la Renaissance, la compréhension de la perspective a changé le rapport des hommes au monde. Aujourd’hui, l’informatique réforme encore plus puissamment le rapport entre l’homme et le monde. L’informatique change l’audition, les distances, la mobilité, la gestuelle. On observe une place croissante du pouce dans les cartographies cérébrales. L’informatique modifie notre rapport au corps physique.

    NOX/Lars Spuybroek, HtwoOexpo appelé également Water Pavilion, Neeltje Jans, Pays-Bas, 1993-1997, vue intérieure
    NOX/Lars Spuybroek, HtwoOexpo appelé également Water Pavilion, Neeltje Jans, Pays-Bas, 1993-1997, vue intérieure

    La ville intelligente est un nouvel idéal urbain

    B : Est-ce ce changement qu’on voit dans les villes intelligentes ?

    AP : Nous allons vers une révolution urbaine tout à fait considérable. La ville intelligente est un nouvel idéal urbain. Les technologies numériques dans la ville, ce n’est pas récent, mais il y a eu une prise de conscience qu’on est peut-être à la veille d’une mutation. La ville est comme une mine à creuser pour en extraire le nouvel or moderne : les data. Et puis il y a des « civic hackers » qui essaient de promouvoir l’idée d’une plate-forme collaborative, toute une floraison d’initiatives sur le modèle de Wikipedia. Tout cela s’accompagne d’une prise de conscience par les élus municipaux.

    Preston Scott Cohen, musée d'art de Tel Aviv, vue informatique de la rampe centrale
    Preston Scott Cohen, musée d’art de Tel Aviv, vue informatique de la rampe centrale

    Dans mon interprétation, je distingue trois dimensions à ce changement. Premièrement, l’information est événementielle (pensez à Paris Plage, aux festivals, et aussi à tous les micro-événements). On va passer d’une ville envisagée comme ensemble de flux à une ville d’événements, de scénarios. Deuxièmement, il y aura une composition entre intelligences humaine et artificielle. Nous vivons déjà entourés d’algorithmes. Ainsi, ceux qui gouvernent les cartes bancaires peuvent décider de bloquer la carte en cas de comportement suspect. Il faut peut-être concevoir l’intelligence de la ville d’une façon plus littérale. Il y a actuellement une montée des droits des animaux. Peut-être qu’un jour il faudra reconnaître les droits et devoirs des algorithmes ! Cependant, reconnaissons que pour les hommes le fait d’avoir un corps fait une énorme différence. Si on admet un peu de futurisme, la ville ne sera plus seulement occupée par des hommes mais peut-être aussi par des cyborgs ! Troisièmement, le numérique est profondément spatialisé. Au début, l’informatique s’est construite comme non spatiale mais aujourd’hui, les informations relatives à l’espace et au lieu ont de plus en plus d’importance. La civilisation du numérique n’a d’ailleurs pas empêché la croissance extravagante des prix de l’immobilier dans certaines zones.

    B : Une révolution, vraiment ? Chez nous, dans nos logements, dans nos bureaux, nous ne voyons pas vraiment la révolution…

    AP : Les incidences sur l’espace physique ne sont pas immédiates. Ainsi de l’électricité. Au début, elle n’a rien changé à la forme physique des villes, mais lorsqu’elle a permis les ascenseurs, l’éclairage électrique (donc des bâtiments plus épais), l’architecture a changé. Les villes de l’avenir ne seront pas forcément comme celles qu’on connait.

    Dans les bidonvilles indiens les gens ont maintenant des smart phones. Le fait d’être connecté est devenue vital, même dans les bidonvilles, autant ou plus que les égouts. Il y a d’autres formes d’intelligence qui se développent. À terme, cela posera des problèmes de gouvernance. Les procédures démocratiques traditionnelles risquent de rencontrer leurs limites dans une vile où tous sont connectés à tous. Je crois que la démocratie et la politique vont évoluer. Nous avons maintenant une occasion historique de permettre aux individus de s’exprimer. Comment construire du collectif à partir de l’individuel ? Actuellement, pour moi un des grands laboratoires de la ville de l’avenir, c’est l’enseignement supérieur avec les MOOCs. Ça va bouger très vite, et ce n’est pas forcément rassurant.

    Centre opérationnel de Rio de Janeiro, conçu par IBM
    Centre opérationnel de Rio de Janeiro, conçu par IBM

    Toutes les transformations ne sont pas forcément visibles, internet par exemple. « Spatial » ne signifie pas forcément des formes spectaculaires, mais l’informatique change notre perception de l’espace urbain. L’architecture n’a pas nécessairement comme fonction de sauver le monde mais de lui donner un sens. Les enjeux sur l’urbain sont beaucoup plus massifs que sur l’architecture.

    Antoine Picon, Harvard Graduate School of Design

     

  • Les limites de la calculabilité

    Entretien autour de l’informatique : David Harel

    Le Professeur David Harel de l’Institut Weisman a accordé un entretien à Serge Abiteboul et Maurice Nivat. David Harel est une des étoiles de l’informatique. Il a démontré des résultats théoriques éblouissants, apporté des contributions essentielles à l’ingénierie du logiciel et écrit un livre de vulgarisation qui est un point d’entrée exceptionnel sur le domaine. David Harel est aussi très engagé politiquement en Israël dans les mouvements pour la paix.

    David Harel
    David Harel

    Choisir entre sciences et technologie ?

    B : David, quel est celui de tes résultats dont tu es le plus fier ?
    DH : si je mets à part mes cinq enfants et cinq petits-enfants, si je ne parle que de mes contributions professionnelles, il m’est difficile ce choisir entre deux : un théorème que j’ai démontré avec Ashok Chandra et le formalisme graphique des « state charts » (diagrammes états-transitions).

    Le théorème établi avec Ashok étend la notion de calculabilité de Turing à des structures arbitraires. Dans un premier temps, il a été énoncé pour des structures de bases de données, ensuite il a été étendu à d’autres structures, en particulier par toi, Serge.

    Les diagrammes états-transitions ne recèlent en fait aucune théorie ; il s’agit d’un langage visuel pour décrire des systèmes réactifs, riches d’interactions entre leurs composants. Le succès d’un langage se mesure au nombre de gens qui l’utilise. Comme le dit un proverbe anglais, « the proof of the pudding is in the eating » (c’est l’appétit avec lequel on le mange qui démontre la qualité du pudding). Le langage des diagrammes états-transitions a été adopté par de nombreuses personnes et est utilisé couramment dans de nombreuses industries. Il fait aussi partie de normes reconnues et populaires comme UML. L’article originel qui introduit ce langage a été cité plus de huit mille fois. Ce succès est sans doute dû au fait que c’est un langage visuel très clair qui s’inspire de la topologie.

    State chart
    Diagramme états-transitions d’une petite partie d’une bactérie dans son état de nage

    B : cela t’a-t-il pris longtemps de concevoir ce concept de diagramme états-transitions ?
    DH : non, non, j’étais consultant auprès d’industries de l’aéronautique un jour par semaine, et l’idée de ce langage m’est venue après quelques semaines de discussion avec les ingénieurs. Une représentation graphique m’est apparue comme le meilleur moyen de décrire les genres de comportements que nous cherchions à formaliser. J’en ai parlé à Amir Pnueli, en lui présentant la chose comme une extension très simple de la notion d’automate fini, rien de bien profond. Mais Amir a trouvé cela intéressant et m’a encouragé à en faire un article scientifique, ce que j’ai fait. Cet article a été rejeté à plusieurs reprises par des revues auxquelles je l’avais soumis et il a fallu trois ans avant qu’il ne soit publié. Cela veut bien dire, entre autres choses, qu’il ne faut pas abandonner une idée que l’on croit bonne juste parce que des revues rejettent l’article qui l’expose.

    David with a statechart (and a little temporal logic), 1984.
    David avec un diagramme d’états-transitions et un peu de logique temporelle. 1984.

    Culture informatique

    B : nous sommes des admirateurs de ton livre de 1987 intitulé « Algorithmics : the spirit of computing » (Algorithmique : l’esprit du calcul). Tu n’as pas cité cet ouvrage comme une de tes plus importantes contributions ?
    DH : il fallait que je choisisse, mais je suis content que vous me parliez de ce livre. C’est une tentative de présenter les idées fondamentales de l’informatique au grand public, aux masses dirait un politicien. Le plus difficile était de choisir ce que j’allais mettre dedans. Notre discipline est toujours jeune, nous manquons de recul. Ce n’est pas facile de distinguer ce qui est vraiment fondamental et qui ne s’effacera pas avec le temps. Il y a eu plusieurs éditions successives mais en fait elles ne sont pas très différentes de la première.

    Une expérience très riche pour moi a aussi été une émission de radio, en hébreu, en 1984, au cours de laquelle je devais expliquer, à une heure de grande écoute, ce qu’était l’informatique. Ce n’est pas simple, à la radio, on a les mains liées, on ne peut rien montrer, ni graphique, ni schéma, ni dessein. C’est quand même possible, même si c’est difficile. Beaucoup d’auditeurs ont compris et ont aimé ce que j’ai raconté.

    ©Addison-Wesley 1987
    ©Addison-Wesley 1987
    ©Pearson 2004
    ©Pearson 2004
    ©Springer 2012
    ©Springer 2012

    B : qui peut lire ton livre ?
    DH : tous ceux qui ont un petit bagage scientifique peuvent comprendre. Quelques connaissances de mathématiques aident et surtout une façon de penser logique ou structurée. Si vous n’avez pas ça, vous risquez de passer à côté de certaines notions, par exemple de la notion de réductibilité d’un problème à un autre. Vous pouvez « réduire » un problème donné A à un autre problème B, en d’autres termes, si vous savez résoudre le problème B, alors vous pouvez aussi résoudre A. Cette technique permet de hiérarchiser la difficulté des problèmes, y compris ceux qui ne sont pas résolubles par une machine, les problèmes que l’on nomme indécidables. La même technique permet de hiérarchiser les algorithmes en fonction de leur efficacité.

    Voici que nous avons parlé de trois de mes contributions, l’une scientifique, la seconde plutôt technique et la troisième culturelle, si j’appelle culturelle la partie de la connaissance qui est accessible au plus grand nombre !

    Enseignement de l’informatique

    B : un des sujets favoris de Binaire est l’enseignement de l’informatique. Penses-tu que l’informatique doit être enseignée à l’école ?
    DH : Je n’ai aucun doute là dessus ! Oui ! Mais pas seulement les ordinateurs, ou le « code », ce qu’il faut enseigner c’est vraiment la science informatique. J’ai participé il y a quelques années à la définition d’un programme d’enseignement de l’informatique au lycée dans mon pays, Israël. Jusque là on enseignait seulement une peu de code, c’est-à-dire très peu de raisonnement, très peu d’esprit du calcul. Nous avons proposé le principe de la « fermeture éclair », un principe d’alternance : un peu de théorie, un peu de pratique, un peu de théorie, etc. Le programme israélien actuel comporte deux niveaux, un pour les élèves ordinaires, bases de la notion de calcul et un peu de programmation (je crois qu’elle se fait en Java) et un niveau plus avancé comportant des notions plus approfondies d’algorithmique, y compris les automates finis.

    David Harel et Maurice Nivat
    David Harel et Maurice Nivat

    C’est important d’enseigner la pensée informatique, (ce que Jeannette Wing appelle « computational thinking ») car cela devient indispensable dans la vie moderne, et pas seulement pour se servir d’un ordinateur ou d’une autre machine plus ou moins électronique. C’est indispensable pour organiser sa vie, par exemple, son emploi du temps, et planifier ses actions.

    Un simple exemple est quand vous déménagez avec l’aide de copains qui arrivent tous avec des véhicules de tailles diverses, une berline, une jeep, une camionnette. Il faut placer toutes vos affaires, meubles, cartons dans ces véhicules sans les surcharger. Pour bien comprendre ce problème, il faut savoir qu’il est ce que l’on appelle « NP-difficile », et évidemment comprendre ce que NP-difficile veut dire. Mettre des petites boites dans des grandes est un problème algorithmique, c’est de l’informatique.

    En fait, il ne suffit pas d’enseigner l’algorithmique « classique » ; les élèves doivent aussi apprendre ce qu’est un système réactif (cette expression a été proposée par Amir Pnueli et moi-même en 1980) dans lesquels des composants réagissent entre eux et aussi à des sollicitations extérieures venues d’opérateurs humains ou de capteurs. C’est une autre facette de l’informatique qui doit aussi être enseignée.

    Elephant, Wikipedia
    Elephant, Wikipedia

    Le test de l’éléphant

    B : nous t’avons entendu poser la question suivante sur le net : quand peut-on dire que l’on a construit un modèle de la nature ?
    DH : l’idée est d’étendre le test de Turing à la simulation de systèmes naturels, comme le temps qu’il fait, ou un organisme vivant. Supposons par exemple que nous voulions modéliser un éléphant ? Quand saurons-nous que nous comprenons tout de l’éléphant ? Quand nous aurons fabriqué un modèle exécutable dont le comportement ne se distingue pas de celui d’un éléphant naturel, un éléphant de laboratoire dont personne, quand même les personnes qui connaissent le mieux les éléphants ne peuvent faire de différence au niveau du comportement et des réactions aux sollicitations extérieures entre l’éléphant artificiel et un véritable éléphant. C’est seulement dans ce cas que nous pouvons dire que notre modèle est une théorie de l’éléphant.

    Maintenant comparons cela au test de Turing. Si l’ordinateur de Serge, par exemple, passe avec succès le test de Turing, nous pouvons dire qu’il est intelligent et le restera pour toujours. Si mon éléphant de laboratoire passe avec succès le test de l’éléphant que je viens de décrire, cela signifie seulement qu’aujourd’hui les meilleurs connaisseurs des éléphants considèrent mon éléphant comme un modèle valide. Mais si quelqu’un demain découvre quelque nouvelle propriété de l’éléphant que mon modèle d’éléphant ne possède pas, alors mon modèle cesse d’être valide. Ce qui n’est pas une nouvelle catastrophique, bien au contraire ; c’est ça qui est fantastique car c’est comme ça que la science progresse, des modèles nouveaux plus riches viennent se substituer aux anciens. Einstein va plus loin que Newton ; et la mécanique quantique va plus loin qu’Einstein.

    A un échelle beaucoup plus modeste, j’ai rencontré ce genre de situation. Nous avions construit un modèle de cellules biologiques. Des biologistes n’aimaient pas un aspect particulier de notre model. Cela les a amenés à poursuivre leurs recherches et en quelques mois ils ont découvert le véritable mécanisme déterminant le comportement de ces cellules ! Un nouveau défi et la science avance !

    Quand on essaye de modéliser le vivant, des objets biologiques, ou bien des systèmes extrêmement complexes comme la météo, je pense qu’on ne peut pas espérer la complétude.

    Le « Wise computing »

    B : peux-tu nous dire sur quoi tu travailles ou réfléchis en ce moment ?
    DH : j’appelle cela « wise computing » (calcul sage). Il ne s’agit pas seulement d’écrire que l’ordinateur écrive des programmes intelligents à notre place, il s’agit de développer du logiciel avec la machine, en collaboration avec la machine. Nous sommes déjà habitués à dire à la machine, sous une forme ou une autre, ce que nous voulons qu’elle fasse. Je voudrais que la machine participe aussi activement au processus de développement, comme un partenaire, sur un pied d’égalité ! La machine pourrait vérifier ce que je propose, le clarifier et le préciser, en corriger les erreurs aussi. Mais je voudrais aussi qu’elle en comprenne les intentions, qu’elle pose des questions, qu’elle fasse des suggestions, tout ceci en utilisant les moyens les plus sophistiqués. Ce que moi et mes collaborateurs avons déjà réalisé est encore bien limité mais nous progressons.

    Un nain sur les épaules d’un géant

    Le géant Orion portant sur ses épaules son serviteur Cedalion (Wikipedia)
    Le géant Orion portant sur ses épaules son serviteur Cedalion (Wikipedia)

    B : qu’as-tu envie de dire, David, pour conclure cet entretien ?
    DH : je voudrais revenir à Turing. C’est un géant. J’ai travaillé sur la calculabilité à la Turing, sur le test de Turing, sur des problèmes de biologie, liés au travail de Turing sur la morphogenèse. Et je me suis toujours senti comme un nain sur les épaules d’un géant. Cela prend des années de construire une science. Il y a encore des gens qui croient que l’informatique n’en est pas une ou que c’est une science sans profondeur, mais il y en a de moins en moins. Il va falloir encore des années pour qu’il n’y en ait plus du tout. Je n’ai aucun doute qu’un jour Turing parviendra au sommet du panthéon des grands penseurs, pour y rejoindre Newton, Einstein, Darwin et Freud.

    David Harel, Institut Weizman

    A la mémoire de Ashok Chandra

    Ashok Chandra
    Ashok Chandra

    David Harel et Binaire dédient cet interview à la mémoire de Ashok Chandra, collègue et ami de David, décédé en 2014 Ashok était informaticien dans la compagnie Microsoft. Il dirigeait le Centre de recherche sur les services Internet à Mountain View. Précédemment il avait dirigé l’unité « Bases de Données et Systèmes Distribués » du Centre de recherche de la compagnie IBM à Almaden. Il a été le coauteur de plusieurs articles fondamentaux en Informatique théorique. Entre autres choses, il a introduit les machines de Turing alternées en théorie du calcul (avec Dexter Kozen et Larry Stockmayer), les requêtes conjonctives dans les bases de données (avec Philip Merlin), les requêtes calculables (avec David Harel) et la complexité de communication (avec Merrick Furst et Richard Lipton).

  • J’ai deux passions, la musique et l’informatique

    Un nouvel « entretien autour de l’informatique ». binaire interviewe Arshia Cont, chercheur en informatique musicale. Arshia a placé sa recherche à la frontière entre ses deux passions, l’informatique et la musique. Il nous les fait partager. Claire Mathieu  et Serge Abiteboul.  

    Arshia Cont © Arshia
    Arshia Cont © Arshia

    La musique mixte : musiciens et ordinateurs

    B : Arshia, en quoi consiste ta recherche ?
    AC : Nous travaillons dans le domaine de l’informatique musicale. Les gens ont commencé à faire de la musique avec des ordinateurs depuis les débuts de l’informatique. Déjà Ada Lovelace parlait explicitement de la musique dans ses textes. Nous nous intéressons à ce qu’on ne sait pas encore bien faire. Quand plusieurs musiciens jouent ensemble, chaque musicien a des tâches précises à réaliser en temps réel, mais doit coordonner ses actions avec les autres musiciens. Ils arrivent à s’écouter et à se synchroniser, pour jouer un quatuor de Mozart par exemple. L’œuvre est écrite sur une partition, et c’est toujours la même œuvre qu’on écoute, mais à chaque exécution, c’est toujours différent et pourtant c’est sans faute. Et même s’il y a des fautes, le concert ne va pas s’arrêter pour autant. Cette capacité à s’écouter les uns les autres, se coordonner et se synchroniser, avec une tolérance incroyable aux variantes, aux erreurs mêmes, c’est une capacité humaine extraordinaire qu’on aimerait donner à la machine.
    Prenons trois musiciens qui ont l’habitude de jouer ensemble. On leur ajoute un quatrième musicien, à savoir, un ordinateur qui va jouer avec eux, et qui, pour cela, doit écouter les autres et s’adapter à eux. L’ordinateur doit être capable d’interagir, de communiquer avec les humains. Cette association de musiciens humains et de musiciens ordinateurs est une pratique musicale qu’on appelle la musique mixte, et qui est répandue aujourd’hui dans le monde entier.
    Le dialogue se passe pendant l’exécution, mais il faut aussi un langage pour décrire la richesse de tels scénarios qui sont à la fois attendus (puisqu’on connaît la partition) et en même temps à chaque fois différents.

    Arshia Cont devant un violon « bricolé » Un capteur et un excitateur sont placés directement à l’intérieur de la caisse du violon pour amplifier les sons existants mais aussi créer de sons nouveaux. ©Serge Abiteboul
    Arshia Cont devant un  violon intelligent de l’Ircam. Un capteur et un excitateur sont placés directement à l’intérieur de la caisse du violon pour amplifier les sons existants mais aussi créer de sons nouveaux. ©Serge Abiteboul

    Le langage de la musique

    B : Vous travaillez sur des langages pour la musique mixte ?
    AC : Oui. Prenez des œuvres écrites pour de grands orchestres, avec vingt ou trente voix différentes en parallèle. Le compositeur qui a écrit cela n’avait pas accès à un orchestre dans sa salle à manger pendant qu’il l’écrivait. Pendant des siècles, les musiciens ont été obligés d’inventer un langage, un mode de communication, qui soit compréhensible par les musiciens, qui puisse être partagé, et qui soit suffisamment riche pour ne pas rendre le résultat rigide. Mozart, Beethoven ou Mahler ont été obligés d’écrire sur de grandes feuilles de papier, des partitions d’orchestre, en un langage compris par les musiciens qui allaient jouer ces morceaux. Ce langage, avec des éléments fixes et des éléments libres, permet un passage direct de l’écriture à la production de l’œuvre. On rejoint ici un but essentiel en informatique de langages de programmation qui permettent de réaliser des opérations complexes, avec des actions à exécuter, parfois plusieurs en même temps, avec des contraintes temporelles imposées par l’environnement.
    Prenez l’exemple d’un avion. On voudrait que l’avion suive son itinéraire à peu près sans faute mais là encore ça ne se passe pas toujours pareil. Il faut un langage qui permette d’exprimer ce qu’on voudrait qu’il se passe quelle que soit la situation.
    Pour la musique, le langage doit permettre un passage immédiat à l’imaginaire. Pour cela, nous travaillons avec des musiciens, et ce qui est particulièrement intéressant, c’est quand ils ont en tête des idées très claires mais qu’ils ont du mal à les exprimer. Nous développons pour eux des langages qui leur permettent d’exprimer la musique qu’ils rêvent et des environnements pour la composer.

    B : Ça semble avoir beaucoup de liens avec les langages de programmation en informatique. Tu peux nous expliquer ça ?
    AC : La musique, c’est une organisation de sons dans le temps. Une partition avec trente voix, c’est un agencement d’actions humaines qui ont des natures temporelles très variées mais qui co-existent. Ce souci de faire “dialoguer” différentes natures temporelles, on le retrouve beaucoup dans des systèmes informatiques, notamment dans des systèmes temps réel. Il y a donc beaucoup de liens entre ce que nous faisons et les langages utilisés pour les systèmes temps-réel critiques, les langages utilisés par exemple dans les avions d’Airbus ou dans des centrales nucléaires. C’est d’ailleurs un domaine où la France est plutôt leader.

    Démonstration d’Antescofo, @Youtube

    B : Tu parles de temps-réel. Dans une partition il y a un temps quasi-absolu, celui de la partition, mais quand l’orchestre joue, il y a le temps de chaque musicien, plus complexe et variable ?
    AC : Plutôt que d’un temps absolu, je préfère parler d’une horloge. Par exemple le métronome utilisé en musique occidentale peut battre au rythme d’un battement par second, et c’est le tempo “noire = 60” qui est écrit sur la partition, mais il s’agit juste d’une indication. En fait, dans l’exécution aucune musique ne respecte cette horloge, même pas à 90%. Le temps est toujours une notion relative (contrairement à la hauteur des notes, qui dans certaines traditions musicales est absolue). Dans un quatuor a cordes, il n’y a pas un temps unique idéal, pas une manière unique idéale de se synchroniser. En musique, il y a la notion de phrase musicale, et quand vous avez des actions qui ont une étendue temporelle, on peut avoir des relations temporelles variées. Par exemple on veut généralement finir les phrases ensemble. Dans certaines pratiques de musique indienne, il y a des grilles rythmiques que les musiciens utilisent quand ils jouent ensemble : ils les ont en tête, et un musicien sait quand démarrer pour que dix minutes plus tard il finisse ensemble avec les autres ! Ce type de condition doit être dans le langage. C’est cela qui est très difficile. Les musiciens qui arrivent à finir ensemble ont une capacité d’anticipation presque magique. Ils savent comment jouer au temps t pour pouvoir finir ensemble au temps t+n. C’est le « Ante » de Antescofo, notre logiciel. Comme les musiciens qui savent anticiper d’une façon incroyable, Antescofo essaie d’anticiper.


    Antescofo par Ircam-CGP

    B : Et le chef d’orchestre, là-dedans. Son rôle est de synchroniser tout le monde ?
    AC : Les musiciens travaillent avec l’hypothèse que la vitesse du son est infinie, qu’ils entendent un son d’un autre musicien à l’instant où ce son est émis. Mais dans un grand orchestre cette hypothèse ne marche pas. Le son de l’autre bout de l’orchestre arrive après un délai et, si on s’y fie, on ralentit les autres. Pour remédier à ça, on met un chef d’orchestre que chacun peut voir et la synchronisation se fait à la vue, avec l’hypothèse que la vitesse de la lumière est infinie. Nous avons d’ailleurs un projet en cours sur le suivi de geste, afin que le musicien-ordinateur puisse aussi suivre le geste du chef d’orchestre. Mais c’est compliqué. Il faut s’adapter aux chefs d’orchestre qui utilisent des gestuelles complexes.

    La machine doit apprendre à écouter

    B : Tu utilises beaucoup de techniques d’apprentissage automatique . Tu peux nous en parler ?
    AC : Nous utilisons des méthodes d’apprentissage statistique. Nous apprenons à la machine à écouter la musique. La musique est définie par des hauteurs, des rythmes, plusieurs dimensions que nous pouvons capter et fournir à nos programmes informatiques. Mais même la définition de ces dimensions n’est pas simple, par exemple, la définition d’une « hauteur » de son qui marche quel que soit l’instrument. Surtout, nous sommes en temps-réel, dans une situation d’incertitude totale. Les sons sont complexes et « bruités ». Nous humains, quand nous écoutons, nous n’avons pas une seule machine d’écoute mais plusieurs que nous utilisons. Nous sommes comme une machine multi-agents, une par exemple focalisée sur la hauteur des sons, une autre sur les intervalles, une autre sur les rythmes pulsés. Toutes ces machines ont des pondérations différentes selon les gens et selon la musique. Si nous humains pouvons avoir une écoute quasi-parfaite, ce n’est pas le résultat d’une machine parfaite mais parce que notre cerveau sait analyser les résultat de plusieurs machines faillibles. C’est techniquement passionnant. Vous avez plusieurs machines probabilistes en compétition permanente, en train d’essayer d’anticiper l’avenir, participant à un système hautement dynamique d’apprentissage en ligne adaptatif. C’est grâce à cela qu’Antescofo marche si bien. Antescofo sait écouter et grâce à cela, réagir correctement. Réagir, c’est presque le coté facile.

    Des sentiments des machines

    B : Il y a des musiques tristes ou sentimentales. Un musicien sait exprimer des sentiments. Peut-on espérer faire rentrer des sentiments dans la façon de jouer de l’ordinateur ?
    AC : C’est un vieux rêve. Mais comment quantifier, qualifier, et contrôler cet effet magique qu’on appelle sentiment ? Il y a un concours international, une sorte de test de Turing des sentiments musicaux, pour qu’à terme les machines gagnent le concours Chopin. Beaucoup de gens travaillent sur l’émotion en musique. Là encore, on peut essayer de s’appuyer sur l’apprentissage automatique. Un peu comme un humain apprend pendant des répétitions, on essaie de faire que l’ordinateur puisse apprendre en écoutant jouer. En termes techniques, c’est de l’apprentissage supervisé et offline. Antescofo apprend sur scène, et à chaque instant il est en train de s’ajuster et de réapprendre.

    La composition de musique mixte ©Arshia Cont
    La composition de musique mixte ©Arshia Cont

    B : Y a-t-il d’autres questions que tu aurais aimé que nous te posions ?
    AC : Il y a une dimension collective chez l’homme qui me passionne. Cent cinquante musiciens qui jouent ensemble et produisent un résultat harmonieux, c’est magique ! C’est une jouissance incroyable. Peut-on arriver à de telles orchestrations, de tels niveaux de collaboration, avec l’informatique ? C’est un vrai challenge.
    Autre question, la musique est porteuse de beaucoup d’éléments humains et touche aussi à notre vie privée. Aujourd’hui tout le monde consomme de la musique – comment peut-on rendre cela plus disponible à tous via l’informatique ? Récemment on a commencé à travailler sur des mini ordinateurs à 50 euros. Comment rendre le karaoké disponible pour tout le monde ? Comment faire pour que tous puissent faire de la musique même sans formation musicale ? Peut-être que cela donnerait aux gens un désir de développement personnel – quand un gamin peut jouer avec l’orchestre de Paris, c’est une perspective grisante, et l’informatique peut rendre ces trésors accessibles.

    La passion de la musique et de l’informatique

    B : Pour conclure, tu peux nous dire pourquoi tu as choisi ce métier ?
    AC : Je suis passionné de création musicale depuis l’adolescence, mais j’étais aussi bon en science, alors je me posais la question : musique ou science ? Avec ce métier, je n’ai pas eu à choisir : je fais les deux. Je ne pourrais pas être plus heureux. C’est un premier message aux jeunes : si vous avez une passion, ne la laissez pas tomber. Pour ce qui est de l’informatique, je l’ai découverte par hasard. Pendant mes études j’ai fait des mathématiques, du traitement du signal. Après ma thèse, en explorant la notion de langage, je me suis rendu compte qu’il me manquait des connaissances fondamentales en informatique. L’informatique, c’est tout un monde, c’est une science fantastique. C’est aujourd’hui au cœur de ma recherche. Mon second message serait, quelle que soit votre passion, à tout hasard, étudiez aussi l’informatique…

    Arshia Cont, Ircam
    Directeur de recherche dans une équipe Inria/CNRS/Ircam
    Directeur du département Recherche/Créativité des Interfaces

    En découvrir plus avec deux articles d’Interstices sur ce sujet :

    https://interstices.info/interaction-musicale
    https://interstices.info/antescofo

    Séances de travail Antescofo ©inria
    Séances de travail d’Antescofo ©inria
  • Poésie et esthétisme du logiciel

    Un nouvel « entretien autour de l’informatique  ». Serge Abiteboul  et Claire Mathieu interviewent Gérard Huet , Directeur de recherche émérite à Inria. Gérard Huet a apporté des contributions fondamentales à de nombreux sujets de l’informatique, démonstration automatique, unification, édition structurée, réécriture algébrique, calcul fonctionnel, langages de programmation applicatifs, théorie des types, assistants de preuve, programmation relationnelle, linguistique computationnelle, traitement informatique du sanskrit,  lexicologie, humanités numériques, etc. Ses travaux sur CAML et Coq (voir encadrés en fin d’article) ont notamment transformé de manière essentielle l’informatique.

    Gérard
    Gérard Huet pendant l’entretien ©Serge A.

    B : Tu as eu un parcours de chercheur singulier, avec des contributions fondamentales dans un nombre incroyable de sujets de l’informatique. Est-ce qu’il y a des liens entre tous tes travaux ?
    G : Il existe des liens profonds entre la plupart de ces sujets, notamment une vision du cœur de la discipline fondée sur l’algèbre, la logique et les mathématiques constructives. Le calcul fonctionnel (le lambda-calcul dans le jargon des théoriciens) sous-tend nombre d’entre eux. Le calcul fonctionnel, pour simplifier, c’est une théorie mathématique avec des fonctions qui ne s’appliquent pas juste à des réels comme celles que vous avez rencontrées en cours de maths. Ces fonctions, ou plus précisément ces algorithmes, peuvent s’appliquer à d’autres objets et notamment à des objets fonctionnels. Vous pouvez avoir une fonction qui trie des objets. Vous allez passer comme argument à cette fonction une autre fonction qui permet de comparer l’âge de deux personnes et vous obtenez une fonction qui permet de trier un ensemble de personnes par ordre d’âge.

    Ce qui montre que ce calcul fonctionnel est une notion fondamentale, c’est à la fois l’ossature des programmes informatiques, et dans sa version typée la structure des démonstrations mathématiques  (la déduction naturelle dans le jargon des logiciens). Vous n’avez pas besoin de comprendre tous les détails. La magie, c’est que le même objet mathématique explique à la fois les programmes informatiques et les preuves mathématiques. Il permet également les représentations linguistiques à la fois de la syntaxe, du discours, et du sens des phrases de la langue naturelle  (les grammaires de Lambek et les grammaires de Montague dans le jargon des linguistes).  Reconnaître cette unité est un puissant levier pour appliquer des méthodes  générales à plusieurs champs applicatifs.

    Je suis tombé sur d’autres sujets au fil de hasards et de rencontres parfois miraculeuses.

    Les programmes sont des preuves constructives

    B : Les programmes sont des preuves. Ça te paraît évident mais ça ne l’est pas pour tout le monde. Pourrais-tu nous expliquer comment on est arrivé à ces liens entre programmes et preuves ?
    G : Tout commence avec la logique mathématique.  En logique, il y a deux grandes familles de systèmes de preuves.  La première, la déduction naturelle, avec des arbres de preuves, c’est comme le lambda-calcul typé, et les propositions de la logique sont les types des formules de lambda-calcul. Ce n’est pas quelque chose qui a été compris au début. Le livre standard sur la déduction naturelle, paru en 1965, ne mentionne même pas le  λ calcul, car l’auteur n’avait pas vu le rapport. C’est dans les années 70, qu’on a découvert qu’on avait développé deux théories mathématiques équivalentes, chacun des deux domaines ayant développé des théorèmes qui en fait étaient les mêmes. Quand on fait le pont entre les deux, on comprend que, les programmes, ce sont des preuves.

    Un arbre de preuve
    Un arbre de preuve

    En mathématiques, on raisonne avec des axiomes et des inférences pour justifier la démonstration des théorèmes, mais souvent on évacue un peu la preuve elle-même en tant qu’objet mathématique en soi. La preuve, pour un mathématicien, c’est comme un kleenex : on la fait, et puis ça se jette. La preuve passe, le théorème reste. D’ailleurs, on donne aux théorèmes des noms de mathématiciens, mais, les preuves, on s’en moque.  Ça, c’est en train de changer grâce à l’informatique. Pour nous, les preuves sont des objets primordiaux. Plus précisément, ce qui est important pour nous, ce sont les algorithmes. En effet, un théorème peut avoir plusieurs preuves non équivalentes. L’une d’entre elles peut ne pas être constructive, c’est à dire par exemple montrer qu’un objet existe sans dire comment le construire. Ça intéresse moins l’informaticien. Les autres preuves donnent des constructions. Ce sont des algorithmes. Un théorème dit par exemple que si on a un ensemble d’objets que l’on peut trier, alors on peut construire une séquence triée de ces objets. C’est un théorème – il est complètement trivial pour un mathématicien. Mais pour nous pas du tout. Si vous voulez trier un million d’enregistrements, vous aimeriez que votre algorithme soit rapide. Alors les informaticiens ont développé de nombreux algorithmes pour trier des objets qu’ils utilisent suivant les contextes, des preuves différentes de ce théorème trivial qui sont plus utiles qu’une preuve non constructive. Et ce sont de beaux objets !

    Voilà, quand on a compris qu’un algorithme c’est une preuve, on voit bien que plusieurs algorithmes peuvent avoir la même spécification et donc que la preuve importe.

    B : La mode aujourd’hui est d’utiliser le mot « code » pour parler de programmes informatiques. Tu ne parles pas de code ?
    G : Au secours ! Le mot « code » est une insulte à la beauté intrinsèque de ces objets. La représentation d’un entier sous forme de produit de nombres premiers, on ne doit pas appeler cela un « codage » ! Non, cette représentation des entiers est canonique, et découle du Théorème Fondamental de l’Arithmétique. C’est extrêmement noble. Dans le terme « codage », il y a l’idée de cacher quelque chose, alors qu’au contraire, il s’agit de révéler la beauté de l’objet en exhibant l’algorithme.

    L’esthétique des programmes

    B : Les gens voient souvent les programmes informatiques comme des suites de symboles barbares, des trucs incompréhensibles. C’est beaucoup pour cela que le blog binaire milite pour l’enseignement de l’informatique, pour que ces objets puissent être compris par tous. Mais tu as dépassé l’état de le compréhension. Tu nous parles d’esthétique : un programme informatique peut-il être beau ?
    GH : Bien sûr. Son rôle est d’abord d’exposer la beauté de l’algorithme sous-jacent. L’esthétique, c’est plus important qu’il n’y paraît.  Elle a des motivations pratiques, concrètes. D’abord, les programmes les plus beaux sont souvent les plus efficaces. Ils vont à l’essentiel sans perdre du temps dans des détails, des circonvolutions inutiles. Et puis un système informatique est un objet parfois très gros qui finit par avoir sa propre vie. Les programmeurs vont et viennent. Le système continue d’être utilisé. La beauté, la lisibilité des programmes est essentielle pour transmettre les connaissances qui s’accumulent dans ces programmes d’une génération de programmeurs à l’autre qui ont comme mission de pérenniser le fonctionnement du système.

    Pour les programmes, de même que pour les preuves, il ne faut jamais se satisfaire du premier jet. On est content quand ça marche, bien sûr, mais c’est à ce moment là que le travail intéressant commence, qu’on regarde comment nettoyer, réorganiser le programme, et c’est souvent dans ce travail qu’on découvre les bonnes notions. On peut avoir à le réécrire tout ou en partie, l’améliorer, le rendre plus beau.

    Vaughan Pratt, Wikipedia
    Vaughan Pratt, Wikipedia

    Prenez le cas d’Unix (*). Unix, c’est beau, c’est très beau ! Il faut savoir voir Unix comme une très grande œuvre d’art. Unix a été réalisé dans le laboratoire de recherche de Bell, par une équipe de chercheurs. Vaughan Pratt (+) disait dans les années 80 :« Unix, c’est le troisième Testament ». Vaughan Pratt, c’est quelqu’un d’incroyable ! Il ne dit pas n’importe quoi (rire de Gérard). Eh bien, Unix a été fait dans une équipe de spécialistes de théorie des langages et des automates. C’est une merveille de systèmes communiquant par des flots d’octets, tout simplement.  C’est minimaliste. Ils ont pris le temps qu’il fallait, ils ont recherché l’élégance, la simplicité, l’efficacité. Ils les ont trouvées !

    B : Parmi tes nombreux travaux, y en a-t-il un qui te tient particulièrement à cœur ?
    GH : Je dirais volontiers que mon œuvre préférée, c’est le « zipper ». C’est une technique de programmation fonctionnelle. Elle permet de traverser des structures de données les plus utilisées en informatique comme des listes et des arbres  pour mettre à jour leur contenu.

    Le zipper (voir aussi la page), je suis tombé dessus pour expliquer comment faire des calculs applicatifs sur des structures de données, sans avoir cette espèce de vision étroite de programmation applicative où, pour faire des remplacements dans une structure de données, tu gardes toujours le doigt sur le haut de ta structure, ton arbre, et puis tu te balades dedans, mais tu continues à regarder ta structure d’en haut. Le zipper, au lieu de cela, tu rentres dans la structure, tu vis à l’intérieur, et alors, ce qui compte, c’est d’une part l’endroit où tu es, et d’autre part le contexte qui permet de te souvenir de comment tu es arrivé là. C’est une structure fondamentale qui avait totalement échappé aux informaticiens. Des programmeurs faisaient peut-être bien déjà du zipper sans le savoir comme M. Jourdain faisait de la prose. J’ai su formaliser le concept en tant que structure de donnée et algorithmes pour la manipuler. Maintenant, on peut enseigner le zipper, expliquer son essence mathématique.

    La mystique de la recherche

    B : Qu’est-ce qui est important pour réussir une carrière en recherche ?
    GH : Le plus important finalement, dans le choix du sujet de recherche, ce sont trois choses : le hasard, la chance, et les miracles. Je m’explique. Premièrement, le hasard. Il ne se contrôle pas. Deuxièmement, la chance. C’est d’être au bon moment au bon endroit, mais surtout de savoir s’en apercevoir et la saisir.

    Par exemple, dans le Bâtiment 8 (++) où je travaillais à l’INRIA Rocquencourt, il passait beaucoup de visiteurs. Le hasard c’est un jour la visite de Corrado Böhm , un des maîtres du lambda-calcul, une vraie encyclopédie du domaine. Je lui explique ce que je fais, et il me conseille de lire un article qui était alors, en 1975, inconnu de presque tous les informaticiens : c’était l’algorithme de Knuth-Bendix. C’est un résultat majeur  d’algèbre constructive permettant de reformuler des résultats d’algèbre de manière combinatoire. La chance, j’ai su la saisir. J’ai vu tout de suite que c’était important. Cela m’a permis d’être un précurseur des systèmes de réécriture  un peu par ce hasard. Voilà, j’ai su saisir ma chance. On se rend compte qu’il y a quelque chose à comprendre, et on creuse. Donc il faut être en éveil, avoir l’esprit assez ouvert pour regarder le truc et y consacrer des efforts.
    À une certaine époque, j’étais un fréquent visiteur des laboratoires japonais. Une fois, je suis resté une quinzaine de jours dans un laboratoire de recherche.  Je conseillais aux étudiants japonais d’être en éveil, d’avoir l’esprit ouvert. Je leurs répétais : « Be open-minded! ». Ils étaient étonnés, et mal à l’aise de questionner les problèmes qui leur avaient été assignés par leur supérieur hiérarchique. Un an plus tard, je suis repassé dans le même labo.  Ils avaient gardé ma chaise à une place d’honneur, et ils l’appelaient (rire de Gérard) « the open-mindedness chair » !

    B : Esthétique, miracle, troisième testament… Il y aurait une dimension mystique à ton approche de la recherche ?
    GH : En fait, souvent, derrière les mystères, il y a des explications.  Un exemple : je suis parti aux USA sur le mirage de l’intelligence artificielle. Une fois là-bas, quelle déception. J’ai trouvé qu’en intelligence artificielle, la seule chose qui à l’époque avait un peu de substance, c’était la démonstration automatique. J’ai essayé.  Et puis, j’ai fait une croix dessus car cela n’aboutissait pas. Cela semblait inutile, et je voulais faire des choses utiles. Alors j’ai regardé ailleurs, des trucs plus appliqués comme les blocages quand on avait des accès concurrents à des ressources. Par hasard, je suis tombé sur deux travaux. Le premier, un article de Karp et Miller, m’a appris ce que c’était que le Problème de Correspondance de Post (PCP), un problème qui est indécidable – il n’existe aucun algorithme pour le résoudre.  Le second était une thèse récemment soutenue à Princeton qui proposait un algorithme pour l’unification d’ordre supérieur. Je ne vais pas vous expliquer ces deux problèmes, peut-être dans un autre article de Binaire. L’algorithme de la thèse, je ne le comprenais pas bien. Surtout, ça ne m’intéressait pas trop, car c’était de la démonstration automatique et je pensais en avoir fini avec ce domaine. Eh bien, un ou deux mois plus tard, je rentre chez moi après une soirée, je mets la clé dans la serrure de la porte d’entrée, et, paf ! J’avais la preuve de l’indécidabilité de l’unification d’ordre supérieur en utilisant le PCP. J’avais établi un pont entre les deux problèmes. Bon ça montrait aussi que le résultat de la thèse était faux. Mais ça arrive, les théorèmes faux. Pour moi, quel flash !  J’avais résolu un problème ouvert important. Quand je parle de miracle, c’est quelque chose que je ne sais pas expliquer. J’étais à mille lieues de me préoccuper de science, et je ne travaillais plus là dessus. C’est mon inconscient qui avait ruminé sur ce problème du PCP, et c’est un cheminement entièrement inconscient qui a fait que la preuve s’est mise en place. Mais il faut avoir beaucoup travaillé pour arriver à ça, avoir passé du temps à lire, à comprendre, à essayer des pistes infructueuses, à s’imprégner de concepts que l’on pense important, à comprendre des preuves.  C’est beaucoup de travail. La recherche, c’est une sorte de sacerdoce.

    Bon, il faut aussi savoir s’arrêter, ne pas travailler trop longtemps sur un même problème. Faire autre chose. Sinon, eh bien on devient fou.

    gerard2

    Caml (prononcé camel, signifie Categorical Abstract Machine Language) est un langage de programmation généraliste conçu pour la sécurité et la fiabilité des programmes. Descendant de ML, c’est un langage de programmation directement inspiré du calcul fonctionnel, issu des travaux de Peter Landin et Robin Milner. À l’origine simple langage de commandes d’un assistant à la preuve (LCF), il fut développé à l’INRIA dans l’équipe Formel sous ses avatars de Caml puis d’OCaml. Les auteurs principaux sont Gérard Huet, Guy Cousineau, Ascánder Suárez, Pierre Weis, Michel Mauny pour Caml ; Xavier Leroy, Damien Doligez et Didier Rémy et Jérôme Vouillon pour OCaml.
    Coq est un assistant de preuve fondé au départ sur le Calcul des Constructions (une variété de calcul fonctionnel typé) introduit par Thierry Coquand et Gérard Huet. Il permet l’expression d’assertions mathématiques, vérifie automatiquement les preuves de ces affirmations, et aide à trouver des preuves formelles. Thierry Coquand, Gérard Huet, Christine Paulin-Mohring, Bruno Barras, Jean-Christophe Filliâtre, Hugo Herbelin, Chet Murthy, Yves Bertot, Pierre Castéran ont obtenu le prestigieux 2013 ACM Software System Award pour la réalisation de Coq.

    (*) Unix : Unix est un système d’exploitation multitâche et multi-utilisateur créé en 1969. On peut le voir comme l’ancêtre de systèmes aussi populaires aujourd’hui que Linux, Android, OS X et iOS.

    (+) Vaughan Pratt est avec Gérard Huet un des grands pionniers de l’informatique. Il a notamment dirigé le projet Sun Workstation, à l’origine de la création de Sun Microsystems.

    (++) Bâtiment 8 ; Bâtiment quasi mythique d’Inria (de l’IRIA ou de l’INRIA) Rocquencourt pour les informaticiens français, qui a vu passer des chercheurs disparus comme Philippe Flajolet et Gilles Kahn, et de nombreuses autres stars de l’informatique française toujours actifs, souvent à l’instigation de Maurice Nivat. Gilles Kahn sur la photo était une sorte de chef d’orchestre, parmi un groupe de chercheurs plutôt anarchistes dans leur approche de la recherche.

    Gérard Huet avec Gilles Kahn (à droite) © David MacQueen au Bât 8 de Rocquencourt, 1978
    Gérard Huet avec Gilles Kahn (à droite) © David MacQueen au Bât 8 de Rocquencourt, 1978

     

  • Le climat dans un programme informatique ?

    Entretien autour de l’informatique : Olivier Marti, climatologue

    Selon l’Agence américaine océanique et atmosphérique et la Nasa, l’année 2014 a été la plus chaude sur le globe depuis le début des relevés de températures en 1880. (Voir l’article de l’Obs). Depuis les débuts de l’informatique, la climatologie se nourrit des progrès de l’informatique et du calcul scientifique, et en même temps leur propose sans cesse de nouveaux défis. Dans un entretien réalisé par Christine Froidevaux et Claire Mathieu, Olivier Marti, climatologue au Laboratoire des  Sciences du Climat et de l’Environnement, explique ses recherches en calcul scientifique et développement de modèles pour la climatologie, un domaine exigeant et passionnant.

    Cet entretien parait simultanément en version longue sur le blog Binaire et en raccourcie sur 01Business.

    OlivierMarti_3Olivier Marti

    Le métier de climatologue

    B : Qu’est-ce qui vous a amené à travailler en climatologie ?
    OM : Dans ma jeunesse, j’ai fait de la voile. J’avais une curiosité pour la mer et un goût pour la géographie. J’ai choisi de faire l’ENSTA pour faire de l’architecture navale. Là, j’ai choisi l’environnement marin (aspect physique, pas biologie), et j’ai fait une thèse en modélisation, sur les premiers modèles dynamiques de  l’océan ; au début, on ne parlait pas beaucoup de climatologie, ça s’est développé plus tard. Il y a un aspect pluridisciplinaire important, ma spécialité étant la physique de l’océan. J’ai ensuite été embauché au CEA et ai travaillé sur les climats anciens. Par exemple, l’étude du climat du quaternaire amène à étudier l’influence des paramètres orbitaux sur le climat.

    B : En quoi consiste votre métier ?
    OM : Je fais du développement de modèle. Il faut assembler des composants : un modèle d’océan, un modèle d’atmosphère etc. pour faire un modèle du climat. Mais quand on couple des modèles, c’est-à-dire, quand on les fait évoluer ensemble, on rajoute des degrés de liberté et il peut y avoir des surprises. Il faut qu’informatiquement ces objets puissent échanger des quantités physiques. C’est surtout un travail empirique. On réalise beaucoup d’expériences en faisant varier les paramètres des modèles. C’est vrai aussi que depuis 25 ans, on se dit qu’il faudrait pousser plus loin les mathématiques (convergence numérique, stabilité, etc.), marier calcul scientifique et schémas numériques. En climatologie, on n’a pas accès à l’expérience, c’est mauvais, du point de vue de la philosophie des sciences. On peut faire quelques expériences en laboratoire, mettre une plante sous cloche avec du CO2, mais on n’a pas d’expérience pour le système complet. La démarche du laboratoire est donc de documenter l’histoire du climat. Il y a d’abord un travail de récolte et d’analyse de données, puis une phase de modélisation : peut-on mettre le “système Terre” en équations ?

    B : Allez-vous sur le terrain?
    OM : J’y suis allé deux fois. En général, on fait en sorte que les gens qui manipulent les données sur l’ordinateur aient une idée de comment on récolte ces données, pour qu’ils se rendent compte, par exemple, qu’avoir 15 décimales de précision sur la température, c’est douteux. J’ai fait une campagne en mer, de prélèvement de mesure d’eau de mer et d’éléments de biologie marine. Lors des campagnes en mer, la plupart des analyses se font en surface sur le bateau : on a des laboratoires embarqués sur lesquels on calibre le salinomètre, etc. J’ai aussi fait une campagne dans le désert du Hoggar, pendant une semaine, pour récolter les sédiments lacustres (il y a 6000 ans, là-bas, il y avait des lacs). Récolter les pollens qui sont dans les sédiments, ça exige des procédés chimiques un peu lourds, donc on ne le fait pas sur place.

    Hoggar-Grenier-230Collecte de données dans le Hoggar

    B : Qu’est-ce qui motive les chercheurs en climatologie ?
    OM : Il n’y a pas un seul profil, car c’est pluridisciplinaire. Chez nous, il y a des gens qui viennent de la dynamique des fluides et d’autres de l’agronomie. Ce n’est pas forcément facile de travailler ensemble ! Les gens qui font du calcul scientifique, quand ils arrivent, n’ont pas de compétences en climatologie, mais en travaillant sur les climats, ils ont l’impression d’être plus utiles à la société que s’ils développaient un logiciel pour faire du marketing par exemple. Ils participent à un projet d’ensemble qui a un rôle dans la société qui est positif, et c’est motivant.

    B : Quels sont les liens de votre domaine avec l’informatique ?
    OM : On évite d’utiliser le mot « informatique », car cela regroupe des métiers tellement différents. L’informatique en tant que discipline scientifique est bien sûr clairement définie, mais assez différemment de son acception par l’homme de la rue. Nous parlons de calcul scientifique. L’équipe que je dirigeais s’appelle d’ailleurs CalculS. Dans ma génération, si des personnes telles que moi disaient qu’elles faisaient de « l’informatique », elles voyaient débarquer dans leur bureau des collègues qui leur demandaient de “débugger » les appareils. Il y avait une confusion symptomatique et j’aurais préféré que le mot «informatique» n’existe pas. La Direction Informatique du CEA regroupait bureautique et calcul scientifique. Maintenant au contraire, le calcul scientifique ne dépend plus de la direction informatique. Les interlocuteurs comprennent mieux notre métier. Notre compétence n’est pas le microcode, et nous ne savons pas enlever les virus des ordinateurs.

    Développer des modèles

    B : Utilisez-vous des modèles continus ou discrets ?
    OM : Les zones géographiques sont représentées par une grille de maille 200 km (l’océan a une grille plus fine). Le temps, qui est la plus grande dimension, est discret, et on fait évoluer le système pas à pas. Il faut entre 1 et 3 mois pour simuler entre 100 et 1000 ans de climat. On ne cherche pas à trouver un point de convergence mais à étudier l’évolution… On s’intéresse à des évolutions sur 100 000 ans ! Il y a des gens qui travaillent sur le passé d’il y a 500 millions d’années, et d’autres sur le passé plus récent. Nous, on essaie de travailler sur le même modèle pour le passé et pour le futur. Donc, par rapport aux autres équipes de recherche, cela implique qu’on n’ait pas un modèle à plus basse résolution pour le futur et un autre à plus haute résolution pour le passé. L’adéquation des modèles sur le passé est une validation du modèle pour le futur, mais on a une seule trajectoire du système – une seule planète dont l’existence se déroule une seule fois au cours du temps. Nos modèles peuvent éventuellement donner d’autres climats que celui observé, et cela ne veut pas forcément dire qu’ils sont faux, mais simplement qu’ils partent d’autres conditions initiales. On peut faire de la prévision climatique, mais on ne peut pas travailler sur des simulations individuelles, il faut étudier des ensembles. En particulier, les effets de seuil sont difficiles à prédire. On a besoin de puissance de calcul.

    B : Dans votre domaine, y a-t-il des verrous qui ont été levés ?
    OM : Cette évolution a eu lieu par raffinements successifs. Maintenant on sait que ce sont plutôt les paramètres orbitaux qui démarrent une glaciation, mais que le CO2 joue un rôle amplificateur, et on ne comprend pas complètement pourquoi. On se doute qu’aujourd’hui le climat glaciaire s’explique en partie parce que l’océan est capable de piéger plus de CO2 en profondeur, et je travaille en ce moment pour savoir si au bord du continent antarctique, où l’océan est très stratifié, on peut modéliser les rejets de saumure par la glace de mer ; on essaie de faire cette modélisation dans une hiérarchie de modèles pour voir s’il y a une convergence, ou pour quantifier tel phénomène qu’on n’avait pas identifié il y a 30 ans et qui joue un rôle majeur. L’effet  de la saumure est variable selon qu’elle tombe sur le plateau continental ou non. Pour modéliser ces effets, il faut représenter la topographie du fond marin de façon fine, mais là on tombe sur un verrou, parce qu’on ne sait pas modéliser le fond de l’océan. On alterne les simulations longues à basse résolution simplifiée des rejets de sel, avec les modèles à plus haute résolution. Il y a des verrous qui sont levés parce qu’on sait faire des mesures plus fines au spectromètre et parce que la puissance de calcul augmente.

    B : Dans dix ou vingt ans, qu’est-ce que vous aimeriez voir résolu?
    OM : D’une part, en tant qu’océanographe, j’aimerais comprendre toute la circulation au fond de l’océan – c’est quelque chose de très inerte, de très lent, sauf quelques courants un peu plus rapides sur les bords. Il y a des endroits de l’océan qui sont très isolés à cause du relief. Je voudrais des simulations fines de l’océan pour comprendre son évolution très lente. On progresse, et un jour ce sera traité à des échelles pertinentes pour le climat.
    D’autre part, dans l’atmosphère, on tombe sur d’autres problèmes – ainsi, les grands cumulo-nimbus tropicaux, ce sont des systèmes convectifs. Quand on a une maille à 100 km, on essaie d’en avoir une idée statistique. Quand on a une maille à 100 m, on résout ces systèmes explicitement. Mais entre les deux, il y a une espèce de zone grise, trop petite pour faire des statistiques mais trop grande pour faire de la résolution explicite. Dans 50 ans, on pourra résoudre des systèmes convectifs dans des modèles du climat. On commence à avoir la puissance de calcul pour s’en rapprocher.
    Plus généralement c’est un exercice assez riche que de prendre des phénomènes à petite échelle et d’essayer de les intégrer aux phénomènes à grande échelle géographique, pour voir leur effet. L’écoulement atmosphérique est décrit par les équations de Navier-Stokes mais on ne peut pas résoudre toute la cascade d’effets vers les petites échelles, alors on fait de la modélisation. On se dit : il doit y avoir une certaine turbulence qui produit l’effet observé sur l’écoulement moyen. On observe les changements de phase, et il y a tout un travail pour essayer de modéliser cela correctement.
    Mais c’est très difficile, dans les articles scientifiques, quand quelqu’un a fait un progrès en modélisation, de le reproduire à partir de l’article – d’une certaine façon, cette nouvelle connaissance est implicite. L’auteur vous donne ses hypothèses physiques, ses équations continues, mais ne va pas jusqu’à l’équation discrète et à la façon dont il a codé les choses, ce qui peut être une grosse partie du travail. On commence désormais à exiger que le code soit publié, et il y a des revues dont l’objectif est de documenter les codes, et dont la démarche est de rendre les données brutes et les codes disponibles. Sans le code de l’autre chercheur, vous ne pouvez pas reproduire son expérience. Mais ce sont là des difficultés qui sont en voie de résolution en ce moment.

     compterUn supercalculateur

    Les super-calculateurs sont de plus en plus complexes à utiliser.

    Dans mon travail, je suis plutôt du côté des producteurs de données. Il y a des climatologues qui vont prendre les données de tout le monde et faire des analyses, donc vous avez un retour sur vos propres simulations, ce qui est extrêmement riche. C’est très intéressant pour nous de rendre les données disponibles, car on bénéficie alors de l’expertise des autres équipes. Cela nous donne un regard autre sur nos données. D’ailleurs, il y a  une contrainte dans notre domaine : pour les articles référencés dans le rapport du GIEC, les données doivent obligatoirement être disponibles et mises sous format standard. C’est une contrainte de garantie de qualité scientifique.

    B : Y a-t-il libre accès aux données à l’international ?
    OM : Tous les 6 ou 7 ans, le rapport du GIEC structure les expériences et organise le travail à l’international. Il y a eu une phase, il y a 10 ans, où on  voulait rassembler toutes les données dans un lieu commun, mais ce n’est pas fiable, il y a trop de données. Maintenant on a un portail web (ESGF) qui permet d’accéder aux données là où elles sont. Les gens peuvent rapatrier les données chez eux pour les analyser mais quand il y a un trop gros volume, pour certaines analyses, ils sont obligés de faire le travail à distance.

    B : Parlons du « déluge de données, du big data. Vous accumulez depuis des années une masse considérable de données. Il y a aussi des problèmes pour les stocker, etc.
    OM : Le big data, pour nous, c’est très relatif, car il y a plusieurs ordres de grandeur entre les données que nous avons et ce qu’ont Google ou Youtube par exemple. 80% du stockage des grands centres de la Recherche publique est le fait de la communauté climat-environnement. Notre communauté scientifique étudie la trajectoire du système, pas l’état à un seul instant. Il y a des phénomènes étudiés sur 1000 ans pour lesquels on met les données à jour toutes les 6 heures (les gens qui étudient les tempêtes par exemple). Mais c’est vrai que le stockage devient un problème majeur pour nous. GENCI finance les calculateurs, mais ce sont les hébergeurs de machines, le CNRS etc., qui financent les infrastructures des centres.

    B : Qu’est-ce que les progrès de l’informatique ont changé dans votre domaine, et qu’est-ce que vous pouvez attendre des informaticiens ?
    OM : Il y a une plus grande spécialisation. Lorsque j’étais en thèse, un jeune doctorant avait les bases en physique, mathématiques et informatique pour écrire un code qui tournait à 50% de la puissance de la machine. On n’avait pas besoin de spécialiste en informatique. Les physiciens apprenaient sur le tas. Maintenant l’évolution des machines fait qu’elles sont plus difficiles à programmer en programmation parallèle pour avoir un code pertinent et performant, et du coup  les physiciens doivent collaborer avec des informaticiens. Les super-calculateurs sont de moins en moins faciles à utiliser.  En ce qui concerne la formation, les jeunes qui veulent faire de la physique, et arrivent en thèse pour faire de la climatologie ne sont pas du tout préparés à utiliser un super-calculateur. Ils commencent à être formés à Matlab et à savoir passer des équations à des programmes, mais quand on met entre leurs mains un code massivement parallèle en leur disant de modifier un paramètre physique, on a vite fait de retrouver du code dont la performance est divisée par 10, voire par 100 ! On a besoin de gens  qui comprennent bien l’aspect matériel des calculateurs, (comprendre où sont les goulots d’étranglement pour faire du code rapide), et qui sachent faire des outils pour analyser les endroits où ça ralentit. En informatique, les langages de programmation ont pris du retard sur le matériel. Il y a un travail qui est très en retard, à savoir, essayer de faire des langages et compilateurs qui transforment le langage du physicien en code performant. Il faut beaucoup d’intelligence pour masquer cette complexité à l’utilisateur. Aujourd’hui c’est plus difficile qu’il y a vingt ans.

    B : Votre travail a-t-il des retombées sociétales ou économiques ?
    OM : Nos docteurs sont embauchés chez les assureurs, cela doit vouloir dire que notre travail a des retombées pour eux ! Il y a aussi EDF qui s’intéresse à avoir une vision raisonnable de ce que sera le climat pour l’évolution des barrages, l’enfouissement des déchets nucléaires, etc. Mais, la « prévision du climat », on en a horreur : nous, on fait des scénarios, mais on ne peut pas maîtriser, en particulier, la quantité de gaz à effet de serre qui seront rejetés dans l’atmosphère par l’homme. On fait des scénarios et on essaie d’explorer les climats possibles, mais on évite de parler de prévisions. On participe vraiment à la collaboration internationale pour essayer de faire des scénarios climatiques. Il y a une partie validation – la partie historique, instrumentale, bien documentée, qui permet de voir quels sont les modèles qui marchent bien – et une partie où on essaie de comprendre ce qui ne marche pas. Il y a toute une problématique de mathématiques et statistiques pour l’évolution dans le futur.

    B : Y a-t-il beaucoup de femmes chercheurs dans votre domaine?
    OM : Cela dépend de ce qu’on appelle « mon domaine ». Dans le laboratoire, il y a un bon tiers de femmes. Mais c’est qu’on est dans les sciences de la Terre. En biologie, il y en a plus de la moitié. Dans les sciences dures, en physique, il y en a moins. Dans les réunions de climatologues, il y a environ un tiers de femmes. Mais dès qu’on est dans une réunion d’informaticiens la proportion chute à moins de 10%. C’est extrêmement frappant. Il y a plus de femmes, mais dans la partie informatique et calcul scientifique, cela ne s’améliore pas beaucoup.

    B : Y a-t-il autre chose que vous aimeriez ajouter?
    OM : Il faut faire attention de distinguer modélisation et simulation. Nous, on fait de la modélisation : on commence par faire un modèle physique, puis on discrétise pour faire un modèle numérique, puis on fait du code. La simulation c’est ce que vous faites une fois que vous avez le code, le modèle informatique.

    Olivier Marti, CEA, Laboratoire des Sciences du Climat et de l’Environnement

    DemarcheSimulationLa démarche itérative de la simulation

  • Journaliste et informaticienne

    Un nouvel « entretien de la SIF ». Claire Mathieu et Serge Abiteboul interviewent Susan McGregor qui est professeur à l’Université de Columbia et directeur adjoint du Centre Tow pour le journalisme numérique. En plus d’être une journaliste, Susan est aussi informaticienne. Donc, c’est vraiment la personne à interroger sur l’impact de l’informatique sur le journalisme.

    Cet entretien parait simultanément sur Binaire et sur 01net. Traduction Serge Abiteboul. Version originale.

    smgProfesseur McGregor © Susan McGregor

    B : Susan, qui êtes-vous?
    S : Je suis professeur à l’Ecole d’études supérieures de journalisme de Columbia et directeur adjoint du Centre Tow pour le journalisme numérique. Je me suis intéressée depuis longtemps à l’écriture d’essais et je me suis impliquée dans le journalisme à l’université, mais ma formation universitaire est en informatique, sur la visualisation de l’information, et les technologies de l’éducation. Avant de rejoindre Colombia, j’ai été Programmeur senior de l’équipe News Graphics au Wall Street Journal pendant quatre ans, et encore avant ça, dans une start-up spécialisée dans la photographie d’événements en temps réel. Bien que j’aie toujours travaillé comme programmeur, ça a toujours été comme programmeur dans des équipes de design. Les équipes de design peuvent être un défi si vous venez de l’informatique, car il existe une tension entre programmation et conception. Les priorités de la programmation vont vers des composants modulaires, réutilisables et des solutions générales, alors que les conceptions doivent toujours être le plus spécifiques possibles pour une situation donnée. Mon intérêt pour la visualisation et pour la facilité d’utilisation a commencé au cours d’une année de césure entre l’école secondaire et l’université, dont j’ai passé une partie à travailler sur des tâches administratives dans une grande entreprise. J’ai pu observer comment mes collègues (qui ne connaissaient rien à la technique) étaient extrêmement frustrés avec leurs ordinateurs. Grâce à un cours d’informatique suivi au lycée, je pouvais voir les endroits où la conception du logiciel reflétait juste la technologie sous-jacente. Des choix d’interface – qui étaient essentiellement des choix de communication – étaient guidés par la technologie alors qu’ils auraient dû l’être par les besoins de l’utilisateur ou dans l’intérêt des tâches réalisées.

    La littératie informatique est essentielle pour les journalistes …

    B : Selon vous, qu’est-ce qu’un journaliste devrait savoir en informatique aujourd’hui ?
    S : La culture informatique est essentielle pour les journalistes ; l’informatique est devenue tellement importante pour le journalisme pour des tas de raisons, que nous avons commencé à proposer un double diplôme en informatique et journalisme à Columbia.

    Tout d’abord, les journalistes ont besoin de comprendre la vie privée et la sécurité numérique, parce qu’ils ont l’obligation de protéger leurs sources. Il leur faut comprendre comment les métadonnées des courriels et des communications téléphoniques peuvent être utilisées pour identifier ces sources. Ensuite – et c’est sans doute l’aspect le plus connu – nous allons trouver la place dans les rédactions pour des personnes avec des compétences techniques pour construire les outils, les plates-formes et les visualisations qui sont essentiels dans le monde de l’édition numérique en pleine évolution. Et puis, des concepts de l’informatique comme les algorithmes et l’apprentissage automatique se retrouvent maintenant dans presque tous les produits, les services, les industries, et influencent de nombreux secteurs des intérêts du public. Par exemple, les offres de cartes de crédit et de prêts hypothécaires sont accordées selon des algorithmes ; la compréhension de leurs biais potentiels est donc critique pour être capable d’évaluer leurs impacts sur ​​les droits civils. Afin de rendre compte avec précision et efficacité de la technologie en général, plus de journalistes ont besoin de comprendre comment ces systèmes fonctionnent et ce qu’ils peuvent faire. À l’heure actuelle, la technologie est souvent couverte plus du point de vue des consommateurs que d’un point de vue scientifique.

    Depuis que j’ai rejoint Columbia, j’ai pris de plus en plus conscience des tensions entre les scientifiques et les journalistes. Les scientifiques veulent que leurs travaux soient racontés mais ils sont rarement satisfaits du résultat. Les journalistes ont besoin de plus en plus de faire comprendre la science, mais de leur côté, les scientifiques devraient également faire plus d’efforts pour communiquer avec les non-spécialistes. Les articles scientifiques sont écrits pour un public scientifique ; fournir des textes complémentaires orientés vers une véritable transmission des savoirs pourrait améliorer à la fois la qualité et la portée du journalisme scientifique.

    B : Comment voyez-vous l’avenir du journalisme en tenant compte de l’évolution de la place de l’informatique dans la société?
    S : Le journalisme est de plus en plus collaboratif, avec les citoyens journalistes, le crowd sourcing de l’information, et plus d’interactions en direct avec le public. On a pu observer un grand changement ces quinze dernières années ! Ça   va continuer, même si je pense que nous allons aussi  assister à un retour vers des formes plus classiques, avec des travaux journalistiques plus approfondis. Internet a généré  beaucoup plus de contenu que ce dont nous disposions avant, mais pas nécessairement plus de journalisme original. Même si vous pensez qu’il n’est pas nécessaire d’avoir de talent particulier ou de formation pour être un journaliste, vous ne pouvez pas empêcher que la réalisation d’un reportage original demande du temps. Trouver des sources prend du temps ; mener des interviews prend du temps. Et si des ordinateurs peuvent réaliser des calculs incroyables, le genre de réflexions nécessaires pour trouver et raconter des histoires qui en valent la peine est encore quelque chose que les gens font mieux que les ordinateurs.

    smg2Clip de journal, ©FBI

    B : En tant que journaliste, que pensez-vous du traitement du langage naturel pour l’extraction de connaissances à partir de texte?
    S : De ce que je comprends de ces sujets particuliers, la perspective la plus prometteuse pour les journalistes est le collationnement et la découverte de connaissances. Il y a encore quelques années seulement, les agences de presse avaient souvent des documentalistes, et vous commenciez une nouvelle histoire ou une nouvelle investigation en examinant un classeur de « clips ». Tout cela a disparu parce que la plupart des archives sont devenues numériques, et parce qu’il n’y a généralement plus de département dédié à l’indexation des articles. Mais si le TNL (traitement naturel de la langue) et la résolution d’entités pouvaient nous aider à relier de façon significative la couverture d’un sujet à travers le temps et ses aspects, ils pourraient remplacer très différemment le classeur. Beaucoup d’organes de presse disposent de dizaines d’années d’archives mais ne disposent pas de moyens réellement efficaces pour exploiter tout ça, pour avoir vraiment  accès à toute cette connaissance.

    Le volume de contenus augmente, mais le volume d’informations originales pas nécessairement.

    B : Vous utilisez souvent (dans la version anglaise) le terme « reporting » ?  Que signifie ce mot pour vous ?
    S : L’équivalent scientifique de « reporting » c’est la conduite d’une expérience ou d’observations ; il s’agit de générer de nouveaux résultats, de nouvelles observations. L’idée de « reporting » implique l’observation directe, les interviews, la collecte de données, la production de médias et l’analyse. Aujourd’hui, on trouve souvent des variantes du même élément d’information à plein d’endroits, mais ils ont tous la même origine ; le volume de contenus augmente, mais le volume d’informations originales pas nécessairement. Par exemple, quand j’ai couvert l’élection présidentielle en 2008, j’ai appris que pratiquement tous les organes de presse obtenaient leurs données électorales de l’Associated Press. Beaucoup de ces organes de presse produisent leurs propres cartes et graphiques le jour du scrutin, mais ils travaillent tous à partir des mêmes données au même moment. Il peut vous sembler que vous avez de la diversité, mais la matière brute est la même pour tous. Aujourd’hui, vous avez souvent plusieurs organes de presse couvrant un sujet quand, de façon réaliste, un ou deux suffiraient. Dans ces cas, je pense que les autres devraient concentrer leurs efforts sur des thèmes sous-représentés. Voilà ce dont nous avons vraiment besoin : des reportages plus originaux et moins de répétitions.

    B : Vous pourriez probablement dire aussi ça pour la science. Dès que quelqu’un a une idée intéressante, tout le monde se précipite et la répète. Maintenant, en tant que journaliste, que pensez-vous de l’analyse du « big data » (des data masses) ?
    S : « Big Data » est un terme assez mal défini, englobant tout, depuis des statistiques à l’apprentissage automatique, suivant la personne que vous interrogez. Les données utilisées en journalisme de données sont presque toujours de taille relativement petites. Le journalisme de données (« data journalism »), cependant, occupe une place de plus en plus importante dans notre domaine. Aux États-Unis, nous avons maintenant des entreprises fondées exclusivement sur le journalisme de données. La popularité de ce genre de journalisme provient en partie, je pense, du fait que l’idéal américain de journalisme est « l’objectivité » ; nous avons une notion profondément ancrée dans notre culture avec ses origines dans la science, que les chiffres et les données sont objectifs, qu’ils incarnent une vérité impartiale et apolitique. Mais d’où viennent  les données ? Les données sont la réponse aux questions d’une interview. Eh bien, quelles étaient les motivations de la personne qui a choisi ces questions ? Il faut être critique vis à vis de tout cela. Le scepticisme est une composante nécessaire du journalisme, une notion essentielle de cette  profession. À un certain niveau, vous ne devez jamais croire complètement quelque source que ce soit et un tel scepticisme doit s’étendre aux données. La corroboration des données et leur contexte sont des points essentiels.

    Pour moi, c’est également un point clé des données et de l’analyse des données dans le cadre du journalisme : l’analyse de données seulement n’est pas du journalisme. Vous devez d’abord comprendre, puis présenter la signification des données d’une manière qui est pertinente et significative pour votre auditoire. Prenez les prix des denrées alimentaires, par exemple. Nous avons des données de qualité sur ce sujet. Et si j’écris un article disant que les pommes Gala se vendaient 43 dollars le baril hier ? C’est un fait – et en ce sens il « est vrai ». Mais à moins que je n’inclue aussi le coût du baril la semaine dernière, le mois dernier ou l’année dernière, cette information n’a aucun sens. Est-ce que 43 dollars le baril c’est beaucoup ou c’est peu? Et si je n’inclus pas les perspectives d’un expert qui explique pourquoi les pommes Gala se sont vendues pour 43 dollars le baril hier, on ne peut rien faire de cette information. Pour bien faire, le journalisme doit fournir des informations avec lesquelles les gens puissent prendre de meilleures décisions pour ce qui est de leur vie. Sans de telles explications, c’est des statistiques, pas du journalisme.

    La communication, l’éducation et la technologie informatique

    smg3Découverte de cranes d’homo sapiens à Herto, Ethiopie, ©Bradshaw Foundation

    B : Parfois nous sommes frustrés que les journalistes parlent si peu des progrès essentiels en informatique et beaucoup, en comparaison, de ​​la découverte de quelques os en Afrique, par exemple.
    S : Les êtres humains sont des créatures visuelles. Des os en Afrique, vous pouvez prendre des photos. Mais les découvertes de la recherche en informatique sont rarement visuelles. La vision est parmi tous les sens humains, celui qui a la bande passante la plus élevée.  Nous savons que les lecteurs sont attirés par les images à l’intérieur d’un texte. J’ai cette hypothèse « jouet » que des visualisations peuvent être utilisées, essentiellement, pour transformer des concepts en mémoire épisodique – par exemple, des images iconiques, ou de la propagande politique et des caricatures peuvent être utilisées. Et parce que les visuels peuvent être absorbés en un clin d’œil et mémorisés (relativement) facilement, des idées accompagnées de visuels associés sont bien plus facilement disséminées. C’est une des raisons pour lesquelles j’utilise des visuels dans mon travail sur la sécurité numérique et ce depuis toujours.

    smg41smg42http vs. https, visualisés. © Matteo Farinella & Susan McGregor

    B : En parlant de théorie de l’éducation, que pensez-vous des Flots (*)?
    S : Je doute que les Flots persistent dans leur forme actuelle, parce qu’en ce moment on se contente essentiellement de répliquer sur le Web le modèle de l’université classique. Je pense par contre que les techniques et les technologies que l’on développe en ce moment vont influencer les méthodes d’enseignement, et qu’il y aura une augmentation de l’apprentissage informel auto-organisé. Les vidéos en ligne ont et continueront à transformer l’éducation. Des exercices interactifs avec des évaluations intégrées continueront à être importants. Les salles de classe seront moins le lieu où on donne des cours et plus des endroits où on pose des questions. Bien sûr, tout cela dépend de l’accès universel à des connexions Internet de bonne qualité, ce qui n’est pas encore une réalité, même pour de nombreuses parties des États-Unis.

    La littératie informatique est essentielle pour tous.

    B : Que pensez-vous de l’enseignement de l’informatique à l’école primaire ?
    S : La pensée informatique est une littératie indispensable pour le 21e siècle. Je ne sais pas si cette idée est très nouvelle : L’approche des «  objets à penser » de Seymour Papert avec la pédagogie constructiviste et le développement du langage de programmation Logo date de près de cinquante ans. J’ai commencé à jouer avec Logo à l’école primaire, quand j’avais huit ans. L’idée de considérer la pensée informatique comme une littératie nécessaire est incontestable pour moi. Je peux même imaginer la programmation élémentaire utilisée comme une méthode pour enseigner les maths. Parce que j’enseigne à des journalistes adultes, je fais l’inverse : j’utilise le récit pour enseigner la programmation.

    Par exemple, quand j’enseigne à mes étudiants Javascript, je l’enseigne comme une « langue », pas comme de l’ « informatique. » Voilà, je montre un parallèle entre l’écriture d’une langue naturelle et l’écriture d’un programme. Par exemple, en journalisme, nous avons cette convention sur l’introduction d’un nouveau personnage. Quand on parle de quelqu’un pour la première fois dans un article, on l’introduit, comme : « M. Smith, un plombier de l’Indiana, de 34 ans. » Eh bien, c’est ce qu’on appelle une déclaration de variable en programmation ! Sinon, si plus tard, vous parlez de Smith sans l’avoir introduit, les gens ne savent pas de qui vous parlez. La façon dont les ordinateurs « lisent » des programmes, en particulier des programmes très simples, est très semblable à la façon dont les humains lisent du texte. Vous pouvez étendre l’analogie : l’idée d’un lien hypertexte tient de la bibliothèque externe, et ainsi de suite. La grammaire de base de la plupart des langages de programmation est vraiment très simple comparée à la grammaire d’une langue naturelle : vous avez des conditionnelles, des boucles, des fonctions – c’est à peu près tout.

    smg6Exemple de diapositives d’une présentation Enseigner JavaScript comme une langue naturelle à BrooklynJS, Février 2014.

    B : Une dernière question: que pensez-vous du blog Binaire? Avez-vous des conseils à nous donner ?
    S : Le temps de chargement des pages est trop long. Pour la plupart des organes de presse, une part croissante des visiteurs vient du mobile. Le système doit savoir qu’un lecteur a une faible bande passante et s’y adapter.

    B : Et est-ce qu’il y a autre chose que vous aimeriez ajouter?
    S : En ce qui concerne la programmation et la technologie informatiques, et le public qui n’y connaît rien, je voudrais dire : vous pouvez le faire ! Douglas Rushkoff a fait un grand parallèle entre la programmation et la conduite d’une voiture : il faut probablement le même niveau d’effort pour atteindre une compétence de base dans les deux cas. Mais alors que nous voyons des gens – toute sorte de gens – conduire, tout le temps, l’informatique et la programmation sont par contre invisibles, et les personnes qui jouissent du plus de visibilité dans ces domaines ont tendance à se ressembler. Pourtant, on peut dire que programmer et conduire sont aussi essentiels l’un que l’autre dans le monde d’aujourd’hui. Si vous voulez être en mesure de choisir votre destination, vous devez apprendre à conduire une voiture. Eh bien, de nos jours, si vous voulez être en mesure de vous diriger dans le monde, vous devez apprendre la pensée informatique.

    Explorez la pensée informatique. Vous pouvez le faire !

    Susan McGregor, Université de Columbia

    (*) En anglais, Mooc, cours en ligne massifs. En français, Flot, formation en ligne ouverte.

     

  • Comment l’informatique a révolutionné l’astronomie

    Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
    Entretien réalisé par Serge Abiteboul et Claire Mathieu

    fc-aug02

    La naissance des galaxies…

    B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
    FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

    B : Cette partie de ton travail est surtout théorique ?
    FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
    Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
    Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

    B : Qui subventionne ce matériel ?
    FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

    A273

    La place de l’informatique

    B : La part du « matériel informatique » dans ce télescope est très importante ?
    FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

    B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
    FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

    B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
    FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

    B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
    FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
    Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

    Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

    Arp87Le couple de galaxies en interaction Arp 87,
    image du Hubble Space Telescope (HST), Credit NASA-ESA

    B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
    FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
    Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
    Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
    Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
    Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

    B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
    FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

    B : Comment évalue-t-on la qualité d’une simulation ?
    FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

    Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
    avec le satellite CHANDRA, credit NASA

    B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
    FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

    sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
    de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

    Hier et demain

    B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
    FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

    B : L’informatique tenait déjà une place ?
    FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

    B : Peut-on attendre des avancées majeures dans un futur proche ?
    FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

    Le public

    B : Il y a beaucoup de femmes en astrophysique?
    FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

    B : Tu as écrit récemment un livre sur la Voie lactée?
    FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

    B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
    FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

     stephanLe groupe compact de galaxies, appelé le Quintet
    de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA

  • L’être humain au coeur de la recherche en IHM

    Wendy Mackay est Directrice de Recherche à Inria Saclay, responsable de l’équipe InSitu. Elle est en sabbatique à l’Université de Stanford. Pionnière de l’IHM, elle est une des spécialistes les plus connues dans le domaine de l’interface humain machine. Elle nous fait partager sa passion pour ces aspects si essentiels de l’informatique, qui sont souvent au cœur des réussites comme des échecs des nouveaux logiciels et des nouveaux objets numériques.

    Entretien réalisé par Claire Mathieu et Serge Abiteboul.

    CHI 2013© Inria / Photo G. Maisonneuve

    B : Bonjour Wendy. Pour commencer, une de tes grandes caractéristiques, c’est quand même d’être Américaine… Une Américaine qui fait de la recherche en France, c’est…
    WM : C’est assez rare.

    B : En effet. Est-ce que tu pourrais nous dire rapidement pourquoi tu as choisi la France pour faire ta recherche ?
    WM : La réponse courte, c’est que je suis mariée avec un Français et il fallait choisir entre la France et les États-Unis. Si on veut fonder une famille avec deux chercheurs qui travaillent tout le temps, c’est beaucoup mieux en France qu’aux États-Unis. Nous avions des offres à Xerox PARC, à San Diego, à Toronto, mais finalement les raisons personnelles l’ont emportées. La réponse qui serait plus longue à détailler, c’est que j’avais envie de voyager. Je suis née au Canada, j’ai grandi aux États-Unis, j’ai fait mes études et j’ai travaillé sur la côte Est et sur la côte Ouest… Ce qui est intéressant c’est que l’IHM était déjà un domaine de recherche bien connu aux États-Unis mais pas en France pourtant c’est un domaine important, qui est derrière les succès d’Apple, de Google, et de beaucoup d’autres choses. Quand je suis arrivée en France, ce qui m’a frappée c’est qu’il n’y avait que les mathématiques qui étaient importantes en informatique et les aspects utilisation par les humains étaient délaissés. J’ai eu la chance de pouvoir créer quelque chose de nouveau ici et saisi l’opportunité de créer mon équipe de recherche au sein d’Inria Futurs (structure de recherche qui incubait les futurs centres de Bordeaux, Lille et Saclay).

    B : Ainsi est née InSitu, première équipe de recherche d’Inria à Saclay ?
    WM : À l’époque on pouvait embaucher des gens, avoir de l’espace. On a commencé avec quatre permanents et un thésard. Maintenant on a huit permanents et trois membres de l’équipe ont créé leur propre équipe. L’interaction est devenue l’un des thèmes stratégiques d’Inria. Même si c’est plus large que notre définition de l’IHM, cela inclut tout ce qui concerne l’être humain, comme par exemple l’interaction avec les robots.

    B : Qu’est ce que l’interaction homme-machine?
    WM : L’interaction homme-machine, c’est un domaine vraiment pluridisciplinaire, avec trois grands axes. Il y a la partie informatique : comment concevoir le système. Un système interactif, ça ne marche pas tout seul, il faut un va-et-vient avec l’être humain, cela pose des problèmes informatiques. Le deuxième axe, c’est la psychologie, la sociologie et tous les aspects humains. L’attention, la perception, la mémoire, la motricité, tout cela : quelles sont les capacités et les limites de l’être humain. Et le troisième axe, c’est le design : comment concevoir le système interactif. Ce n’est pas seulement l’aspect esthétique, mais la conception de…

    B : L’ergonomie ?
    WM : Pour moi l’ergonomie cela concerne plutôt l’évaluation du système que la conception. C’est l’un des outils que l’on utilise lorsque l’on crée un système interactif, mais ce n’est pas vraiment le design. Par exemple, une idée répandue est qu’il faut faire des choses simples à utiliser. Mais pour nous ce n’est pas simple de faire des choses simples, et il y a toujours un compromis, un trade-off, entre la simplicité et la puissance. L’une des règles est qu’il faut pouvoir faire les choses simples simplement, mais il faut aussi avoir la possibilité de faire des choses complexes. Alors on ne veut pas compliquer ce qui est simple mais on veut aussi donner la possibilité de faire des choses plus avancées.

    B : D’apprendre aussi ?
    WM : Oui. L’apprentissage c’est l’adaptation du côté de l’être humain et c’est très intéressant. En fait c’est une grande partie de ma recherche actuelle. Je travaille sur un concept qu’on appelle co-adaptive instruments. Je veux réinventer les interfaces actuelles, les GUI ou graphical user interfaces. Ce sont tous les dossiers, les fichiers, les fenêtres que l’on trouve sur tous les ordinateurs. Ces interfaces graphiques ont été conçues à Xerox PARC il y a 35 ans. C’était destiné aux secrétaires de direction et c’est la raison pour laquelle on parle de couper / coller, de fichiers et de dossiers, etc. : parce que c’est leur univers. Ça a été une grande réussite, mais c’était conçu à l’époque où les machines étaient très chères et le coût du travail d’un salarié beaucoup moins élevé qu’actuellement. La plupart des ordinateurs étaient faits pour des experts. L’interface créée par Xerox était la première destinée à des non-experts, mais il s’agissait quand même d’utilisateurs dont le but était de travailler sur ordinateur. Depuis cette époque, on utilise cette métaphore du bureau pour tout, mais on se rend compte qu’elle ne marche plus vraiment car cela crée plein de limites pour de nouvelles fonctions. Sur le web aussi : on a gagné la possibilité de distribuer les documents très largement mais on a perdu beaucoup du côté de l’interaction. Finalement,  ce que l’on peut faire sur un site web est assez limité : cliquer des liens et remplir des formulaires, la plupart du temps. Et puis maintenant il y a les applications sur smartphones et tablettes. C’est encore une autre façon de concevoir l’interaction. Ces appareils sont incroyables, mais ils poussent à une interaction simple, et parfois simpliste. Il y a des barrières entre les applications et on ne peut pas partager des choses si facilement que ça. On voit qu’il y a eu une évolution dans trois directions pour des raisons historiques et techniques sur les interfaces graphiques, le web et les applications,  mais on n’a pas vraiment pensé à la perspective de l’utilisateur. Si on change de perspective et qu’on pense aux capacités de l’être humain plutôt qu’à celles de la technologie, on doit se demander : qu’est-ce que l’utilisateur veut faire et peut-on lui offrir ce dont il a besoin ?

    workspacePaper Tonnetz; © Inria / Photo H. Raguet

    B : On touche là les questions qui touchent ton sujet de recherche en particulier ?
    WM : En effet. Je vais prendre l’exemple du clavier. En France vous avez des claviers AZERTY. Moi j’utilise un clavier QWERTY, et mes doigts savent taper vite sur ce clavier. Aux États-Unis, on apprend à taper au clavier dès le lycée, et c’est très utile ! Mais quand je suis sur un clavier AZERTY, je suis plus lente que quelqu’un qui tape avec deux doigts parce que j’ai appris sur un clavier un différent. C’est un peu la même chose quand on demande aux gens, à chaque fois qu’ils changent d’application ou de machine, de réapprendre comment effectuer les mêmes fonctions. On est toujours en train d’imposer aux utilisateurs de changer entre QWERTY et AZERTY. Ça bouscule les habitudes et on y perd en efficacité. La vision que je défends dans ma recherche, c’est que les méthodes d’interaction doivent accompagner l’utilisateur et ne pas lui être imposées par le système.

    B : Pour faire une analogie, en gestion de connaissances, on retrouve un peu la même problématique. Pour utiliser un système d’information, il vous faut apprendre la terminologie de ce système, son ontologie, alors que vous devriez pouvoir l’interroger ou interagir avec en utilisant votre propre langage, votre propre ontologie. Ça correspond à ce que tu expliques ?
    WM : Oui, c’est la même chose. Comme êtres humains, nous sommes très forts pour apprendre des choses, mais pas très forts pour ré-apprendre des choses un peu différentes. C’est un peu comme si pour un pianiste, on changeait l’ordre des touches ou l’ordre des lignes sur la portée de temps en temps, aléatoirement. « Allez, jouez ! » Au comprend bien qu’au niveau moteur, de ce qu’on appelle la « mémoire des muscles », c’est un problème. Mais l’exemple que tu as donné était sur la terminologie, et c’est le même problème. Par exemple on a travaillé récemment sur la sélection de couleurs. Pourquoi est-ce différent dans Word, Excel, InDesign, PowerPoint ? Même dans Word, c’est différent si je change la couleur de texte ou la couleur de fond ! Ce que je veux, c’est choisir la façon dont je veux choisir une couleur et l’utiliser dans n’importe quelle application. En plus de faciliter l’apprentissage, ce qui est intéressant c’est que ça permet à différents utilisateurs d’utiliser différents sélecteurs. Et ça permet aussi à un même utilisateur de choisir un sélecteur différent selon la situation.

    B : C’est-à-dire que tout le monde n’a pas forcément envie d’utiliser le même crayon.
    WM : Exactement. Si je prends une artiste graphique, on imagine qu’elle a vraiment besoin de pouvoir choisir ses couleurs de manière précise et de créer des palettes de couleurs. Elle a pris le temps d’apprendre à utiliser des outils complexes et puissants. Mais un fois rentrée chez elle, cette même artiste a envie de dessiner avec sa fille de 4 ans, et là elle a juste besoin de choisir entre 4 couleurs. C’est la même personne, mais dans des contextes différents, avec des buts différents et des personnes différentes. Il faut donc bien comprendre comment les gens utilisent l’ordinateur, quels sont leurs besoins dans ces différentes situations. Il faut aussi que quand on passe d’un ordinateur à un autre, d’un laptop à un smartphone, il y ait une continuité. Bien sûr, il y a des différences : un clavier physique est différent d’un clavier tactile. Mais c’est l’utilisateur qui doit pouvoir décider comment interagir selon son contexte d’usage.
    Alors nous avons créé le concept d’instrument d’interaction et de substrate, de support d’information. Nous voulons que les instruments d’interaction soient des objets de première classe, qui appartiennent aux utilisateurs et qu’ils puissent les conserver et les utiliser dans n’importe quelle application. Les substrates permettent de filtrer l’information, de créer un contexte pour présenter les données, et que les mêmes données puissent être présentées dans différents substrates, par exemple du texte, un tableau ou un graphe. Le résultat est que cela change le business model pour le logiciel. Si on est Microsoft, on ne vend plus des grosses applications monolithiques avec des barrières étanches, mais une collection d’instruments et de substrates que les gens peuvent choisir et assembler à leur façon.

    B : Est-ce que ça ne demande pas de définir quelque chose qui serait des API  d’interaction, qu’on pourrait ensuite intégrer dans différents outils ?
    WM : Oui, en effet, on travaille sur ces API d’interaction. Mais c’est encore assez récent et cela soulève plein de questions intéressantes : comment le système peut-il aider à apprendre à utiliser un nouvel instrument ? Comment adapter un instrument à ses besoins ? En fait on imagine quelque chose qu’on pourrait appeler une physique de l’information. Par exemple, si j’ai le concept de couleur, je peux avoir des outils pour tester les couleurs, les changer, les archiver – c’est assez universel. Je peux les utiliser même si l’application ne l’a pas prévu. Et puis les gens vont s’en servir aussi de manière non prévue. Si je prends l’exemple d’un outil physique, par exemple un tournevis, c’est fait pour enfoncer des vis, mais je peux aussi m’en servir pour ouvrir une boite de conserve, pour attacher mes cheveux, pour caler la porte, pour…

    B : Assassiner quelqu’un avec un tournevis ?
    WM : Je n’espère pas ! Mais l’idée c’est que les gens adaptent les objets physiques tout le temps. Tout le temps. C’est ce qu’on fait en tant qu’êtres humains. Et bizarrement on a créé des systèmes informatiques qu’on ne peut pas facilement adapter à nos usages. Et c’est pour cela que je m’intéresse aux usages de l’ordinateur pour la créativité. Car les créatifs n’ont pas peur de tester les limites des outils pour voir ce que ça donne, de faire des combinaisons qui n’étaient pas prévues par les concepteurs, etc.

    B : Est-il possible de faire cela sans écrire de code ? Est-ce que spécifier comment on va utiliser une séquence d’outils l’un après l’autre et dire que si tel outil ne marche pas, allez alors utiliser tel autre, etc. C’est déjà un peu écrire du code ?
    WM : Oui. Et on peut le faire de manière assez visuelle, ou en disant : « Regarde-moi : j’ai fait ça et ça. ». Mais on retombe sur cette question de puissance et de simplicité. Comment faire un système où ce que je fais en temps normal reste simple, mais où j’ai aussi la possibilité de faire des choses plus complexes, ou de travailler avec quelqu’un de plus expert qui ne fait pas les choses pour moi mais me permet d’acquérir de l’expertise ? C’est un peu la vision de mon projet. C’est ambitieux et si j’étais immodeste je dirais que ça peut changer le monde… Le point important, c’est qu’on veut montrer comment repenser l’interaction. Par exemple, pour gérer les grandes quantités de données, il y a les langages de requête, les ontologies, etc. Mais c’est plutôt destiné aux experts. On peut aussi utiliser une approche visuelle, comme mon collègue Jean-Daniel Fekete qui travaille sur la visualisation interactive d’information. En fait on peut imaginer plein de façons d’interagir avec une base de données, mais on n’a pas de bonne conception des outils nécessaires pour interagir de façon cohérente pour un utilisateur qui n’est pas expert. Et je pense que si l’on considère l’interaction comme un objet de première classe, on peut répondre à ces questions et faire en sorte que des êtres humains normaux – pas des informaticiens ! – peuvent gérer des informations complexes.

    wendymackay-binaire-rayclid

    B : Peux-tu nous dire quelles ont été les grandes transformations ou les grandes avancées de ton domaine ?
    WM : Depuis 20 ans, l’interaction est sortie de l’écran et du clavier. J’ai participé au lancement de la réalité augmentée, qui à l’époque était vue comme l’inverse de la réalité virtuelle. Cela a aussi abouti aux interfaces tangibles, où on utilise des objets physiques pour interagir. Le papier interactif, sur lequel je travaille beaucoup, est une combinaison des deux. Plus récemment, il y a un grand intérêt pour l’interaction gestuelle avec les tablettes, les Kinect, etc., et puis le crowdsourcing, qui essaient d’utiliser l’intelligence humaine quand l’ordinateur ne sait pas faire. J’oublie plein de choses, bien sûr.

    On peut aussi parler de l’impact industriel. Par exemple, j’ai passé deux ans à Stanford, au HCI Lab, dirigé par Terry Winograd. Larry Page était son thésard. Il n’a jamais terminé sa thèse, mais il a créé Google. Pas mal ! En 2009, je me souviens avoir parlé avec Mike Krieger, toujours à Stanford, de mes recherches sur la communication à distance entre personnes proches et de notre notion de communication ambiante, et aussi de vidéo, etc. J’ai essayé de le prendre comme thésard mais il n’a pas voulu car il travaillait sur un petit projet. C’est devenu SnapChat… Il y a beaucoup d’exemples comme ça aux États-Unis.

    En France, ce n’est pas pareil. C’est dur de convaincre les industriels. On leur dit : « voilà une bonne interface » et ils répondent « oui, mais il y en a une qui marche déjà bien ». C’est l’avantage d’avoir habité dans plusieurs pays : on voit l’influence de la culture. En informatique, la culture américaine est très présente. Je commence à le voir après 20 ans passés en dehors des États-Unis, mais je reste américaine !

    B : : Il semble y avoir un changement de comportement par rapport aux modes traditionnels d’accès à l’information. On constate par exemple que les jeunes semblent avoir du mal avec l’écrit ?
    WM : En effet. Ce que je vois c’est que tout le monde pense que l’accès à l’information passe forcément par les interfaces graphiques actuelles. Moi j’ai « grandi » avec une Lisp Machine d’un côté, une station Sun sous Unix de l’autre. Avec Hal Abelson et Andy diSessa au MIT on a travaillé sur un système qui s’appelait Boxer, une sorte de Lisp visuel. Il y avait aussi Lego Logo, plein d’autres systèmes avec des hypothèses différentes. Aujourd’hui les gens ne connaissent que Windows, les applications, et le web, et c’est extrêmement limité. Et même les étudiants de nos Masters ont vraiment du mal à penser plus largement que ça et c’est un dommage. Et pour les plus jeunes, c’est vrai qu’ils ont du mal à écrire, peut-être parce qu’ils tapent tout le temps des SMS ?

    B : Avec les interfaces graphiques, les gens apprennent-ils autre chose que l’écriture dite classique ?
    WM : Je me souviens du moment où je suis passé de la recopie de texte écrit à la main à la rédaction directement sur l’ordinateur. Il y a des écrivains qui n’ont jamais fait ce pas et, de nos jours, des jeunes n’ont jamais fait la première partie : rédiger sur papier. C’est très différent, comme interaction. L’écriture, c’est très physique. Mais de pouvoir taper au clavier, c’est un bon changement en fait. Le champ des possibles su le papier est aussi varié : on peut aussi dessiner, faire des schémas, écrire de la musique. En fait, je travaille sur le papier interactif depuis 20 ans maintenant. Il y a des technologies comme Anoto, qui permettent de capturer ce que l’on écrit sur papier, et puis il y a des écrans qui ressemblent à du papier, comme celui du Kindle. Le papier électronique, c’est un peu cela le rêve : combiner ces deux technologies pour faire du papier interactif. C’est une question de temps. Mais ce qui m’intéresse, c’est que lorsque j’étudie des gens qui doivent utiliser l’ordinateur, comme les biologistes qui ont besoin de bases de données de gènes, d’algorithmes de séquençage, etc. Ils utilisent toujours le papier pour prendre des notes.

    B : Même les jeunes ?
    WM : Oui, même les jeunes. On essaye de comprendre les raisons de cela. En ce moment on travaille avec des musiciens et des compositeurs à l’IRCAM. On les appelle des « utilisateurs extrêmes » car ils poussent les limites de la technologie. Ils utilisent beaucoup l’ordinateur, mais ils travaillent aussi sur papier. Ils ont besoin des deux. Ce qui est très intéressant, c’est de comprendre quels sont les aspects du papier qui sont importants pour eux. Et la réponse est : pour pouvoir exprimer leurs idées plus facilement. Quand je suis sur l’ordinateur, je suis dans une application et je ne peux faire que ce qui a été prévu par ses concepteurs. Avec le papier, j’ai une grande souplesse d’expression. Je peux faire des schémas, tracer des courbes, écrire du texte. Les compositeurs veulent exprimer une idée musicale sous forme de dessin. Ils ne savent pas forcément encore ce que c’est. Alors comment créer une application sur un ordinateur pour aider quelqu’un à exprimer quelque chose qui est dans sa tête et n’est pas encore parfaitement défini ? C’est ça, en partie, la créativité dont je parlais tout à l’heure. En plus, chaque compositeur veut être unique : si je conçois une application qui répond exactement au besoin d’un compositeur, un autre ne voudra pas l’utiliser. Il faut donc réaliser un système que les utilisateurs peuvent personnaliser dès le début, mais avec lequel ils peuvent aussi immédiatement exprimer leurs idées. C’est un vrai défi. Et nous avons réalisé une série d’outils pour relever ce défi, et certains sont utilisés par des compositeurs pour des pièces qui vont être jouées en public. Et là aussi on utilise notre notion de substrate. Je vous fais une explication sur le tableau.

    substrates

    Si je fais une série de points (Wendy met des points apparemment au hasard sur le tableau…) et que je dis à l’ordinateur : « interprète cela », ça peut être plein de choses. Mais si j’ajoute ça (Wendy dessine cinq lignes), maintenant tout le monde comprend : c’est une portée. Mais qu’est-ce qui se passe si je fais ça (Wendy dessine deux axes perpendiculaires) ? C’est un graphe, du papier millimétré. L’idée, c’est qu’on peut créer différents contextes pour les données. Les points sont les données et la portée ou les axes, c’est ce qu’on appelle le substrate. C’est un moyen d’organiser les données, mais aussi de les interpréter, de définir ce que l’on peut faire avec. Cela touche aussi à ce que certains chercheurs font en base de données : comment organiser les données.

    PaperTonnetz workspace© Wendy Mackay

    B : Si l’on se penche sur le nom de ton équipe : Insitu. Dans le domaine artistique, in situ, c’est l’art qui est dans son contexte, l’art qui est dans sa position. Comme le street art. C’est lié à ça, le choix du mot in situ ?
    WM : Un peu. InSitu, c’est aussi l’abréviation de « interaction située ». C’est l’idée que les êtres humains utilisent toujours l’ordinateur dans un certain contexte et qu’il ne faut pas considérer l’interaction de façon abstraite, mais par rapport à ce contexte. Bien sûr, on utilise des abstractions pour concevoir le système, mais il ne faut pas oublier le contexte. Il y a un autre aspect, c’est que je travaille toujours avec de vrais utilisateurs et de vraies situations. J’ai observé les contrôleurs du trafic aérien, les biologistes de l’Institut Pasteur, les compositeurs de l’IRCAM pendant des dizaines d’heures. Nous travaillons avec eux, on fait des ateliers, on conçoit des prototypes  qu’ils peuvent utiliser pour jouer leur musique, analyser leurs données biologiques, utiliser le même simulateur de trafic aérien sur lequel ils s’entraînent. C’est très important de voir comment les prototypes marchent dans ces situations réelles.

    B : Est-ce que ça veut dire que la valeur de votre travail dépend du moment de l’histoire où on est ? Ou est-ce que vous avez des théorèmes ou des axiomes, des principes intemporels ?
    WM : Avec ma formation en psychologie expérimentale, ce qui m’intéresse c’est que l’on travaille avec des êtres humains. Si je regarde l’évolution de l’être humain au niveau cognitif depuis, disons, l’invention de l’ordinateur, j’ai une courbe plate. Peut-être que ça bouge un peu, on parlait des jeunes tout à l’heure, mais c’est à peu près plat. Mais pour les ordinateurs, avec la loi de Moore, on a une courbe comme exponentielle. C’est la capacité de stockage, la capacité de calcul, les réseaux.

    PastedGraphic-3

    B : Donc là, tu as marqué sur ton dessin que les machines sont devenues plus « quelque chose » que les êtres humains aux alentours de 1980… Plus intelligentes ?
    WM : (rire) Non, ce n’est pas ça… Il y a des gens comme Ray Kurzweil qui croient à ce point de convergence, la « grande singularité » où les machines vont dépasser l’homme. Moi je n’y crois pas parce que les êtres humains ne fonctionnent pas de la même façon que les ordinateurs. Mais il y a cette idée que la capacité de l’ordinateur augmente et que la complexité de ce que l’on traite avec l’ordinateur augmente de façon spectaculaire, alors que nos capacités à gérer toute cette information n’ont pas augmenté. C’est la raison de l’information overload.

    B : La surcharge d’information ?
    WM : C’est ça. Nos capacités sont de plus en plus limitées par rapport à la quantité d’informations et la complexité du système qu’on utilise. Alors il faut que les systèmes prennent bien en compte ces limitations. Il y a des normes, des capacités de l’être humain qu’on connaît et qu’on utilise dans la conception de nos systèmes. Par exemple il y a la Loi de Fitts, qui peut prédire précisément le temps qu’il faut pour déplacer le curseur vers une cible, comme un bouton, en connaissant la distance et la taille de la cible. Il y a aussi des connaissances qui viennent des sciences sociales, de la psychologie, même de la biologie. On peut utiliser cette connaissance de ce qui ne change pas beaucoup pour gérer cette augmentation de complexité du côté de l’ordinateur.

    B : Wendy, un dernier point que tu aurais aimé souligner, que nous n’aurions pas abordé ?
    WM : Je suis née au Canada, j’ai grandi aux États-Unis, et j’ai passé une grande partie de ma carrière en Angleterre et en Europe. Ce sont les quatre endroits où il se passe beaucoup de choses dans notre domaine. J’ai l’impression que pour beaucoup d’informaticiens, la culture n’a pas beaucoup d’influence sur leur domaine. Mais en interaction homme-machine, c’est important. Du côté européen, c’est plus théorique, du côté nord-américain, c’est plus pratique. L’IHM est très présente maintenant dans les meilleures universités aux États-Unis, au Canada et en Angleterre. C’est moins le cas dans le reste de l’Europe. Par exemple, Stanford a sa d.School et Carnegie Mellon University a le HCI Institute, le plus grand centre d’IHM au monde. Il y a aussi le MIT, l’Université de Toronto, Berkeley, etc. Et ils sont toujours à côté d’une école de design, ce qui est intéressant. Côté design, en Europe, le Royal College of Art à Londres a été le premier à enseigner le design pour l’IHM et en Italie il y a eu Ivrea qui était aussi une école de design mais liée à l’informatique. Au Pays-Bas, le design est très développé et Philips à Eindhoven a aussi poussé en ce sens. En France, c’est très difficile. On est très monodisciplinaire en France.

    PastedGraphic-5B : Il n’y a pas assez de connexions ou de relations entre les écoles de design françaises et les écoles d’informatique selon toi ?
    WM : Beaucoup trop peu. On a essayé avec l’ENSCI (l’Ecole Nationale Supérieure de Création Industrielle) plusieurs fois. Quand on a réussi, c’était très intéressant mais très difficile car les écoles de design sont gérées de façon différente, il est très dur pour un étudiant de prendre des cours des deux côtés. L’ENSCI a des liens avec le CEA, c’est sans doute plus facile pour des groupes de recherche industrielle. Mais en France, le manque de pluridisciplinarité vient du fait que les étudiants sont orientés très tôt. Ça crée des problèmes. Par exemple nous avons deux Masters en IHM à Paris-Sud : l’un pour les entrepreneurs, l’autre pour les chercheurs. Ils sont enseignés en anglais et la plupart de nos étudiants (100% des entrepreneurs et 90% du Master recherche) ne sont pas français. Je trouve ça dommage. L’autre chose, c’est que les étudiants en France ne savent pas ce qu’est la recherche. Ça arrive très tard, à la fin du M2 avec le stage de recherche. Et ils n’ont pas non plus l’expérience de définir leurs propres projets, ce sont les enseignants qui imposent le sujet. Quand on va au MIT, il y a des espaces partout pour faire des projets. Les étudiants sont toujours en train de travailler sur des projets. Il y a même un système qui s’appelle UROP, Undergraduate Research Opportunities Program pour qu’ils puissent travailler, dès le début de la licence, dans un labo et être payés (pas beaucoup) pour participer à la recherche dès le début de leur scolarité. Et ça change tout : les gens sont plus curieux, plus ouverts, plus autonomes. En France, un étudiant fait un Master de deux ans et il commence son premier stage de recherche à la fin de tous les cours.

    B : C’est un peu vrai à l’université. C’est un petit peu moins vrai dans les grandes écoles
    WM : C’est vrai, mais c’est vraiment dommage, et c’est vraiment trop tard.
    Comment savoir si on veut faire de la recherche ? La recherche, ce n’est pas juste une question d’intelligence. C’est aussi une question de curiosité, de personnalité. Il y a des gens qui sont faits pour être chercheur, d’autres non… Il faut être un peu rebelle pour être un bon chercheur, je pense. Comment savoir, si c’est à l’âge de 23 ans qu’on fait pour la première fois un peu de recherche ? Comment décider, après seulement quelques semaines de stage, si on veut candidater à une thèse ? Il y a des étudiants qui manquent de confiance et qui disent : « ah, je ne suis pas sûr de pouvoir le faire ». Et d’autres pensent : « bon, il faut travailler dans l’industrie parce qu’il faut gagner sa vie ». Mais c’est une belle vie, la recherche, pour les gens qui ont les capacités… Alors je trouve qu’on est en retard pour cette ouverture sur la recherche, et c’est aussi dommage pour ceux qui vont dans l’industrie. Moi, j’ai passé une partie de ma vie dans l’industrie, d’abord dans la R&D. Les travaux qu’on a fait en recherche sont devenus des produits qui ont rapporté du bénéfice et j’ai été chef d’un groupe où l’on a développé plein de logiciels. Au bout d’un moment, je me suis lassée et je me suis dit : non, c’est beaucoup mieux de faire de la recherche. Je suis revenue dans la recherche et j’adore ça. Mais je comprends les deux aspects, le développement de produits et la recherche, et cela m’a aidé des deux côtés. Il y a toujours des problèmes quand on fait des vrais produits dans le monde réel. Il y a les plannings à respecter, les spécifications fonctionnelles, etc. ; il y a la réalité, qui est très différente. Soit on s’adapte, soit on est absolument bloqué. je pense que si l’on fait un peu de recherche quand on est plus jeune, quand on va dans l’industrie ça donne un peu plus de souplesse pour gérer ces situations. Voilà, c’est l’interaction située, encore une fois ! En conclusions, j’aime beaucoup faire de la recherche en France. C’est difficile aux États-Unis en ce moment, car il y a beaucoup de pression pour faire des choses utiles à l’industrie. Moi, j’aime la capacité de pouvoir penser à plus long terme.

     

  • Le sens des images

    image-henrimaitre2.1Terkiin Tsagan Nuur, Khangaï, Mongolie Henri Maître

    Suite de l’entretien d’Henri Maître, professeur émérite à ParisTech réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan (lire l’article précèdent)

    Binaire : Dans le traitement de l’image reste encore de nombreux champs à défricher. Pour toi, c’est quoi le Graal ?

    Henri Maître : Le Graal, pour moi c’est très clair : c’est dans la sémantique. Depuis le début du traitement de l’image, des gens ont été interpelés par le fait qu’il y a d’une part la forme de l’image (les pixels, c’est noir, blanc, rouge ou vert, ça a des hautes fréquences, des basses fréquences, des contours, textures) et il y a le contenu, le message que l’on veut faire passer. Entre les deux on ne sait pas comment ça se passe. Cette dialectique entre ce qui est intelligent dans l’image et ce qui est simplement l’emballage de l’intelligent est quelque chose qui n’est pas résolu mais dont les gens se sont bien rendu compte. Détecter un cancer du sein sur une radiographie, ça ne peut généralement pas se faire sur une image seule. Il faut à côté connaître les antécédents de la personne. C’est pour ça que les médecins ont tout à fait raison de ne jamais laisser les ordinateurs faire les diagnostics eux-mêmes. Les ordinateurs et le traitement de l’image ne peuvent donner que des pistes en disant : « Cette zone-là me semble susceptible de présenter des tumeurs malignes. » Et puis le médecin, lui, il va voir son dossier et compléter l’examen en mettant les radioscopies sur l’écran, car lui saura faire le mélange complexe entre l’information de radiométrie et l’information hautement sémantique portant sur l’âge et le contexte clinique de la patiente. Ce problème-là était déjà clair dans les années 70-75 quand on a pris le problème. Maintenant nous progressons, mais lentement. La sémantique reste toujours mal cernée. Tu tapes Google, tu tapes Charles de Gaulle et tu ne sais toujours pas ce que tu vas avoir. Tu risques d’avoir un porte-avions. Ou un quartier de Paris. Ou un aéroport. Ou peut-être le général que tu cherchais ! Ou alors il faut lever l’ambiguïté : ajouter de force la sémantique : « aéroport Charles de Gaulle » ou « général Charles de Gaulle », ces mots ajoutés forcent le sens que personne malheureusement ne sait aujourd’hui trouver dans l’image. C’est là un enjeu colossal pour nous aider à exploiter les immenses ressources qui se cachent dans la toile.

    B : Ça progresse en utilisant évidemment des techniques de traitement de l’image mais ça progresse aussi en utilisant, d’autres technologies comme les bases de connaissances ?

    HM : Oui. On tourne autour du problème : « image ou intelligence artificielle ? » depuis des années, depuis 30 ans au moins, parce qu’en parallèle de problèmes de bas niveau du traitement de l’image, d’algorithmique liée à la détection des formes et des objets présents dans l’image, les gens s’interrogent sur la façon de représenter cette connaissance. Au début, on procédait en utilisant des règles, des grammaires, sans grands succès ? Puis des systèmes à base de connaissance. Vous aviez des très bons chercheurs à l’INRIA comme Marc Berthod ou Monique Thonnat qui ont développé pendant des années des systèmes intelligents pour reconnaître des formes sur ce principe. On disait : « Un aéroport, ça a des pistes, des bâtiments et des hangars ». Ces modes de raisonnement, qui sont bien datés, ont été abandonnés, malgré des efforts considérables, et des résultats non négligeables, ils ont montré leurs limites. Après, on a basculé sur d’autres systèmes des systèmes coopératifs de type multi-agents. Les résultats n’ont pas été bien meilleurs. Actuellement, on est d’une part revenu très en arrière vers des techniques de reconnaissance statistique et très en avant en mettant en scène des ontologies de traitement de l’image. Ces ontologies sont là pour mettre des relations intelligentes entre les divers niveaux d’interprétation et vont permettre de piloter la reconnaissance. Actuellement, c’est parmi les choses qui fonctionnent le mieux lorsqu’elles s’appuient sur une classification de bas niveau de qualité comme en procurent les algorithmes purement probabilistes issus du machine learning. Néanmoins, il est clair que, dans les images, il y a une partie de compréhension beaucoup plus complexe et plus difficile à traiter que dans le langage parlé ou dans l’écrit.

    B : D’où vient la difficulté ? De la géométrie ?

    HM : Une grande partie de la difficulté provient de la variabilité des scènes. Prenons le simple exemple d’une chaise, terme sémantiquement simple et peu ambigu qui se décline en image par une très grande variété d’objets, chacun étant lui-même dans des contextes très variés.

    image-henrimaitre2.2Photo Henri Maître Street Art Paris

    B : C’est beaucoup plus compliqué que de reconnaître le mot chaise, même dans dix langues différentes.

    HM : Oui, exactement.

    B : La prochaine frontière ?

    HM : Actuellement un problème préoccupe les traiteurs d’image, la possibilité de représenter une scène avec beaucoup moins de pixels que ce que réclame le théorème de Shannon (qui fixe une borne suffisante mais pas du tout nécessaire en termes de volume d’information utile pour la reconstruction d’un signal). C’est ce qu’on appelle le «compressed sensing». C’est à la fois un très difficile problème mathématique et un redoutable défi informatique. De lui pourrait venir un progrès très important dans notre capacité d’archivage des images et pourquoi pas de leur manipulation intelligente.

    B : Merci pour cet éclairage. Tu es quand même à Télécom et donc tu ne vas pas couper à une question sur les télécommunications. Vu de l’extérieur, pour quelqu’un qui n’y connaît pas grand-chose là-dedans, on a l’impression que, à un moment donné, les télécoms aussi ont basculé dans le numérique et que, maintenant, il n’y a plus beaucoup de distinctions entre un outil de télécom et un ordinateur. En fait, c’est l’ordinateur qui est devenu le cœur de tout ce qui est traitement des télécoms. C’est vrai ou c’est simpliste ?

    HM : Non, ce n’est pas simpliste. C’est une vue qui est tout à fait pertinente. Mais pendant que les télécoms sont venues à l’informatique, l’informatique a été obligée de venir aux télécoms : il est clair que si l’ordinateur est au cœur des télécoms, le réseau est au cœur de l’informatique moderne, c’est probablement plus des télécoms que de l’informatique.

    B : C’est un mariage ? Un PACS ?

    HM : Voilà. Cette assimilation des deux s’est faite de façon consentie aussi bien d’un côté que de l’autre. Il reste un cœur d’informatique qui n’utilise pas du tout les concepts des télécoms, et des domaines des télécoms qui n’intéressent pas les informaticiens, mais un grand domaine en commun qui s’est enrichi des compétences des uns et des autres. C’est la convergence. La convergence qui était annoncée depuis très longtemps.

    B : Donc, puisque là on parle de convergence, on parle aussi d’une convergence avec la télévision…

    HM : Qui est plus lente et qui est moins assumée, actuellement, dans la société. Parce que certes, probablement dans beaucoup de foyers en particulier dans ceux de nos étudiants, il y a une convergence totale où l’on capte la télé sur le web, sur un téléphone ou sur une tablette, mais il y a quand même encore beaucoup de foyers français qui réservent un seul appareil à la télévision, qu’elle soit hertzienne ou sur fil. Pour eux, il y a une convergence technique (dont d’ailleurs ils ont des occasions de se plaindre), mais elle est restée cachée.

    B : C’est juste une question de temps. On est bien d’accord ?

    HM : C’est une question de temps, c’est ça. C’est une question de génération.

    B : OK. Pour passer au présent, maintenant tu es prof émérite. À quoi passes-tu ton temps et qu’est-ce qui te passionne encore ? Dans la recherche, si ça te passionne encore.

    HM : Je reviens lentement à la recherche. J’ai eu une interruption longue : quatre ans où je me suis entièrement consacré à de l’administration de la recherche. Et c’est extrêmement long pour un chercheur. J’ai pris en charge la direction de la recherche, la direction du LTCI et la direction de l’école doctorale. Trois secteurs, dans des périodes très troublées par de multiples chantiers où il y avait beaucoup boulot. J’ai donc eu une coupure très importante et je suis en voie de réadaptation : je suis en train de réapprendre les outils du chercheur débutant. Du coup, et tant qu’à faire que se remettre à niveau, j’explore des nouveaux axes. Je me suis plongé depuis quatre mois, sur ce qu’on appelle la photographie computationnelle. C’est quoi ? Ce n’est pas une nouvelle science, mais une démarche scientifique qui cherche à tirer profit de tout ce que la technologie a fait de nouveau dans l’appareil photographique, aussi bien au niveau du capteur, des logiciels embarqués, des diverses mesures pour faire autre chose qu’une « belle image » (ce qui est la raison commerciale de ces nouveaux appareils). Quel genre de chose ? des photos 3D, des photos mises au point en tout point du champ, ou avec des dynamiques beaucoup plus fortes, des photos sans flous de bouger, … et l’idée est bien de mettre ça dans l’appareil de Monsieur Tout-le-Monde.

    B : Alors, question de néophyte : J’aurai plus de réglages à faire ? Ça va faire beaucoup plus automatiquement ou ça va me demander des réglages voire de programmer ?

    HM : On ne sait pas encore. C’est une piste pour permettre à chacun de faire des photos normalement réservées au professionnel. Une autre piste est de mettre ces fonctions à la disposition des bons photographes comme un « mode » supplémentaire disponible à la demande. Pour l’instant ce sont des usines à gaz qui ne peuvent quitter le labo de recherche. Il y a aussi une évolution qu’il faut prendre en compte : l’appareil photo est de plus en plus un « terminal intelligent » du web. D’ailleurs si vous achetez un appareil un peu haut de gamme, la première chose à faire est de le mettre sur le web pour télécharger les dernières versions des logiciels aussi bien du boîtier que des objectifs.

    B : Le système se met à jour.

    HM : Oui, ce qui est quand même assez stupéfiant. Moi j’avoue, en être resté pantois : ton appareil recharge les lois de commande sur la balance du blanc ou la correction des aberrations chromatiques, et ton objectif la stratégie de stabilisation et de mise au point. Bien sûr, sur cette lancée, on voit apparaître des officines qui te proposent aujourd’hui des logiciels pour faire le démosaïcage mieux que Canon ou Nikon, pour te proposer une application dédiée.

    B : Donc on pourrait imaginer des appareils photos qui, comme notre téléphone portable, pourraient se brancher avec des applications qu’on irait télécharger, acheter à droite et à gauche.

    HM : Exactement. Tu veux acheter le truc qui te donne la 3D ? On te donne la 3D. Tu es intéressé par la détection de choses particulières, avoir systématiquement dans toutes tes images une indexation des tags urbains (moi je suis passionné de street art), ça me le fait automatiquement, des choses comme ça. On pourrait faire ça. Pour l’instant, c’est encore inaccessible pour le néophyte…

    B : Mais un jour, peut-être, avec des interfaces de style téléphone intelligent ?

    HM : Oui. Aujourd’hui, même s’il a le lien wifi avec le réseau, l’appareil photo moderne n’en abuse pas. Mais il est déjà doté d’un calculateur très puissant et pourrait faire bien plus. Aujourd’hui, ton appareil photo fait la mise au point tout de suite ainsi que le choix d’ouverture et la balance du blanc. Il analyse la scène, décide s’il est en intérieur ou en paysage, en macrophoto ou en portrait. Il trouve les pondérations des sources. Il fait la mise au point sur les quelques indications que tu lui donnes. Si jamais tu lui dis : « c’est un visage que je veux », il te détecte le visage. Il y en a qui détectent le sourire. Ils font le suivi du personnage et corrigent la mise au point. Tout ça, en temps réel. Ce qui n’est pas encore beaucoup exploité dans les appareils photos, c’est le GPS et la wifi. Le GPS marque uniquement les images, mais il pourrait te dire que tu es place Saint-Marc et que ce que tu as pris en photo c’est le Campanile.

    B : On pourrait imaginer aussi qu’il se charge de reconnaître des tags qu’il y a sur les gens. Des tags électroniques. RFID, des choses comme ça.

    HM : Oui, tout à fait. Ça pourrait se faire très bien ; il faudrait bien s’entendre sur ce que l’on y met.

    B : Jusqu’à quel point sera-t-on dirigé ? Est-ce que je serai forcé d’avoir un horizon horizontal ? Pourrais-je le choisir autrement ?

    HM : C’est une vraie question. Mon appareil photo, ici, est en manuel presque en permanence. Il sait tout faire. Mais je choisis de garder le contrôle la plupart du temps. Mais pour ceux qui font de la montagne par exemple, avoir le nom de tous les sommets, c’est pas mal. Souvent, tu te dis : « Mince, où est-ce ça ? Je ne sais plus bien. » Moi j’aimerais bien que mon appareil photo me taggue les montagnes.

    B : Comme tu aimerais bien, quand tu rencontres quelqu’un, qu’en le mettant sur ton appareil photo il te dise le nom de la personne.

    HM : Ça, ça me gêne plus. Et de ce côté-là, j’avoue que je ne pousse pas trop à la roue. Je suis même assez opposé. Mais pour les paysages je n’ai pas l’impression de pénétrer à son insu dans l’intimité de quelqu’un.

    image-henrimaitre2.3Photo Henri Maître Street Art Paris

    B : On voit sur ta page web que tu voyages beaucoup et que tu rapportes plein de photos. Est-ce que tu penses que ta profession, ton métier ont changé ta vue sur le monde ?

    HM : Oui, beaucoup, c’est sûr. Alors comment est-ce que ça l’a changée ? D’abord j’ai relativisé l’importance de l’image. Prendre des milliers d’images dans un voyage, c’est très facile. Par contre, en garder dix pour un album ou une expo pose de vraies questions … Comment en garde-t-on dix ? On se pose pour chacune la question : qu’est-ce qui la distingue des autres et ça permet de remettre l’homme dans le processus de création de l’image, car s’il ne coûte plus rien de faire la photo, l’acte créateur qui célèbre la valeur de telle ou telle image, renaît au moment de la sélection. Dans toutes les images qu’on fait la plupart, soyons clair, sont sans intérêt, et pourtant ne se distinguent guère des quelques autres que l’on garde. Je ne vais pas aller beaucoup plus loin, car cela nous entraînerait dans des développements ennuyeux. Mais je vais faire une petite digression qui semble n’avoir que peu de lien mais relève du même débat. On parlait tout à l’heure de notre travail avec les musées. Il m’a amené dans les galeries et j’en suis sorti fasciné par l’évolution de la peinture occidentale (je ne connais pas assez les autres cultures pour m’y aventurer). Je trouve que la peinture nous renvoie aujourd’hui le dialogue de l’homme dans le débat husserlien : « Qu’est-ce qui est à moi dans l’image et qu’est-ce qui est au monde dans l’image ? Je capte donc c’est à moi, mais en même temps, c’est de la lumière qui m’est envoyée donc ce n’est pas à moi »… Partons du Haut Moyen-Âge et des œuvres en grande majorité d’inspiration religieuse. Au centre et en haut, c’est l’idée de Dieu, l’idée de grandeur, l’idée de beau ; les vilains sont par terre, ils sont tout petits. Les autres sont grands, ils sont en lumière, ils ont toujours le même visage, iconique, … On représente des idées beaucoup plus que des choses ou des gens. Et puis, le Quattrocento a fait sa révolution, introduisant le monde tel qu’il est dans ce que les gens en pensent. Avant, les peintres représentaient le monde tel qu’ils le voulaient et après le Quattrocento, ils ont commencé à le représenter tel qu’il était. Ils ont introduit bien sûr la perspective, la couleur délicatement dégradée, les ombres, la personnalisation des visages, des détails, souvent banals. Comme si brutalement le monde s’était précipité sur la toile. Ca a duré jusqu’au milieu du XIXe siècle, poussant régulièrement la capacité de reproduire le réel jusqu’aux Pompiers. Mais les impressionnistes ont dit : « Non, ce n’est pas ça qu’il faut… Replaçons l’image dans ce qu’elle doit être. Représentons dans l’image ce qu’on veut représenter, ce qui est derrière l’apparence mais qui en fait la nature particulière, ce qui n’est pas porté par l’image. ». Ce n’était qu’un début qui s’est poursuivi inexorablement avec les fauves, les cubistes puis les abstraits. On a perdu alors les éléments inutiles, les détails, les contours (Cézanne, Manet). Si l’ombre tourne dans la journée supprimons la (Manet, Gauguin). Juxtaposons les instants (Braque, Bacon), juxtaposons les aspects (Picasso). Je trouve ça absolument fascinant. Et je pense que nous, traiteurs d’images, on a vraiment beaucoup à apprendre pour voir comment les peintres ont petit à petit éliminé de la scène qu’ils observent des choses qui sont, entre parenthèses, artificielles. Les ombres, qui tournent dans la journée. Pourquoi ? Parce que l’ombre n’est pas propre à l’objet qu’on veut représenter. L’ombre est propre à l’instant où on le regarde, mais ce n’est pas ça qu’on voit. Au contraire, d’autres regardent la lumière, et font disparaître la cathédrale qui n’est que le prétexte à la lumière, comme l’escalier n’est que le prétexte du mouvement. Toutes ces choses-là, je pense que ce sont des guides pour ceux qui font du traitement de l’image pour leur indiquer le plus profond de la sémantique que l’on va retrouver dans les images. Ça leur montre qu’ils ont du boulot. Pour moi, c’est absolument naturel que les impressionnistes soient apparus quand la photo s’est imposée.

    B : En même temps que la photo ?

    HM : J’imagine le peintre de 1835 : « Mais qu’est-ce que je fais avec ma peinture, à dessiner mes petits pois, mes petits légumes, mes petites fleurs ? À quoi je sers ? » Alors qu’avec une photo, on a exactement la scène telle qu’on la voit. Ça ouvre grand les marges de manœuvre de la peinture, pour représenter les scènes qu’on observe. Quand je parle de sémantique, la sémantique la plus complète, ça peut être effectivement très compliqué.

    B : As-tu des regrets ? Si c’était à refaire ?

    HM : Je ne me suis pas encore trop posé la question. Non, je n’ai pas beaucoup de regrets. Évidemment, j’ai des regrets d’avoir passé trop de temps dans des combats stériles, plus ou moins politiques, plus ou moins scientifiques, d’avoir trop consacré de temps aux démarches administratives. J’ai perdu beaucoup de temps, c’est sûr. Mais je ne regrette pas par contre d’être monté au créneau des tâches fonctionnelles car il faut que les scientifiques s’en chargent si l’on ne veut pas que se ressente très bas dans la vie des laboratoires un pilotage technocratique ou managériale qui peut faire beaucoup de dégâts sous une apparente rationalité. Oui, j’aurais pu faire autre choses. Qu’on me donne dix vies et je referai dix vies différentes, c’est sûr.

    B : Est-ce que tu aurais aimé être physicien ou être autre chose ? Peintre ? Photographe ?

    HM : J’aurais aimé être ingénieur agronome et m’occuper de forêts, si possible outre-mer. Rien à voir avec l’image ! Je me rends compte que je suis bien mieux dans la nature et dans la campagne que dans un laboratoire.

     image-henrimaitre2.4Photo Henri Maître Street Art Paris

    B : nous vous invitons à parcourir le mini-portail du monde d’Henri Maître qui regorge d’images de tout horizon. Bon voyage !