Catégorie : Science

  • La visionnaire Ada Lovelace

    Voilà quarante ans que nous célébrons les femmes le 8 mars, depuis 1975, année internationale de la femme, pour accuser réception de la lutte historique concernant l’amélioration des conditions de vie des femmes. Vaste programme, comme dirait l’autre. Toujours cet arrière goût d’inachevé…  Pour l’occasion, Anne-Marie Kermarrec nous parle de grandes pionnières de l’informatique, aujourd’hui Ada Lovelace. Le premier programmeur de l’histoire était une programmeure ! Serge Abiteboul.

    ©Inria/Lebedinsky
    Anne-Marie Kermarrec ©Inria/Lebedinsky

    1967 : autant de bachelières que de bacheliers, pour la première fois.  2015 : à peine 10% de femmes dans les cursus d’ingénieurs. L’informatique continue de se sinistrer doucement mais surement. Au cours du congrès annuel de la SIF (Société informatique de France), consacré cette année à « Femmes et Informatique », nous n’avons pu que constater les statistiques en berne, qu’il s’agisse d’étudiantes, de chercheuses et enseignantes-chercheuses. Plus encore, à mesure que les grades augmentent, les femmes se raréfient. Same old story. D’aucun pourrait se réjouir du reste et conclure que l’informatique prend du galon, arguant du fait qu’une discipline qui se féminise est clairement en perte de prestige et de vitesse… Nous avons débattu deux jours sur les raisons de cet état de fait. Qui de l’image, des clichés, etc. …. et cette impuissance, prégnante, à inverser la tendance.  Oui quelques idées flottent bien, comme de convaincre les filles qu’elles aiment aussi la technique, de revamper les cours d’informatique ou encore d’enseigner l’informatique dès le primaire. On attend toujours le déclic sociétal…

    2014, si elle était le quarantième anniversaire de la légalisation de l’IVG,  était aussi celle du centenaire d’Alan Turing, le père de l’informatique. Turing, malheureusement encore trop peu connu du grand public quand il devrait mériter au moins autant d’égards qu’Einstein. Tout le monde connaît l’espiègle moustachu qui tire la langue, quand bien même la théorie de la relativité échappe à la majorité des gens, ou encore Freud, dont on sait qu’il interprète les  rêves. Turing, lui les aura réalisés. Pourtant, personne ne le connaît, quand la moitié de la planète tweete à longueur de journée, sur ses traces…

    2015 commence bien. Hollywood s’en mêle. Deux films consacrés à des scientifiques de renom : Alan Turing (Imitation game) justement et Stephen Hawkings (The theory of everything).  Imitation Game retrace les activités de Turing pendant la seconde guerre mondiale pour craquer Enigma, au creux de Bletchey Park, où mille délicates oreilles féminines interceptent les messages pendant que quelques cerveaux masculins s’évertuent à les décoder.  Pourtant, déchainement de critiques : impossible de comprendre précisément comment Enigma a été craquée, le concept de la machine de Turing est à peine évoqué, pas plus que le test éponyme permettant de différencier intelligence artificielle et intelligence humaine, qui pourtant donne son titre au film, Turing a l’air d’un autiste, l’homosexualité est trop timidement affichée, etc.   Soyons sérieux, quel scénariste, aussi talentueux soit-il, serait capable d’expliquer clairement la crypto au grand public dans un film hollywoodien ? Réjouissons nous plutôt que ce film ait du succès et permettent de mettre en lumière le père de l’informatique. Quand à The theory of everything, peut-être que le fait que Hawkings, lui même, ait rendu un verdict positif, suffira à faire taire les puristes des trous noirs.

    Mais revenons à nos moutons,  en cette veille de journée de la femme 2015, c’est une pionnière de l’informatique, que j’aimerais mettre sous le feu des projecteurs.

    adaAda Lovelace, Wikipedia

    La visionnaire Ada Lovelace (1815-1852)

    Ada Lovelace est le fruit des amours tumultueuses de Lord Byron, poète romantique dont le talent  n’a d’égal que le goût pour les frasques amoureuses, père qu’elle ne connaitra jamais d’ailleurs, et de Anabella Milanke, mathématicienne,  que Byron aimait à appeler sa « Princess of parallelograms »… De l’importance du niveau d’instruction des mères pour celle des jeunes filles.  Poussée par sa mère, elle étudie les mathématiques. Elle rencontre à 17 ans, Charles Babbage, mathématicien, professeur à l’Université de Cambridge. Fascinée par les machines qu’il conçoit, Ada y consacrera une grande partie de sa courte vie.

    Babbage, dont les travaux couvrent un spectre aussi large qu’hétéroclite, du pare-buffle pour locomotive à l’analyse des troncs pour y déceler l’âge des arbres, de l’invention du timbre poste unique aux premiers ordinateurs, conçoit sa machine à différence, sur les traces de la Pascaline de Pascal,  initialement pour pallier les erreurs humaines et fournir ainsi des tables nautiques, astronomiques et mathématiques exactes, y incorporant des cartes perforées du métier Jacquard. Ce métier, inventé par Jacquard afin d’éviter aux enfants les travaux pénibles, permettait de reproduire un motif grâce à des cartes perforées qui n’actionnaient que les crochets nécessaires à effectuer le motif choisi sur un métier à tisser. La légende dit que Jacquard s’en est toujours voulu de l’invention de cette machine qui, outre d’être à l’origine de la révolte des canuts, a certes détourné les enfants des métiers à tisser, mais ne leur a pas épargné des travaux pénibles dans d’autres secteurs et parfois dans des conditions encore plus difficiles.

    Le premier programmeur de l’histoire est une femme

    Babbage se concentre bientôt sur la conception d’une machine plus puissante, la machine analytique dont le design a déjà tout d’un ordinateur moderne. Si Babbage avait en tête de pouvoir effectuer grâce à sa machine de nombreux calculs algébriques, celle qui l’a réellement programmée pour la première fois est Ada Lovelace.  En 1842, à la faveur d’un séminaire de Babbage à l’Université de Turin,  Louis Menebrea, publie en français un mémoire décrivant la machine analytique de Babbage. Babbage, impressionné par les qualités intellectuelles et mathématiques d’Ada, et dont la compréhension fine de sa machine ne lui aura pas échappé, décide de lui confier la traduction de cet article.  Elle s’attellera à cette tâche avec une grande application et à la faveur de cet exercice, augmentera l’article de nombreuses notes, qui triplent sa taille. Ces notes, dont la publication l’a rendue « célèbre », démontrent que si elle appréhende le fonctionnement de la machine aussi bien que Babbage, elle en voit beaucoup plus clairement l’énorme potentiel.
    Ceci valut à Ada d’être considérée comme le premier programmeur de l’histoire. Elle a, la première, clairement identifié des notions essentielles en informatique que sont les entrées (les cartes perforées contenant données et instructions), les sorties (cartes perforées contenant les résultats), l’unité centrale (le moulin) et la mémoire (le magasin permettant de stocker les résultats intermédiaires). À la faveur de la conception de l’algorithme permettant le calcul des nombres de Bernoulli, elle a introduit la notion de  branchements, mais également expose comment une répétition d’instructions peut être utilisée pour un traitement, introduisant ainsi le concept de la boucle que l’on connaît bien en programmation.

    Cent ans d’avance. Dans ses notes,  Ada décrit en particulier comment la machine peut être utilisée pour manipuler pas uniquement des nombres mais aussi des lettres et des symboles. Ada est une visionnaire, elle est celle qui, la première, entrevoit l’universalité potentielle d’une telle machine, bien au delà de ce que ses contemporains pouvaient appréhender. Ada avait eut cette vision du calculateur universel bien avant l’heure, vision qu’Alan Turing formalisera quelque cent ans plus tard. En particulier elle fut, tellement en avance,  en mesure d’imaginer la composition musicale effectuée par un ordinateur.  Dans sa fameuse note G, la note finale, elle décrit un programme, comme nous l’appellerions aujourd’hui, qui permettrait à la machine analytique de faire des calculs sans avoir les réponses que les humains auraient pu calculer d’abord.  Virage radical par rapport à ce que l’on attendait initialement de la machine analytique.
    Ada Lovelace était une femme, non conventionnelle, athée quand sa mère et son mari étaient de fervents catholiques. Sur la fin de sa vie, Ada avait  pour seul  objectif de financer la machine de Babbage, elle croit avoir découvert une méthode mathématique lui permettant de gagner aux courses, qui la laissera dans une situation financière délicate. Elle meurt à 36 ans d’un cancer de l’utérus.

    Une femme trop peu célébrée. Même si un langage de programmation porte son nom, Ada est restée assez discrète dans la discipline.  Étudiante en informatique, j’ai entendu parler de Turing, de von Neuman ou de Babbage. Jamais d’Ada Lovelace. C’est Babbage qui  fut récompensé par la médaille d’or de la Royal Astronomical Society en 1824. La vision d’Ada prendra son sens quelque cent ans plus tard dans les travaux de Turing. Alors même qu’il apparaît clairement que les notes  d’Ada jetaient les premières bases de la machine de Turing, aucune des nombreuses biographies consacrées à Turing ne la mentionne. Il semblerait pourtant qu’il ait lu la traduction de Lovelace et ses notes  quand il travaillait à Bletchey Park.  Pire encore, certains historiens lui en retirent même la maternité comme l’historien  Bruce Collier [1]. Si cette interprétation est largement contestée, cela en dit long sur la crédibilité qu’on accorde parfois aux esprits féminins.

    À suivre…

    Anne-Marie Kermarrec, Inria Bretagne

    Et pour aller plus loin

    1. Bruce Collier. The Little Engine That Could’ve. 1990
    2. Suw Charman-Anderson. Ada Lovelace: Victorian computing visionary, chapitre de Women in STEM anthology, A passion for Science : Tales of Discovery and Invention.
  • Des robots et des humains

    Sur Interstices, la revue scientifique sur les sciences du numérique, Jean-Pierre Merlet, enrichit la rubrique sur la robotique d’une réflexion sur les problèmes soulevés par l’apparition de la robotique de service, et le fait que les robots évoluent de plus en plus au contact des humains. Un grand merci de nous permettre de reprendre ce billet ici. Thierry Viéville.

    © Inria / Photo H. Raguet

    Jusqu’à une période récente, l’utilisation des robots se cantonnait à des lieux où la présence humaine était totalement prohibée. Dans la plupart des cas, ces applications justifiaient l’étymologie du mot robot, qui vient de robota : corvée, travail pénible. Nous assistons actuellement à une évolution phénoménale de ce domaine avec, en particulier, l’apparition de la robotique de service. Les robots vont pénétrer dans tous les milieux, y compris dans la sphère privée. Ce changement s’accomplit suivant deux directions :

    • Des dispositifs spécialisés dans l’exécution d’une tâche. On peut citer en exemple les aspirateurs ou les tondeuses robotisées. Ils dérivent d’objets déjà présents dans les milieux humains, c’est l’évolution technologique et scientifique qui les a rapprochés de la robotique. Les drones s’apparentent aussi à cette catégorie.
    • Des dispositifs multi-fonctionnels, qui affichent en particulier des objectifs de symbiose avec l’humain. Pour simplifier, appelons-les « robots futuristes ». Les plus popularisés médiatiquement sont  les robots humanoïdes. Lorsque est affichée l’ambition que le robot devienne un véritable partenaire pour l’homme, on parle de robot compagnon. On est ici très proche des mythes antiques comme les servantes artificielles du dieu boiteux Héphaïstos ou de la machine servante de Saint Albert le Grand qui, selon la légende, a été démolie à grands coups de canne par Saint Thomas d’Aquin qui y voyait un suppôt de Satan. Il existe également des animaux de compagnie robotisés comme le chien AIBO ou le phoque PARO. Les exo-squelettes comme l’ATLAS du CEA ont pour objectif de suppléer à des déficits de mobilité, voire d’augmenter la mobilité humaine. Les robots de collaboration (cobot) assistent au plus près le travailleur humain.

    Un débat s’est engagé dans la communauté robotique pour déterminer si dans un futur relativement proche ces robots s’imposeraient. Examinons cette question non seulement d’un point de vue scientifique et technologique mais aussi d’un point de vue sociétal, sous l’angle de l’acceptation, des enjeux éthiques, etc.

    Des progrès matériels

    Arduino316Carte Arduino – Photo by Nicholas Zambetti
    [CC BY-SA 3.0 or CC BY-SA 3.0], via Wikimedia Commons

    Les dispositifs spécifiques se développent grâce aux nouveaux matériels informatiques, des processeurs à très bas coût comme le Raspberry ou les Arduino qui ont été conçus pour permettre d’interfacer en quelques minutes les capteurs nécessaires aux robots, capteurs dont les coûts ont considérablement baissé. La recherche en robotique bénéficie de cette évolution : il est désormais possible de réaliser en quelques heures et pour quelques centaines d’euros seulement des robots qui auraient nécessité, ne serait-ce qu’il y a 10 ans, des centaines d’heures de travail et des dizaines de milliers d’euros.

    Les robots futuristes bénéficient eux aussi des progrès en informatique, qui leur permettent de disposer d’une puissance de calcul importante, nécessaire même pour des fonctions basiques. Ainsi, le robot humanoïde NAO, un gros succès de la robotique française dont on a tout lieu de se réjouir, compte 25 servomoteurs qu’il faut simultanément contrôler pour que le robot puisse simplement marcher. Toutefois, cette puissance de calcul reste insuffisante. Ainsi, des robots encore plus sophistiqués, comme ceux utilisés pour les derniers challenges DARPA, souffrent d’une lenteur d’exécution visible sur les vidéos de présentation.

    C’est une chose d’obtenir des flux de données massifs issus des capteurs sensoriels. Mais, même en disposant d’une multitude de moteurs, c’en est une autre d’exploiter ces flux, très bruités, pour réaliser une tâche simple comme ouvrir un placard quel qu’en soit le mode d’ouverture, ceci en dépit des progrès réalisés en apprentissage automatique (machine learning). Les robots humanoïdes peuvent réaliser avec élégance quelques tâches spécifiques, ce qui a toutefois nécessité un long travail de la part des mathématiciens et des automaticiens. Bien que la complexité de ces robots justifie pleinement un effort de recherche, il faut cependant reconnaître, au risque de heurter certains roboticiens, que l’expression « robots intelligents » prête à sourire, tant ils font preuve dans beaucoup de cas d’une stupidité déconcertante. Il convient d’ailleurs de ne pas se leurrer sur certaines vidéos spectaculaires comme celle du robot ASIMO serrant la main du premier ministre chinois… alors qu’il est discrètement téléopéré.

    Des barrières techniques et économiques

    Outre ces limitations « intellectuelles », les robots humanoïdes sont confrontés à des barrières physiques et économiques. La première de ces barrières est liée à la physique de la manipulation : un NAO, malgré son incroyable succès médiatique, aura du mal à soulever un boulon de voiture, tandis qu’un robot capable de soulever 30 kilos en pèsera 600 et requerra 7 kW de puissance électrique, soit un rendement de 5 à 10 %. Cette faible efficacité n’est pas due à un mauvais rendement des actionneurs, qui au contraire est excellent, mais à la structure même du robot : la recherche de l’universalité dans l’exécution des tâches a imposé des architectures mécaniques où une partie importante de l’énergie est consacrée à l’équilibre de la structure au détriment de l’énergie affectée à la tâche.

    Et ce mauvais rendement conduit à se heurter à une autre barrière : l’autonomie énergétique. Certaines tâches courantes comme relever une personne ou monter une roue de voiture requièrent une énergie importante. De ce fait, elles sont hors de portée des robots humanoïdes, dont l’autonomie se limite à quelques dizaines de minutes sans réaliser ce genre de tâches.

    Une autre barrière est le coût. Les robots humanoïdes font appel à un nombre important d’actionneurs et de capteurs. Ces derniers ont vu leur prix considérablement baisser, mais restent encore souvent relativement coûteux, entre 1000 et 5000 euros pour un scanner laser par exemple. Pour les actionneurs, on fait actuellement appel à des composants industriels très standards et massivement diffusés, dont il semble peu probable que le prix puisse fortement baisser. On entend souvent parler de nouveaux types d’actionneurs, moins coûteux, mais sans mentionner leur rendement. Par ailleurs, une intégration plus poussée faciliterait certainement leur mise en œuvre, mais ne devrait pas avoir un impact considérable sur le coût. Actuellement, il faut compter plusieurs milliers d’euros pour un simple robot de téléprésence, 15 000 euros pour un NAO et plusieurs centaines de milliers d’euros pour un humanoïde de taille plus conséquente. Il y a aussi eu quelques effets d’annonce pour les cobots avec des prix très attractifs comparés aux robots industriels classiques. Mais un examen des robots présentés montre qu’ils ont une puissance et une dextérité réduites, ce qui en limite forcément les usages.

    Des mécanismes d’acceptation

    Spreading the Gospel of Robot Love« Les robots sont vos amis » – Source : Flickr / Photo Thomas Hawk

    Une barrière commune à tous ces robots est le problème de l’acceptation par l’humain. Il est probablement moins critique pour certains robots spécifiques, simplement dérivés d’objets du quotidien. D’autres, dont le design s’éloigne de l’objet équivalent, peuvent susciter une appropriation forte. Par exemple, il existe des sites qui proposent des habits pour personnaliser des robots aspirateurs, comme s’il s’agissait d’un animal de compagnie.

    Toutefois, d’autres robots spécifiques posent des problèmes d’acceptation : par exemple, l’utilisation des drones offrant la possibilité de pénétrer dans la sphère privée de tout individu a fait l’objet de réactions très violentes, allant jusqu’à la menace de les abattre.

    Pour les robots humanoïdes, le mécanisme psychologique de l’acceptation, qui peut être extrême — du rejet brutal et définitif à une appropriation proche du fétichisme —, n’est pas bien compris.

    Une théorie de l’acception est très en vogue en robotique humanoïde : la « vallée dérangeante » (Uncanny Valley). Elle explique que la non-acceptation est liée à des défauts d’apparence entre le robot et l’humain, qui sont jugés d’autant plus repoussants que sur d’autres aspects il peut faire illusion. En conséquence, un robot presque parfait peut être encore plus violemment rejeté que son prédecesseur. Mais la théorie stipule qu’une proximité encore plus proche permettra de passer ce creux, cette vallée du rejet, pour atteindre une acceptation complète. Cette théorie est toutefois très contestée car certaines études, comme celle menée par Christoph Bartneck, semblent montrer que même le plus parfait des humanoïdes n’atteindra jamais le seuil d’acceptation de robots plus simples dont l’apparence les fait classer clairement dans la catégorie des « machines » : la vallée serait plutôt une falaise inaccessible.

    On sait en tout cas que les outils classiques d’évaluation comme les questionnaires sont souvent biaisés, car l’objet évalué est très proche de l’humain.  Ainsi, les réponses traduisent plus l’image que l’utilisateur veut donner de lui vis-à-vis des nouvelles technologies que sa réelle appréciation du robot. Pourtant, l’étude de l’acceptation potentielle, en interaction avec des disciplines de sciences humaines et sociales,  devrait intervenir très en amont de la conception, car elle peut imposer des contraintes scientifiques et technologiques très fortes. Par exemple, le président d’une association mondiale de handicapés, en fauteuil roulant, à qui l’on demandait quelles fonctionnalités il aimerait pouvoir ajouter à son fauteuil, a simplement répondu « qu’il soit beau, sinon c’est un frein à mes relations sociales, en particulier avec les enfants ».

    Des questions éthiques

    Les robots humanoïdes posent aussi de nombreux problèmes d’éthique. La liste en est trop longue pour tous les exposer, mais l’on peut en citer quelques-uns. La proximité avec des humains de machines qui peuvent être relativement puissantes  ou qui sont censées les assister soulève des questions de risque et de responsabilité en cas d’accident. On évolue dans un domaine où la législation est encore extrêmement sommaire. Il est parfois invoqué l’implantation dans les robots des trois lois de la robotique d’Isaac Asimov pour assurer la protection des humains. Indépendamment du fait qu’on n’ait actuellement aucune idée du comment, c’est un peu vite oublier qu’Asimov s’est lui-même amusé à expliquer comment les détourner (dans son roman Face aux feux du Soleil par exemple).

    Outre la gestion des risques, on peut se poser des questions sur le rôle des robots dans l’interaction sociale. En admettant que cela soit possible, est-il souhaitable qu’un robot devienne un substitut aux relations humaines ? On peut par exemple parfaitement envisager que la société, poussée par des contraintes économiques ou par sa propre évolution, réduise l’aide humaine aux personnes fragiles pour la remplacer par des machines. Dans Face aux feux du Soleil, Asimov décrit d’ailleurs une société qui a poussé la substitution jusqu’au bout, avec des humains devenus incapables d’assumer la présence physique de leurs semblables.

    Dans un autre registre, la robotique, ou des technologies qui en sont dérivées, laissent entrevoir la possibilité de dispositifs d’assistance et de monitoring de la santé qui incontestablement pourraient avoir des impacts positifs. Elles permettraient par exemple de gérer voire de prévenir la chute des personnes âgées qui, chaque année, cause en France la mort de 10 000 personnes. Le premier problème éthique concerne la protection des données médicales recueillies, dont on ne peut pas exclure qu’elles soient utilisées à des fins malveillantes ou pour des escroqueries. Un second problème est soulevé par des psychologues qui craignent un risque de changement de comportement chez les utilisateurs. Les adeptes du Quantified self pourraient en effet devenir totalement fascinés par ces données, même s’ils s’en défendent vigoureusement. Ces psychologues soulignent que ces données peuvent modifier, parfois en mal, la perception d’événements de la vie courante.

    Reconstitution d’un appartement complet expérimental. Cet appartement sera équipé d’une grue à cables, MARIONET-ASSIST, permettant d’aider au lever et à la marche et offrant des possibilités de manipulation d’objets. Il comportera aussi des objets communicants qui aideront à résoudre des problèmes de détresse, comme une chute.
    © Inria / Photo Kaksonen.

     

    Ces mêmes psychologues parlent aussi du risque de perte de l’imprévu, un élément pourtant essentiel dans la vie humaine, dans le cas où l’on suivrait trop strictement les recommandations de ces dispositifs, par exemple, ne pas goûter un aliment exotique parce que sa composition est inconnue ou qu’elle n’est pas à 100% compatible avec les recommandations de l’appareil. Des robots « prescripteurs » ne seraient pas simplement des machines destinées à supprimer ou alléger l’exécution de certains robota, car ils pourraient aller bien plus loin dans leur influence sur leur partenaire humain, de façon parfois fort subtile. La position des autorités de régulation sur ces problèmes est encore incertaine : par exemple, l’autorité américaine de la santé a récemment indiqué que les applications mobiles qui sont censées ne fournir que des informations sur l’état de santé de l’utilisateur, sans émettre de recommandations, ne seraient pas tenues d’être enregistrées auprès de cet organisme et ne font donc l’objet d’aucune vérification de fiabilité. Qu’en serait-il si l’application résidait dans un robot compagnon ?

    Conclusion

    L’évolution scientifique et technologique permet d’envisager l’utilisation de robots au plus proche de l’humain, certainement avec des effets bénéfiques et des perspectives scientifiques très riches et multidisciplinaires combinant théories et expérimentations. Toutefois, cette potentialité d’impact et la richesse scientifique des problématiques représentent paradoxalement un obstacle au développement du domaine. En effet, elles compliquent l’évaluation de cette recherche, qui nécessite un regard croisé d’experts de sphères différentes. De plus, les développements et les impacts potentiels sont forcément de long terme. Ils sont donc peu compatibles avec le fonctionnement par appel à projet, courant sur des délais relativement courts, alors que le montage d’une seule expérimentation avec des humains peut nécessiter plusieurs années.

    Néanmoins, la perspective de robots « intelligents », capables d’accomplir de manière autonome un large éventail de tâches, incluant une interaction profonde avec un humain allant au-delà d’un rapport entre humain et animal, semble être une vision très lointaine dans le temps, même si la présentation médiatique de la robotique peut laisser croire le contraire. Les raisons de cet éloignement dans le temps, outre la difficulté d’élaborer des schémas intellectuels convaincants, repose sur des problématiques physiques et technologiques dont la résolution suppose un nombre important de ruptures technologiques majeures. Et, bien entendu, resteront posés des problèmes d’éthique, de droit et de choix de société qui sont pour le moment très peu traités.

    Jean-Pierre Merlet. Version originale : https://interstices.info/robots-et-humains.

  • Une « arithmétique » des données ouvertes

    Binaire demande depuis ses débuts à des amis des articles sur un sujet qui nous tient à cœur, les données ouvertes. Notre patience a été récompensée. Arnaud Sahuguet, directeur de la technologie au GovLab à New York, l’a coécrit avec David Sangokoya.  La version intégrale de cet article est disponible en français et en anglais (v.o.). La majorité des exemples qu’ils prennent, proviennent des États-Unis. Nous vous invitons à en suggérer d’autres, français ou pas,  en utilisant les commentaires. Serge Abiteboul.

    1*6mvYdLl8MmyOn8x_Vj5RxwPhoto by Andrés Monroy-Hernández/Flickr

    Les données ouvertes

    La valeur ajoutée, l’impact et les promesses de la mise en ligne des données ont conduit les citoyens, les services publics et les entreprises à adopter le principe de données ouvertes comme une façon d’améliorer l’efficacité, de promouvoir la transparence et de maximiser l’utilité.

    Une donnée ouverte est une donnée numérique d’origine publique ou privée. Elle peut être notamment produite par une collectivité, un service public (éventuellement délégué) ou une entreprise. Elle est diffusée de manière structurée selon une méthodologie et une licence ouverte garantissant son libre accès et sa réutilisation par tous, sans restriction technique, juridique ou financière. [source Wikipedia]

    Le cabinet de conseil McKinsey estime à 3 milliards de Dollars (2.6 milliards d’Euros) la valeur ajoutée due aux données ouvertes. Des études comme OD 500 par le GovLab suggèrent que cet impact touche des secteurs comme l’énergie, les produits de consommation, le médical, etc. Plus de 40 pays ont déjà partagé plus d’un million d’ensembles de données.

    Même si l’engouement pour les données ouvertes a donné lieu à de nombreux engagements et un enthousiasme grandissant, les fournisseurs de données manquent toujours d’un langage en commun pour peser le pour et le contre au moment d’ouvrir leurs données.

    L’administration publique ou les villes ouvrent souvent leurs données du fait de pressions hiérarchiques dans le but de se faire les champions de l’efficacité, de répondre à la demande des citoyens ou d’augmenter la transparence. Mais ceci se fait la plupart du temps en mesurant la quantité de données ouvertes plus que l’impact réel de ces dernières. Bien souvent, les coûts associés à cette ouverture sont ignorés, et les opportunités de valoriser les connaissances locales ou les expertises extérieures sont manquées.

    Les entreprises pour le moment ont une attitude attentiste. Même si certaines ont commencé à partager leurs propres données à des fins de R&D ou d’élaboration de politiques publiques, la plupart construisent leur modèle d’affaire en s’appuyant sur des données ouvertes exclusivement publiques. Étant donné que les données sont perçues comme un actif clé, les entreprises se demandent avec prudence pourquoi prendre un tel risque économique et se lancer dans un processus sans encadrement juridique ni réglementaire bien établi.

    Les citoyens sont désireux de partager leurs données. Cependant, trop souvent ils ne sont plus les véritables propriétaires de leurs propres données, celles-ci étant gérées en leur nom par des entreprises technologiques et de média. Et quand bien même ils le seraient, la crainte d’une surveillance étatique et les pratiques marketing du secteur privé les dissuadent de rendre leurs données publiquement disponibles.

    Réussites et débâcles

    Il y a de nombreuses réussites et de nombreux exemples pour les données ouvertes. Les informations de transit (par exemples mises en ligne via le standard GTFS créé par Google) permettent à des millions de gens de gagner du temps tous les jours. Les données GPS sont au cœur des applications mobiles. Les informations météo sont utilisées par des entreprises de prévisions ou des compagnies assurances. La nature ouverte des données sur le génome (Human Genome Project) a favorisé le passage à l’échelle de la collaboration pour le décodage du génome et la création d’un écosystème d’innovation entre le monde académique et celui de la recherche privée.

    Quelques débâcles sont à noter, en particulier la publication en 2006 des logs du moteur de recherche d’AOL à des fins de recherche académique. Les données mises en ligne contenaient des informations personnellement identifiables sur les utilisateurs du service. Ces données permettaient d’identifier les utilisateurs et révéler la nature de leurs recherches. Plus récemment, des données imparfaitement anonymisées du service des taxis de la ville de New York ont permis de révéler (a) l’identité des chauffeurs, (b) les itinéraires de vedettes du show-business et même (c) l’orientation religieuse de certains chauffeurs.

    Dans tous ces exemples, voici plusieurs questions pour lesquelles il est difficile de fournir une réponse satisfaisante :

    • pourquoi les parties prenantes ont-elles choisi d’ouvrir (ou de ne pas ouvrir) leurs données ?
    • quelles incitations auraient pu être mises en place afin d’encourager (ou décourager) l’ouverture des données ?
    • parmi les différents leviers à disposition, lequel est le plus pertinent pour le fournisseur de données ?

    Une arithmétique des données ouvertes

    En nous inspirant de “A theory of the calculus of voting”, nous présentons une modeste tentative de formalisation d’un calcul (ou une arithmétique) pour les données ouvertes qui puisse aider les fournisseurs de données dans leur prise de décision. Notre arithmétique se base sur une simple équation :

    P × B + D > C

    • P est la probabilité que l’ouverture des données ait un effet positif,
    • B est le bénéfice individuel de l’ouverture des données,
    • D est l’impact global dans l’écosystème, et
    • C est le coût.

    Une augmentation de P, B ou D et une diminution de C rendront l’ouverture des données plus bénéfique. Nous allons maintenant revisiter les variables une par une et identifier les facteurs qui peuvent les influencer.

    P pour probabilité

    La probabilité P représente la probabilité que l’ouverture des données génère une valeur ajoutée pour le propriétaire des données. Les facteurs qui peuvent faire augmenter P incluent :

    • la présence de standards pour publier les données.
    • une culture axée sur les données dans les secteurs publics et privés, soutenue par une filière universitaire riche.
    • un écosystème de consommation des données comprenant des hackers/développeurs pour construire des applications, des intermédiaires de données, des boutiques de data science.
    • des incitations pour les consommateurs pour utiliser ces données, par exemple récompenses et compétitions ou des financements de recherche.

    Les facteurs qui peuvent faire diminuer P incluent :

    • l’absence ou le manque de flexibilité des cadres juridiques, par exemple cadres rigides ou non-existants autour des données.
    • le manque de confiance entre les différents acteurs.

    B pour bénéfices

    Les bénéfices potentiels B pour les acteurs qui ouvrent leurs données englobent les améliorations liées aux données une fois qu’elles ont été mises en ligne :

    • plus de précision et moins d’erreur dans les données du fait que le public peut scruter celles-ci.
    • moins de lacune dans les données en terme de couverture et de granularité du fait de possibles contributions externes.
    • une plus grande inter-opérabilité une fois que les données sont sorties de leur silos.
    • une durabilité dans les données une fois mises en ligne.
    • une meilleure définition des priorités en terme de mise en ligne des données et l’identification des jeux de données prioritaires
    • une meilleure collecte des données par d’autres partenaires publics, ce qui diminue la duplication des efforts et le gaspillage.

    Des découvertes dans ces données pourront créer de la valeur dans les domaines politiques, sociaux et économiques tels que :

    • le développement de nouveaux produits et services,
    • la génération de nouvelles idées dans le secteur public,
    • la création de nouveaux secteurs à forte valeur ajoutée,
    • la créations de nouveaux jeux de données en re-combinant des données existantes,
    • une plus grande visibilité et publicité pour le fournisseur de données, et
    • l’amélioration de services publics

    Cette catégorie d’avantages varie en fonction du type de secteur. En outre, l’ouverture des données peut créer des opportunités de monétisation. Une ville peut par exemple choisir de vendre aujourd’hui un flux de données temps-réel (à un hedge fund ou un courtier d’assurance) et en même temps mettre ces mêmes données en ligne accessibles gratuitement pour le public avec un délai à la fin de la semaine.

    D pour devoir

    Le devoir D représente le devoir civique dans l’article dont nous nous inspirons. Mais pour nous ici il se traduit plus en terme d’impact global ou d’impact au sein de l’écosystème, c’est-à-dire l’impact positif de l’ouverture des données pour les autres acteurs. Pour le secteur public, il s’agit de la valeur ajoutée des données en terme de gouvernance (transparence, responsabilité, collaboration, participation), d’amélioration de la qualité de vie des citoyens, de meilleure interaction entre les agences, d’accès équitable aux données et de développement économique. Pour le secteur privé, il s’agit sans doute plus de responsabilité sociale d’entreprise. Pour les individus, il s’agit de responsabilité sociale et de comportement prosocial.

    C pour coût

    Le coût C est influencé par les facteurs suivants :

    • le coût d’ouverture des données elles-mêmes. Ces coûts comprennent le coût d’extraire les données des silos dont elles sont prisonnières et le coût de les convertir vers un format ouvert.
    • le coût d’exploitation, c’est-à-dire publier les données et les rafraîchir. Même avec les offres commerciales et les solutions libres, il reste un coût fixe d’exploitation pour un portail de données ouvertes par exemple.
    • le coût lié aux exigences de qualité des données, comme le besoin de les mettre à jour.
    • les coûts légaux pour mettre les données en conformité avec les législations. Trouver la bonne expertise juridique dans un domaine aussi jeune et volatile est difficile et donc potentiellement coûteux. Ce problème est accentué par l’existence de multiples juridictions et l’absence d’harmonisation, par exemple entre les États Unis et l’Union Européenne.
    • les coûts et risques légaux, liés par exemple à la violation de la confidentialité, aux erreurs dans les données, à des données périmées. Encore une fois, le manque de cadre juridique rend la quantification de tels risques plus difficile.
    • le coût concurrentiel (pour le secteur privé), i.e. le coût de partager les informations avec la compétition.
    • le coût de confidentialité (pour les individus), i.e. le fait de partager ses informations peut nuire à la qualité de vie (spam, contrat d’assurances, couverture médicale).
    • le coût en terme de relations publiques, i.e. un mauvais article de presse suite à une fuite dans les données, un mauvais résultat sur le tableau de bord d’une ville, un mauvais chiffre de pollution ou de diversité de la main-d’œuvre pour le secteur privé.
    • le coût d’opportunité, car ces mêmes ressources (capital, infrastructure technologique, capital humain) pourraient être allouées à d’autres buts.

    Là encore, la plupart de ces coûts sont spécifiques à chaque industrie.

    Activer les leviers

    Notre équation décrit une quantité qui doit être positive pour que l’ouverture des données soit bénéfique. Parfois, certaines variables ne sont pas du ressort du fournisseur de données. Notre équation permet alors de choisir quels leviers actionner et de poser les bonnes questions.

    Une simple équation ne va évidemment pas fournir toutes les réponses sur les données ouvertes. Mais, malgré ses limitations, notre « arithmétique » peut former une solide base de discussion. En s’appuyant sur notre équation, les décideurs peuvent comprendre comment un facteur donné influence le résultat final. En interne, une telle formulation peut servir de base à une réflexion sur une mesure de performance et un outil de décision. En externe, elle peut être utile à l’État quand il essaie de convaincre le secteur privé de partager ses données – incitations fiscales par exemple – ou encore pour la communauté tech, afin d’identifier les technologies qui pourraient réduire les coûts et amplifier les effets.

    Juste en regardant les leviers, et sans être Nostradamus, on peut raisonnablement anticiper que (a) l’établissement de bourses d’échange pour les données, (b) l’existence de tiers de confiance offrant agrégation et anonymisation des données des utilisateurs et (c) la création de modèles juridiques et des schémas de données incorporés dans des solutions informatiques de mises en ligne de données, rendraient la décision d’ouvrir les données plus facile et plus rationnelle.

    Notre souhait est que cette « arithmétique » des données ouverte permette de mieux cerner la question, d’identifier les leviers à actionner et facilite conversations et recherche sur le sujet à tous les niveaux et dans tous les secteurs.

    Arnaud Sahuguet, The GovLab

    Voir le profil complet d’Arnaud Sahuguet à https://www.linkedin.com/in/sahuguet. Suivez le sur Twitter à https://twitter.com/sahuguet.

  • Façonner l’imaginaire

    Marie-Paule Cani, Professeure à Grenoble INP et responsable d’une équipe commune au Laboratoire Jean Kuntzmann et à Inria, est la toute nouvelle titulaire de la Chaire «Informatique et sciences numériques» du Collège de France où elle présente un cours intitulé « Façonner l’imaginaire : de la création numérique 3D aux mondes virtuels animés » (leçon inaugurale le 12 février 2015). Nous nous sommes émerveillés devant les images de synthèse en 3D, dans des films, des jeux vidéo ou des œuvres d’art. Marie-Paule nous explique comment l’informatique graphique va continuer à nous faire rêver. Serge Abiteboul.

    Marie-Paule Cani @ Collège de FranceMarie-Paule Cani – Photo Collège de France 

    De la création numérique 3D aux mondes virtuels animés

    Le monde numérique est un espace artificiel où l’être humain règne en maitre, créant les contenus ou orchestrant leur génération à partir de données ou d’algorithmes. Mais il est parfois frustrant de ne créer que de l’immatériel – que l’on peut difficilement voir et encore moins toucher. C’est sans doute pour cela que la création numérique 3D fait tant rêver. Elle permet d’ébaucher des formes en quelques gestes, puis de les observer sous tous les angles et de les manipuler virtuellement. Elle ouvre la voie vers la fabrication automatique de prototypes physiques à partir de ces formes – par exemple via l’impression 3D, nous offrant ainsi la faculté unique de matérialiser l’immatériel. Enfin, elle permet de donner vie à d’autres mondes – des mondes virtuels peuplés et animés – puis de les explorer en s’y immergeant de tous nos sens grâce à la réalité virtuelle.

    Tout en étant capables, dans une certaine mesure, de reconstruire ou d’imiter le monde réel, les contenus 3D constituent un moyen privilégié pour exprimer notre imaginaire. Au-delà d’une dimension ludique et artistique qui s’exprime largement au travers des jeux vidéo, du cinéma et de l’art numérique, la création graphique 3D offre un outil formidable aux chercheurs et ingénieurs de tous domaines. Elle permet à l’ingénieur de créer virtuellement son objet d’étude puis de le tester pour l’améliorer avant même qu’il ne soit fabriqué dans le monde physique. Le scientifique (du biologiste à l’archéologue) pourra pour sa part exprimer ses hypothèses sous forme visuelle, puis explorer les contenus ainsi créés pour affiner sa compréhension de son objet d’étude. L’interaction avec un support visuel permet en effet au créateur de raffiner progressivement sa vision, bien mieux que ne le ferait une simple image mentale. Léonard de Vinci en avait eu l’intuition. Des recherches récentes en psychologie cognitive ont démontré que l’interaction visuelle avec une ébauche permet d’éveiller des parties de la mémoire ignorées par une description analytique, d’imaginer et d’explorer mentalement un espace de solutions possibles, permettant ainsi de compléter progressivement sa création.

    Marie-Paule Cani illustration-1Créations numériques © Grenoble-INP, Inria, Lyon 1

    À quand remonte ce goût pour la création 3D ? De tout temps, l’être humain a cherché à maîtriser la création de formes et même de mouvements, qu’ils soient inspirés par le réel ou simplement imaginés. Contrairement au son que nous pouvons produire directement sans l’aide d’instruments, l’être humain ne dispose pas de moyens physiques pour exprimer et communiquer des formes tridimensionnelles : il a besoin d’un support et d’outils pour les représenter. Ce support a pu être le sable, le rocher, l’argile … et les premiers outils ont probablement été les doigts ou un silex. Se sont développés le dessin et la peinture, qui ne peuvent représenter que des projections planes des formes, mais qui s’avèrent parfois précieux pour évoquer l’incertitude ou pour exprimer une action (pensons à la bande dessinée) ; et la sculpture, qui permet de représenter précisément des formes statiques en 3D mais ne sait évoquer le mouvement qu’à travers des situations de déséquilibre.

    Aujourd’hui, de plus en plus d’êtres humains disposent du média numérique et le manipulent plus quotidiennement qu’une boule de pâte à modeler, ou même, pour certains, qu’un papier et un crayon. L’outil numérique pourrait-il devenir à terme le média ultime, offrant à chacun cette capacité que nous recherchons depuis toujours, à savoir celle d’ébaucher en temps-réel puis raffiner progressivement les formes et des mouvements que nous imaginons, grâce à cette interaction visuelle si propice à la création ? De manière immédiate, des qualités du support numérique le rendant supérieur à tout support physique viennent à l’esprit : il peut permettre de dessiner dans le plan mais aussi en volume (en « 3D »); d’ébaucher non seulement des formes statiques, mais aussi des formes en mouvement ; de stocker et de visualiser ces créations à différents niveaux de détails ; de revenir en arrière au besoin, de copier, dupliquer et coller des détails. Plus encore, le numérique pourra apporter de l’aide à ceux qui n’arrivent pas à exprimer leurs imaginaire dans le monde réel, pensant qu’ils « ne savent pas dessiner ». Cependant, un long chemin reste à parcourir pour mettre ce média numérique à la portée de tous. Une série de recherches récentes ouvrent la voie.

    La création numérique 3D

    Les travaux que nous allons présenter ici correspondent au champ disciplinaire de l’Informatique Graphique, dont la communauté scientifique s’est structurée en France dès la fin des années 80. A l’opposé des technologies qui prennent des images en entrée, comme le traitement d’images, la vision par ordinateur ou l’imagerie médicale, l’informatique graphique s’intéresse aux méthodes pour produire des images en sortie. Ces images artificielles sont appelées images de synthèse.

    Si elles sont visuelles et parlent à tous, les images de synthèse cachent des modèles mathématiques et des algorithmes de simulation de phénomènes physiques, dont l’efficacité est essentielle. Les chercheurs en informatique graphique développent des représentations mathématiques dédiées aux formes 3D ainsi que des méthodes pour les façonner virtuellement : il s’agit de la « modélisation géométrique. Ils proposent des méthodes pour décrire ou générer les mouvements et les déformations de ces formes au cours du temps : il s’agit de « l’animation ». Enfin, ils explorent les chaînes de traitement permettant de passer du monde numériques 3D qui en résulte à une image ou à un film, semblables à ceux qu’auraient pu saisir une caméra : il s’agit du « rendu ».

    Au cours des dix dernières années, l’accroissement des capacités mémoire et de la puissance de calcul des ordinateurs ont permis de stocker, de traiter et d’afficher des données 3D massives (plusieurs millions de polygones), produisant des images de synthèse parfois difficiles à différencier du réel : on parle de « réalisme visuel ». En parallèle, les utilisateurs attendent des mondes virtuels un contenu toujours plus impressionnant, riche et détaillé. Mais comment créer ces contenus ?

    Deux approches ont été développées jusqu’ici pour accélérer la création de contenus 3D : la capture de données réelles et la génération automatique. Cependant, même s’il était possible de capturer un à un chaque élément de notre monde, l’utilisation massive d’objets capturés briderait la créativité. Et pour sa part, la génération automatique n’offre qu’un contrôle indirect et assez limité du résultat. De ce fait, la création graphique passe encore principalement par la modélisation interactive, via des logiciels dédiés. Des centaines d’artistes infographistes, ayant reçu plusieurs années de formation dans des écoles spécialisées, s’attellent à la création des éléments de chaque nouvel univers virtuel. Par exemple, la création du film « La reine des neiges » de Disney, sorti en novembre 2013, a demandé le travail de 650 personnes pendant deux ans. Pour accélérer le processus de création, des supports physiques (papier, argile) sont utilisés aux premiers stades de la conception. Recréer et améliorer chaque forme et chaque mouvement sous forme numérique demande des mois d’un travail minutieux et souvent fastidieux (pensons à un décor naturel dont la végétation est agitée par le vent, ou aux nombreux éléments animés d’une scène urbaine). De plus, la complexité des logiciels demande aux utilisateurs de rester concentrés sur la maitrise de l’outil pour naviguer dans un dédale de menus et sous-menus, au lieu de penser uniquement à la forme créée. Ainsi, Rob Cook, directeur scientifique de Pixar, a affirmé en 2009 que le grand défi en informatique graphique est de “rendre les outils aussi invisibles aux artistes que les effets spéciaux ont été rendus invisibles au grand public!” En effet, un spectateur ne se demande plus ce qui est réel ou virtuel lorsqu’il est plongé dans un film comme « Avatar » : il est emporté par l’histoire… De même, les créateurs de contenus 3D devraient pouvoir créer sans se soucier de l’outil, comme s’il s’agissait d’un simple prolongement de leurs doigts.

    Comment mettre la création 3D à la portée de tous, permettant à tout un chacun de « façonner l’imaginaire », au fur et à mesure qu’il lui vient en tête, et plus facilement qu’avec un papier et un crayon ? C’est l’objet d’un nouveau courant de recherche en informatique graphique, que j’appellerai la « modélisation expressive »1.

    Vers une modélisation expressive

    Des recherches récentes en informatique graphique s’attachent à développer des méthodes de création 3D mariant simplicité et rapidité d’utilisation avec la qualité visuelle et le contrôle des résultats. L’objectif est que l’utilisateur puisse littéralement « façonner » les formes et les mouvements qu’il imagine tout en s’appuyant sur l’outil numérique pour compléter automatiquement les détails et pour maintenir les contraintes qu’il souhaite en matière de réalisme. Pour cela, nous assistons à l’émergence de trois principes méthodologiques :

    • Tout d’abord, une création par gestes est proposée. Ces derniers peuvent être des gestes de dessin pour ébaucher une nouvelle forme, des gestes de sculpture ou de modelage pour l’améliorer ou lui ajouter des détails, ou encore des gestes de mime pour indiquer un mouvement. A ces métaphores d’interaction inspirées du monde réel sont ajoutées certaines actions simples qui ont déjà révolutionné les environnements numériques comme le fait de copier-coller pour reproduire et transférer certains éléments.
    • Deuxièmement, les modèles graphiques sont revisités de manière à ce qu’ils réagissent comme l’attendrait un utilisateur humain, sous ces gestes d’interaction. Pour cela, il s’agit d‘intégrer des connaissances adéquates dans les modèles, leur permettant de répondre à la sémantique qu’un utilisateur humain associe, presque involontairement, à ses actions.
    • Enfin, différentes méthodologies de passage à l’échelle sont développées, pour permettre à l’utilisateur d’orchestrer la création d’un monde virtuel complexes, constitué de hiérarchies d’éléments éventuellement animés, sans avoir à les manipuler un à un.

    Pour mieux décrire ces principes, prenons un exemple : la création d’un arbre virtuel.

    Un arbre inclue une multitude d’éléments de différentes dimensions, structurés en distributions aux propriétés statistiques spécifiques du fait des lois biologiques qui le régissent. Il s’agit d’offrir à l’utilisateur la capacité de créer rapidement un arbre 3D particulier dans sa forme, mais plausible, alors même que modéliser les milliers de branches qui le composent demanderait des connaissances spécifiques et serait extrêmement fastidieux.

    Plutôt que d’aborder une telle tâche directement en 3D, l’utilisation d’une métaphore de dessin 2D, inspirée de la manière dont un artiste ébauche rapidement un arbre puis précise progressivement son dessin, peut permettre d’accélérer considérablement cette tâche : l’utilisateur dessine en un seul geste le contour de l’arbre ; le système s’appuie sur des lois géométriques et biologiques pour en déduire la structure interne de premier niveau, c’est-à-dire la position des plus grosses branches, que l’utilisateur peut corriger manuellement s’il le souhaite. Cette idée de passer par un seul trait – une silhouette – est un exemple de méthode de passage à l’échelle : tandis que l’utilisateur garde un contrôle global sur la forme, la machine gère les détails, et ce de manière probablement plus réaliste qu’il ne l’aurait fait. A l’aide d’un gros plan sur l’une des sous-structures associées, l’utilisateur peut alors raffiner localement son dessin, et ainsi de suite sur plusieurs niveaux, jusqu’à aboutir au dessin d’une ou plusieurs feuilles. Tandis qu’il revient vers une vue d’ensemble, les structures dessinées sont automatiquement complétées par la génération de distributions aléatoires de sous-branches sur les branches voisines de même niveau, tout en vérifiant les mêmes propriétés statistiques que les parties dessinées. Chaque élément est également plongé en 3D de manière plausible, grâce encore une fois au respect de certaines lois biologiques. Enfin, des branches venant vers l’avant et partant vers l’arrière sont ajoutées. Ainsi, un arbre complet peut-être créé en quelques gestes.

    Marie-Paule Cani illustration-2Création d’un arbre 3D par dessin multi-résolution.
    À chaque niveau d’échelle, la structure est déduite
    d’un trait de silhouette (en vert) dessiné par l’utilisateur.
    Les détails sont générés, dupliqués et passés en 3D
    en utilisant des lois biologiques © Grenoble-INP, Inria, Cirad 

    Supposons maintenant que l’utilisateur veuille étirer son modèle, pour rendre cet arbre, disons, moitié plus haut : ici, le geste intuitif associé consiste probablement en un geste d’écartement de deux doigts posés sur l’arbre, dans la direction verticale, comme pour zoomer sur un texte. Un tel geste peut facilement être reconnu et associé à un étirement. Cependant, si des représentations graphiques classiques sont utilisées, chaque branche de l’arbre va alors s’épaissir verticalement, et les feuilles qu’elles portent vont s’étirer dans la même direction, rendant l’ensemble totalement irréaliste… Est-ce que l’utilisateur ne s’attendrait pas plutôt à ce que le tronc s’étire, mais à ce que les branches qui en partent se dupliquent et que de nouvelles sous-branches et feuilles similaires aux précédentes y soient placées ? Comme le montre cet exemple, l’incorporation de connaissances a priori (comme le fait que certains éléments répétitifs doivent être dupliqués et non étirés) est indispensable à la conception de modèles graphiques répondant de manière intuitive aux gestes de création.

    Conclusion

    La modélisation expressive est un nouveau courant de recherche en informatique graphique, visant à faire du média numérique un support de création 3D accessible à tous, et permettant aussi bien de façonner des formes isolées pouvant être imprimées, que de concevoir et animer en quelques gestes des mondes virtuels complexes. De nombreux défis restent à relever pour atteindre ces objectifs. Parmi eux, l’extension des méthodes proposées à des assemblages de formes animées, combinant contrôle des mouvements par l’utilisateur et réalisme visuel, n’est pas la moindre des difficultés.

    Le support idéal, permettant d’observer des objets à peine entrevus mentalement, d’ébaucher leur mouvement avant même que les formes ne soient vraiment précises, puis de raffiner progressivement ces contenus jusqu’à une œuvre aboutie, n’existe pas encore. Mais les avancées actuelles permettent d’énoncer un certain nombre de principes qui permettront d’atteindre ce but, comme l’alchimie créée par l’injection de connaissances dans les modèles, mariée à des gestes de création intuitifs. Comme dans le monde réel, tout l’art consiste à cacher à l’utilisateur la complexité de ce qu’il manipule : déchargé des tâches répétitives et de la gestion de contraintes difficiles à maintenir, l’être humain augmenté par l’outil numérique pourra lâcher plus largement la bride à son imagination. Les progrès sont rapides, et tout laisse présager que cette révolution de la création numérique changera durablement l’activité humaine.

    Marie-Paule Cani, Professeure à Grenoble INP

    1Du nom du symposium international EXPRESSIVE créé depuis quatre ans pour rassembler les recherches sur les nouveaux média de création, dont l’art numérique, la modélisation 3D par esquisses, l’animation et le rendu non photo-réalistes.

  • L’estimation de Good-Turing

    Toujours autour de la sortie d’« Imitation Game »,  Colin de la Higuera aborde pour Binaire des résultats obtenus par Alan Turing avec un collègue, Jack Good. Les travaux en statistiques de Good ont permis de dégager les principes de l’analyse Bayésienne, dont les succès dans l’analyse de l’incertain sont aujourd’hui essentiels. Plus surprenant est le rôle de Good comme conseiller  scientifique du film « 2001 ou l’Odyssée de l’Espace » de Kubrick.  Serge Abiteboul.

    Après avoir observé pendant un an des oiseaux, listé et compté ceux-ci, puis-je calculer la probabilité que le premier oiseau que je vois, demain matin, soit un étourneau ? Si par le passé, sur mes 1000 observations, 10 ont correspondu à des étourneaux, l’estimation la plus raisonnable est que j’ai une chance sur 100 de voir un étourneau. Mais quelle doit être mon estimation si je n’ai jamais vu d’étourneau ?

    C’est à ce genre de question qu’étaient confrontés Alan Turing et Jack Good en 1941, quand ils cherchaient à casser les codes produits par les machines Enigma. Si les machines utilisées par la Wehrmacht et la Luftwaffe étaient déjà victimes  – sans le savoir – des attaques des équipes d’Alan Turing à Bletchley Park, la marine Allemande, elle, avait modifié la machine suffisamment pour que le problème de cryptanalyse soit bien plus complexe. En particulier, chaque matin, 3 caractères étaient choisis (le trigramme) et servaient de configuration de base de 3 rotors de la machine pour la journée. Le choix du trigramme du jour s’effectuait dans un livre que les Anglais n’avaient pas. Il arrivait que le livre s’ouvre sur une page déjà vue, que l’opérateur allemand prenne le premier trigramme de la page et cela donnait donc une répétition. Mais il arrivait aussi que le trigramme du jour soit entièrement nouveau. Pour répartir l’effort de cryptanalyse, il était important d’estimer correctement ces deux cas. Ce qui revient  à calculer la probabilité que le trigramme soit nouveau.

    À première vue, cela peut sembler impossible : comment prévoir quelque chose qui n’est jamais arrivé ?

    640px-EnigmaMachineLabeledLa machine Enigma

    Revenons un instant à nos oiseaux et commençons par admettre que la probabilité de voir un oiseau jamais vu auparavant soit différente dans les deux cas extrêmes suivants :

    (A) Les 1000 observations correspondent à un seul et même oiseau, le moineau,
    (B) Les 1000 observations correspondent à des oiseaux tous différents.

    Good et Turing ont obtenu une formule qui explique pourquoi la probabilité de voir un nouvel oiseau est bien plus grande dans le cas (B) que dans le cas (A). Pour estimer la masse totale de probabilité à répartir entre les événements non observés, il est possible d’utiliser le nombre d’observations uniques. Ainsi, plus on aura observé d’événements une seule fois, plus la probabilité que le prochain événement soit nouveau augmente.

    Good et Turing eux, s’intéressaient aux configurations de départ de la machine Enigma. Leur formule s’est avérée trop compliquée pour être utilisée directement (car il faudrait également tenir compte des événements observés 2 fois, 3 fois,…). Il fallait un algorithme astucieux pour réaliser ce calcul.

    Des travaux ultérieurs basés sur cet algorithme vont apporter des outils précieux dans de nombreuses applications informatiques. Un exemple est  la reconnaissance de la parole, où il s’agit de décider si une suite de syllabes correspond (approximativement) à un mot du dictionnaire ou s’il s’agit d’un mot inconnu, peut-être le nom d’une personne ou d’un lieu.

    Colin de la Higuera

    Pour aller plus loin :

    Pour une présentation en Anglais, on peut se référer à l’article de David McAllester et Robert E. Schapire.

    On peut trouver sur le web d’excellentes nécrologies (toutes en Anglais) de Jack Good ou l’article de Wikipedia.

  • Le climat dans un programme informatique ?

    Entretien autour de l’informatique : Olivier Marti, climatologue

    Selon l’Agence américaine océanique et atmosphérique et la Nasa, l’année 2014 a été la plus chaude sur le globe depuis le début des relevés de températures en 1880. (Voir l’article de l’Obs). Depuis les débuts de l’informatique, la climatologie se nourrit des progrès de l’informatique et du calcul scientifique, et en même temps leur propose sans cesse de nouveaux défis. Dans un entretien réalisé par Christine Froidevaux et Claire Mathieu, Olivier Marti, climatologue au Laboratoire des  Sciences du Climat et de l’Environnement, explique ses recherches en calcul scientifique et développement de modèles pour la climatologie, un domaine exigeant et passionnant.

    Cet entretien parait simultanément en version longue sur le blog Binaire et en raccourcie sur 01Business.

    OlivierMarti_3Olivier Marti

    Le métier de climatologue

    B : Qu’est-ce qui vous a amené à travailler en climatologie ?
    OM : Dans ma jeunesse, j’ai fait de la voile. J’avais une curiosité pour la mer et un goût pour la géographie. J’ai choisi de faire l’ENSTA pour faire de l’architecture navale. Là, j’ai choisi l’environnement marin (aspect physique, pas biologie), et j’ai fait une thèse en modélisation, sur les premiers modèles dynamiques de  l’océan ; au début, on ne parlait pas beaucoup de climatologie, ça s’est développé plus tard. Il y a un aspect pluridisciplinaire important, ma spécialité étant la physique de l’océan. J’ai ensuite été embauché au CEA et ai travaillé sur les climats anciens. Par exemple, l’étude du climat du quaternaire amène à étudier l’influence des paramètres orbitaux sur le climat.

    B : En quoi consiste votre métier ?
    OM : Je fais du développement de modèle. Il faut assembler des composants : un modèle d’océan, un modèle d’atmosphère etc. pour faire un modèle du climat. Mais quand on couple des modèles, c’est-à-dire, quand on les fait évoluer ensemble, on rajoute des degrés de liberté et il peut y avoir des surprises. Il faut qu’informatiquement ces objets puissent échanger des quantités physiques. C’est surtout un travail empirique. On réalise beaucoup d’expériences en faisant varier les paramètres des modèles. C’est vrai aussi que depuis 25 ans, on se dit qu’il faudrait pousser plus loin les mathématiques (convergence numérique, stabilité, etc.), marier calcul scientifique et schémas numériques. En climatologie, on n’a pas accès à l’expérience, c’est mauvais, du point de vue de la philosophie des sciences. On peut faire quelques expériences en laboratoire, mettre une plante sous cloche avec du CO2, mais on n’a pas d’expérience pour le système complet. La démarche du laboratoire est donc de documenter l’histoire du climat. Il y a d’abord un travail de récolte et d’analyse de données, puis une phase de modélisation : peut-on mettre le “système Terre” en équations ?

    B : Allez-vous sur le terrain?
    OM : J’y suis allé deux fois. En général, on fait en sorte que les gens qui manipulent les données sur l’ordinateur aient une idée de comment on récolte ces données, pour qu’ils se rendent compte, par exemple, qu’avoir 15 décimales de précision sur la température, c’est douteux. J’ai fait une campagne en mer, de prélèvement de mesure d’eau de mer et d’éléments de biologie marine. Lors des campagnes en mer, la plupart des analyses se font en surface sur le bateau : on a des laboratoires embarqués sur lesquels on calibre le salinomètre, etc. J’ai aussi fait une campagne dans le désert du Hoggar, pendant une semaine, pour récolter les sédiments lacustres (il y a 6000 ans, là-bas, il y avait des lacs). Récolter les pollens qui sont dans les sédiments, ça exige des procédés chimiques un peu lourds, donc on ne le fait pas sur place.

    Hoggar-Grenier-230Collecte de données dans le Hoggar

    B : Qu’est-ce qui motive les chercheurs en climatologie ?
    OM : Il n’y a pas un seul profil, car c’est pluridisciplinaire. Chez nous, il y a des gens qui viennent de la dynamique des fluides et d’autres de l’agronomie. Ce n’est pas forcément facile de travailler ensemble ! Les gens qui font du calcul scientifique, quand ils arrivent, n’ont pas de compétences en climatologie, mais en travaillant sur les climats, ils ont l’impression d’être plus utiles à la société que s’ils développaient un logiciel pour faire du marketing par exemple. Ils participent à un projet d’ensemble qui a un rôle dans la société qui est positif, et c’est motivant.

    B : Quels sont les liens de votre domaine avec l’informatique ?
    OM : On évite d’utiliser le mot « informatique », car cela regroupe des métiers tellement différents. L’informatique en tant que discipline scientifique est bien sûr clairement définie, mais assez différemment de son acception par l’homme de la rue. Nous parlons de calcul scientifique. L’équipe que je dirigeais s’appelle d’ailleurs CalculS. Dans ma génération, si des personnes telles que moi disaient qu’elles faisaient de « l’informatique », elles voyaient débarquer dans leur bureau des collègues qui leur demandaient de “débugger » les appareils. Il y avait une confusion symptomatique et j’aurais préféré que le mot «informatique» n’existe pas. La Direction Informatique du CEA regroupait bureautique et calcul scientifique. Maintenant au contraire, le calcul scientifique ne dépend plus de la direction informatique. Les interlocuteurs comprennent mieux notre métier. Notre compétence n’est pas le microcode, et nous ne savons pas enlever les virus des ordinateurs.

    Développer des modèles

    B : Utilisez-vous des modèles continus ou discrets ?
    OM : Les zones géographiques sont représentées par une grille de maille 200 km (l’océan a une grille plus fine). Le temps, qui est la plus grande dimension, est discret, et on fait évoluer le système pas à pas. Il faut entre 1 et 3 mois pour simuler entre 100 et 1000 ans de climat. On ne cherche pas à trouver un point de convergence mais à étudier l’évolution… On s’intéresse à des évolutions sur 100 000 ans ! Il y a des gens qui travaillent sur le passé d’il y a 500 millions d’années, et d’autres sur le passé plus récent. Nous, on essaie de travailler sur le même modèle pour le passé et pour le futur. Donc, par rapport aux autres équipes de recherche, cela implique qu’on n’ait pas un modèle à plus basse résolution pour le futur et un autre à plus haute résolution pour le passé. L’adéquation des modèles sur le passé est une validation du modèle pour le futur, mais on a une seule trajectoire du système – une seule planète dont l’existence se déroule une seule fois au cours du temps. Nos modèles peuvent éventuellement donner d’autres climats que celui observé, et cela ne veut pas forcément dire qu’ils sont faux, mais simplement qu’ils partent d’autres conditions initiales. On peut faire de la prévision climatique, mais on ne peut pas travailler sur des simulations individuelles, il faut étudier des ensembles. En particulier, les effets de seuil sont difficiles à prédire. On a besoin de puissance de calcul.

    B : Dans votre domaine, y a-t-il des verrous qui ont été levés ?
    OM : Cette évolution a eu lieu par raffinements successifs. Maintenant on sait que ce sont plutôt les paramètres orbitaux qui démarrent une glaciation, mais que le CO2 joue un rôle amplificateur, et on ne comprend pas complètement pourquoi. On se doute qu’aujourd’hui le climat glaciaire s’explique en partie parce que l’océan est capable de piéger plus de CO2 en profondeur, et je travaille en ce moment pour savoir si au bord du continent antarctique, où l’océan est très stratifié, on peut modéliser les rejets de saumure par la glace de mer ; on essaie de faire cette modélisation dans une hiérarchie de modèles pour voir s’il y a une convergence, ou pour quantifier tel phénomène qu’on n’avait pas identifié il y a 30 ans et qui joue un rôle majeur. L’effet  de la saumure est variable selon qu’elle tombe sur le plateau continental ou non. Pour modéliser ces effets, il faut représenter la topographie du fond marin de façon fine, mais là on tombe sur un verrou, parce qu’on ne sait pas modéliser le fond de l’océan. On alterne les simulations longues à basse résolution simplifiée des rejets de sel, avec les modèles à plus haute résolution. Il y a des verrous qui sont levés parce qu’on sait faire des mesures plus fines au spectromètre et parce que la puissance de calcul augmente.

    B : Dans dix ou vingt ans, qu’est-ce que vous aimeriez voir résolu?
    OM : D’une part, en tant qu’océanographe, j’aimerais comprendre toute la circulation au fond de l’océan – c’est quelque chose de très inerte, de très lent, sauf quelques courants un peu plus rapides sur les bords. Il y a des endroits de l’océan qui sont très isolés à cause du relief. Je voudrais des simulations fines de l’océan pour comprendre son évolution très lente. On progresse, et un jour ce sera traité à des échelles pertinentes pour le climat.
    D’autre part, dans l’atmosphère, on tombe sur d’autres problèmes – ainsi, les grands cumulo-nimbus tropicaux, ce sont des systèmes convectifs. Quand on a une maille à 100 km, on essaie d’en avoir une idée statistique. Quand on a une maille à 100 m, on résout ces systèmes explicitement. Mais entre les deux, il y a une espèce de zone grise, trop petite pour faire des statistiques mais trop grande pour faire de la résolution explicite. Dans 50 ans, on pourra résoudre des systèmes convectifs dans des modèles du climat. On commence à avoir la puissance de calcul pour s’en rapprocher.
    Plus généralement c’est un exercice assez riche que de prendre des phénomènes à petite échelle et d’essayer de les intégrer aux phénomènes à grande échelle géographique, pour voir leur effet. L’écoulement atmosphérique est décrit par les équations de Navier-Stokes mais on ne peut pas résoudre toute la cascade d’effets vers les petites échelles, alors on fait de la modélisation. On se dit : il doit y avoir une certaine turbulence qui produit l’effet observé sur l’écoulement moyen. On observe les changements de phase, et il y a tout un travail pour essayer de modéliser cela correctement.
    Mais c’est très difficile, dans les articles scientifiques, quand quelqu’un a fait un progrès en modélisation, de le reproduire à partir de l’article – d’une certaine façon, cette nouvelle connaissance est implicite. L’auteur vous donne ses hypothèses physiques, ses équations continues, mais ne va pas jusqu’à l’équation discrète et à la façon dont il a codé les choses, ce qui peut être une grosse partie du travail. On commence désormais à exiger que le code soit publié, et il y a des revues dont l’objectif est de documenter les codes, et dont la démarche est de rendre les données brutes et les codes disponibles. Sans le code de l’autre chercheur, vous ne pouvez pas reproduire son expérience. Mais ce sont là des difficultés qui sont en voie de résolution en ce moment.

     compterUn supercalculateur

    Les super-calculateurs sont de plus en plus complexes à utiliser.

    Dans mon travail, je suis plutôt du côté des producteurs de données. Il y a des climatologues qui vont prendre les données de tout le monde et faire des analyses, donc vous avez un retour sur vos propres simulations, ce qui est extrêmement riche. C’est très intéressant pour nous de rendre les données disponibles, car on bénéficie alors de l’expertise des autres équipes. Cela nous donne un regard autre sur nos données. D’ailleurs, il y a  une contrainte dans notre domaine : pour les articles référencés dans le rapport du GIEC, les données doivent obligatoirement être disponibles et mises sous format standard. C’est une contrainte de garantie de qualité scientifique.

    B : Y a-t-il libre accès aux données à l’international ?
    OM : Tous les 6 ou 7 ans, le rapport du GIEC structure les expériences et organise le travail à l’international. Il y a eu une phase, il y a 10 ans, où on  voulait rassembler toutes les données dans un lieu commun, mais ce n’est pas fiable, il y a trop de données. Maintenant on a un portail web (ESGF) qui permet d’accéder aux données là où elles sont. Les gens peuvent rapatrier les données chez eux pour les analyser mais quand il y a un trop gros volume, pour certaines analyses, ils sont obligés de faire le travail à distance.

    B : Parlons du « déluge de données, du big data. Vous accumulez depuis des années une masse considérable de données. Il y a aussi des problèmes pour les stocker, etc.
    OM : Le big data, pour nous, c’est très relatif, car il y a plusieurs ordres de grandeur entre les données que nous avons et ce qu’ont Google ou Youtube par exemple. 80% du stockage des grands centres de la Recherche publique est le fait de la communauté climat-environnement. Notre communauté scientifique étudie la trajectoire du système, pas l’état à un seul instant. Il y a des phénomènes étudiés sur 1000 ans pour lesquels on met les données à jour toutes les 6 heures (les gens qui étudient les tempêtes par exemple). Mais c’est vrai que le stockage devient un problème majeur pour nous. GENCI finance les calculateurs, mais ce sont les hébergeurs de machines, le CNRS etc., qui financent les infrastructures des centres.

    B : Qu’est-ce que les progrès de l’informatique ont changé dans votre domaine, et qu’est-ce que vous pouvez attendre des informaticiens ?
    OM : Il y a une plus grande spécialisation. Lorsque j’étais en thèse, un jeune doctorant avait les bases en physique, mathématiques et informatique pour écrire un code qui tournait à 50% de la puissance de la machine. On n’avait pas besoin de spécialiste en informatique. Les physiciens apprenaient sur le tas. Maintenant l’évolution des machines fait qu’elles sont plus difficiles à programmer en programmation parallèle pour avoir un code pertinent et performant, et du coup  les physiciens doivent collaborer avec des informaticiens. Les super-calculateurs sont de moins en moins faciles à utiliser.  En ce qui concerne la formation, les jeunes qui veulent faire de la physique, et arrivent en thèse pour faire de la climatologie ne sont pas du tout préparés à utiliser un super-calculateur. Ils commencent à être formés à Matlab et à savoir passer des équations à des programmes, mais quand on met entre leurs mains un code massivement parallèle en leur disant de modifier un paramètre physique, on a vite fait de retrouver du code dont la performance est divisée par 10, voire par 100 ! On a besoin de gens  qui comprennent bien l’aspect matériel des calculateurs, (comprendre où sont les goulots d’étranglement pour faire du code rapide), et qui sachent faire des outils pour analyser les endroits où ça ralentit. En informatique, les langages de programmation ont pris du retard sur le matériel. Il y a un travail qui est très en retard, à savoir, essayer de faire des langages et compilateurs qui transforment le langage du physicien en code performant. Il faut beaucoup d’intelligence pour masquer cette complexité à l’utilisateur. Aujourd’hui c’est plus difficile qu’il y a vingt ans.

    B : Votre travail a-t-il des retombées sociétales ou économiques ?
    OM : Nos docteurs sont embauchés chez les assureurs, cela doit vouloir dire que notre travail a des retombées pour eux ! Il y a aussi EDF qui s’intéresse à avoir une vision raisonnable de ce que sera le climat pour l’évolution des barrages, l’enfouissement des déchets nucléaires, etc. Mais, la « prévision du climat », on en a horreur : nous, on fait des scénarios, mais on ne peut pas maîtriser, en particulier, la quantité de gaz à effet de serre qui seront rejetés dans l’atmosphère par l’homme. On fait des scénarios et on essaie d’explorer les climats possibles, mais on évite de parler de prévisions. On participe vraiment à la collaboration internationale pour essayer de faire des scénarios climatiques. Il y a une partie validation – la partie historique, instrumentale, bien documentée, qui permet de voir quels sont les modèles qui marchent bien – et une partie où on essaie de comprendre ce qui ne marche pas. Il y a toute une problématique de mathématiques et statistiques pour l’évolution dans le futur.

    B : Y a-t-il beaucoup de femmes chercheurs dans votre domaine?
    OM : Cela dépend de ce qu’on appelle « mon domaine ». Dans le laboratoire, il y a un bon tiers de femmes. Mais c’est qu’on est dans les sciences de la Terre. En biologie, il y en a plus de la moitié. Dans les sciences dures, en physique, il y en a moins. Dans les réunions de climatologues, il y a environ un tiers de femmes. Mais dès qu’on est dans une réunion d’informaticiens la proportion chute à moins de 10%. C’est extrêmement frappant. Il y a plus de femmes, mais dans la partie informatique et calcul scientifique, cela ne s’améliore pas beaucoup.

    B : Y a-t-il autre chose que vous aimeriez ajouter?
    OM : Il faut faire attention de distinguer modélisation et simulation. Nous, on fait de la modélisation : on commence par faire un modèle physique, puis on discrétise pour faire un modèle numérique, puis on fait du code. La simulation c’est ce que vous faites une fois que vous avez le code, le modèle informatique.

    Olivier Marti, CEA, Laboratoire des Sciences du Climat et de l’Environnement

    DemarcheSimulationLa démarche itérative de la simulation

  • Des fourmis et des chercheurs

    Aux confins de notre monde, une armée pacifique d’hommes et de femmes explorent l’inconnu. Cette exploration est déterminante pour notre société. Elle fournit à chaque instant la matière sur laquelle sera construit le monde de demain, et constitue par l’accumulation de connaissances notre réserve de progrès et d’adaptation.
    Le texte que nous propose Christophe Godin, Directeur de Recherche chez Inria, dépasse le cadre de l’informatique, même si les images sur lesquelles il s’appuie sont bien de ce domaine.

    Ray-Clid 2014@Rayclid 2014

    Note à l’attention des décideurs pour un système de recherche efficace qui tire la croissance puissamment vers le haut.

    « Ah vous êtes chercheur ? … mais la société a besoin de trouveurs pas de chercheurs ! »

    Dans ma vie extra-professionnelle, j’ai comme beaucoup de collègues chercheurs, souvent été confronté a cette boutade en demi teinte, un soupçon ironique, lancée à l’occasion d’une soirée ou d’une réunion de famille. Un peu dans l’embarras, et touché certainement dans mon amour-propre, j’essaie le plus souvent de répondre en montrant en quoi mon domaine de recherche, mes recherches sont tellement importantes pour la société. En vain… la distance est trop grande, le temps trop court, le vocabulaire trop étriqué, l’expérience trop différente, et finalement le lien trop ténu… Une évidence qui finalement n’en est pas une.

    Pourtant, cette boutade, dont la paternité est souvent attribuée à tort semble-t-il au Général De Gaulle (voir l’article de Pierre-Carl Langlais du 18/10/2014), pose trois questions essentielles sur la fonction du chercheur dans la société. Premièrement, la recherche est-elle utile à notre société ? Après tout la grande masse des individus de la société ne sont pas chercheurs. Ne pourrait-on pas tout simplement se passer de cette activité dont on n’a pas toujours l’impression qu’elle est essentielle, ici et maintenant ? Deuxièmement, en admettant tout de même que la société ait besoin de chercheurs, a-t-elle besoin d’une telle masse de chercheurs (dont une grande partie sont en France des fonctionnaires) pour progresser dans la connaissance et faire des découvertes ? Les chercheurs qui cherchent et ne trouvent pas ne sont ils pas inutiles ? Ne pourrait-on pas faire beaucoup d’économies en appointant uniquement des chercheurs qui trouvent ? Ne pourrait-on plus efficacement utiliser l’argent du contribuable en formant des trouveurs plutôt que des chercheurs, des sortes de super-chercheurs qui, en plus de chercher, trouveraient ?

    Et finalement, la recherche est-elle un bien ou un mal ? C’est la recherche qui permet de trouver de nouveaux vaccins, de construire des avions plus rapides, de rester en contact malgré les distances. Mais c’est également la recherche qui engendre des applications dont le risque mal évalué conduit à des accidents comme ceux de Tchernobyl ou de Fukushima, à l’accumulation de pollutions (gaz à effet de serre, déchets dangereux ou massifs) dont l’impact est maintenant mondial. En arrêtant de financer la recherche, ne supprimerions nous pas bien des maux dont souffre aujourd’hui notre société ? Ces questions sont tout à fait légitimes, et il faut y répondre. Cependant, je me suis progressivement rendu compte qu’elles ne posent pas le problème correctement (d’où mon embarras à y répondre), et que l’apparent bon sens derrière ces questions est en réalité lié à un malentendu commun mais, à terme, dangereux sur la fonction de chercheur dans la société.

    Formica_rufa_a1
    Source Wikimedia Adam Opiola

    Pour le comprendre, observons le comportement des fourmis. Vous vous êtes sans doute comme moi étonné au printemps de la terrible efficacité des fourmis pour repérer toute trace de nourriture : le moindre insecte mort, de morceau de sucre ou de pain tombé sur le sol est après quelques minutes seulement envahi de fourmis et acheminé vers la fourmilière dans un convoi ininterrompu. Cette efficacité n’est bien sur pas un hasard. C’est le fruit d’un processus comportemental sélectionné par la nature pour son efficacité redoutable. Pour explorer le territoire autour de la fourmilière, des fourmis spécialisées dans l’exploration se déplacent selon une trajectoire un peu aléatoire. L’ensemble des trajectoires de ces exploratrices réalise en permanence un maillage assez fin de la surface entière du territoire, de sorte qu’une source de nourriture sera vite repérée où qu’elle soit. En revenant à la fourmilière, une fourmi ayant fait une telle découverte, indique par l’odeur qu’elle dépose sur le chemin aux autres fourmis le lieu de sa découverte, attirant ainsi vers la source de nourriture très rapidement ses congénères qui intensifient alors l’exploitation du filon.

    Il est intéressant de s’arrêter un instant sur ce sur quoi repose une stratégie aussi efficace :

    1. les acteurs (les fourmis) sont nombreux et autonomes ;
    2. ils se déplacent en partie aléatoirement ;
    3. tous travaillent simultanément ;
    4. une fois une source de nourriture trouvée, un mécanisme collaboratif se met en œuvre afin de permettre aux fourmis d’exploiter cette source rapidement.

    En réalité, cette stratégie affinée par la nature pour explorer et exploiter une espace donné avec efficacité a une nature universelle. Elle peut être mise en œuvre par bien d’autres systèmes que celui des fourmis dès qu’il s’agit d’explorer un espace vaste et de découvrir en un temps raisonnable des éléments d’intérêt dans celui-ci. C’est en particulier en partie comme cela que la recherche procède chez les hommes.

    Pour les hommes, l’espace à explorer est le monde physique et biologique ainsi que le monde conceptuel que l’on peut construire par abstraction et déduction (monde économique, sociologique, mathématique, numérique). Cet espace est gigantesque, bien plus vaste que ce que nous pouvons imaginer. Pourtant, à travers l’histoire des sciences et des technologies, nous savons qu’il recèle une quantité formidable de sources de nouvelles connaissances et de propriétés à découvrir. Pour explorer cet espace, nous avons petit à petit mis en place une stratégie implacable, comparable à celle des fourmis : des individus spécialisés (les chercheurs) explorent cet espace et développent des trajectoires (travaux de recherche) qui ensemble couvrent à tout moment une grande partie de l’espace à explorer. Lorsqu’ils font une découverte, ils laissent une trace pour leurs collègues (publication) qui permet à toute la communauté de repérer et d’exploiter la nouvelle mine de savoir ainsi dévoilée. Il existe bien sûr une disparité dans la capacité de recherche, les compétences, l’intuition et l’efficacité de chacun des acteurs (comme chez les fourmis sans doute). Mais c’est bien l’ensemble de ces trajectoires et leur nombre qui garantit la terrible efficacité de notre système de recherche dans son ensemble. Et c’est là le point essentiel !

    fourmiliere
    Source : ElPadawan

    Comme toutes les métaphores, celle de l’organisation distribuée des fourmis explorant leur espace dans un mouvement essentiellement aléatoire a des limites lorsqu’on la compare à l’activité de recherche humaine. La plus importante est sans doute que les fourmis sont des acteurs doués de facultés de raisonnement limitées. Pour autant, elle nous fournit une grille de lecture très utile pour penser l’efficacité de notre système de recherche actuel et sa gouvernance. C’est ce point que j’aimerais maintenant discuter. Cette grille fait apparaitre 4 principes fondamentaux sous-tendant un système de recherche efficace :

    • Principe des moyens exploratoires
      Le premier principe est qu’il faut laisser les chercheurs faire ce pour quoi ils sont formés et payés : explorer systématiquement l’espace inconnu autour de nous tous. La condition principale d’une telle recherche est le temps : il faut laisser aux chercheurs l’essentiel de leur temps pour chercher. C’est un point d’une importance capitale, mais dont la fragilité tient en ce que, s’il n’est pas assuré, il est très difficile pour le système de détecter immédiatement qu’il y a un problème ; les effets se feront ressentir des années plus tard. Si on ne laisse pas suffisamment de temps d’exploration aux chercheurs, l’espace inconnu parcouru par l’ensemble de la communauté sera de faible étendue et le risque de passer à côté des découvertes clés largement accru. Ainsi, si on estime que l’efficacité d’un chercheur pour la communauté croit en proportion du temps qu’il met dans son exploration du monde, alors on voit bien que l’accumulation de tâches secondaires, non directement liées à ses capacités de chercheur (tâches administratives, tâches d’évaluation, rapports, rédaction de projets, tronçonnage excessif des publications pour faire « du chiffre », etc.) va nécessairement se faire au détriment de son travail d’exploration. Voir à ce sujet le témoignage de Marco Zito, physicien au Commissariat à l’Énergie Atomique : « Pris dans l’engrenage« . Il est essentiel pour bien prendre la mesure de l’ampleur du problème de rappeler les deux processus majeurs qui amputent aujourd’hui régulièrement des pans entiers au temps que les chercheurs peuvent consacrer à leur exploration.

      1. La surenchère de création de structures qui a sévi dans la dernière quinzaine d’années a eu des conséquences dévastatrices sur notre capacité de recherche. On a vu foisonner dans les dernières années un nombre incalculable de structures liées à l’organisation de la recherche UMR, UPR, IFR, FDR, USR, COMUE, PRES, Pôles d’excellence, Instituts Carnot, Alliances, LABEX, IDEX, EQUIPEX, Fondations, pôles de compétitivité, projets d’avenir, etc. La liste est longue.  Toutes ces structures s’empilent en un écheveau émergent d’une grande complexité où se multiplient à l’infini les tâches administratives des chercheurs qui appartiennent souvent à nombre d’entre elles. Le système s’étouffe de lui même, au point que l’académie des science a adressé à la sphère politique  des recommandations d’urgence pour simplifier du système et qui sont pour le moment pour l’essentiel restées lettre morte. (Voir son rapport.)
      2. Depuis une vingtaine d’années, les chercheurs consacrent de plus en plus de leur temps dans des processus compétitifs à l’échelle nationale et européenne pour obtenir des moyens de recherche. Cette stratégie peut inciter les collaborations entre équipes de recherche et fournir des compléments de moyens pour réaliser des projets innovants. Pourtant, poussée trop loin, elle est simplement naïve et dangereuse pour l’ensemble du système car elle détourne de façon significative les chercheurs de leur travail d’exploration (voir par exemple l’article de John Ionnadis dans la revue Nature).
    • Principe de complétude exploratoire
      Il est essentiel d’encourager les chercheurs à explorer tous les compartiments de l’espace inconnu qui nous entoure (et non seulement une partie de celui-ci). C’est cette complétude du balayage de l’espace de recherche qui peut garantir la meilleure efficience des découvertes (comme pour les fourmis). Ce mouvement d’exploration systématique prend sa source à l’échelle des équipes de recherche : il est l’équivalent du déplacement aléatoire des fourmis. Il n’est pas dirigé par une instance supérieure qui prétendrait savoir où chercher. C’est lui qui garantit la performance de découverte de l’ensemble du système. L’alternative est de laisser un individu ou un groupe décider pour la nation de ce qui est le plus prometteur en matière de retombées sociétales. Or, il est extrêmement difficile à quiconque de prédire dans quel domaine vont être faites les prochaines découvertes les plus significatives pour la société. Un exemple célèbre est celui de la vaccin contre la rage, ou celui de la découverte de pénicilline en médecine, d’autres sont ceux des découvertes de la radioactivité en physique, de l’invention des transistors en électronique, ou plus récemment celle du Web par exemple dans les sciences du numérique.
    • Principe de compétence des acteurs
      La nature de l’espace à explorer même exige que les chercheurs aient reçu une formation très spécifique. Il s’agit d’être capable de se déplacer dans ce monde des idées et de l’expérimentation. Ce type de « déplacement » exige une formation pointue, qui permette de reconnaitre les endroits où d’autres sont déjà passés, de trouver de nouvelles pistes (idées ou expériences) et de les mettre en œuvre. L’étape ultime de cet apprentissage est celle du doctorat. L’idée est qu’un jeune chercheur travaille pendant plusieurs années sur un sujet de recherche, et mette pour la première fois à l’épreuve du réel les compétences acquises au cours de sa formation théorique. Aujourd’hui, le temps de cet apprentissage a été réduit uniformément quelques soient les universités et les matières à 3 ans. Tous les financements sont obtenus pour cette durée. Les écoles doctorales au sein des universités sont évaluées sur leur capacité à faire respecter ces délais. Ceci est absurde.  Il est intéressant de noter qu’il en va tout autrement outre-Atlantique et que la durée d’une thèse peut être largement variable en fonction des cas. En revanche, il est essentiel de considérer ces jeunes chercheurs pendant toute leur période d’apprentissage comme des chercheurs à part entière et de les rémunérer en conséquence.
    • Principe de masse critique
      Le nombre de chercheurs doit être suffisant pour explorer l’espace accessible à la découverte. Ce point est également une pierre angulaire de tout le dispositif. Il se heurte aujourd’hui à deux difficultés. Il s’agit tout d’abord d’une crise des vocations et d’attractivité. Devant la grisaille des horizons qu’offre notre société, les jeunes sont de moins en moins attirés par un métier dont on ne sait plus bien ce qu’il constitue comme repère. Pour vouloir devenir un explorateur, il faut avoir envie de rêver le monde, d’inventer de nouveaux chemins, d’être convaincu que l’inconnu recèle un passage, une beauté cachés. Ce rêve est aujourd’hui comme un drapeau en berne. Il faut le raviver, susciter l’intérêt des plus jeunes pour le métier de chercheur, les faire rêver de leurs rêves. La recherche doit venir à leur contact, leur parler, les émerveiller, leur montrer la valeur intrinsèque de la connaissance et le plaisir de chercher. Il faut, au-delà encore, que notre espace de recherche national attire les esprits scientifiques étrangers, ou favorise le retour de chercheurs français un temps expatriés, et que tous aient l’ambition de faire ou de poursuivre leur parcours exploratoire sur un territoire fertile et stimulant. A l’attractivité scientifique, il faut adjoindre une attractivité financière. Si en général les chercheurs ne travaillent pas pour devenir riches, ils sont en revanche très sensibles à la reconnaissance que leurs collègues ou que la société pour laquelle ils travaillent leur témoignent. Le salaire est l’une des formes importante de cette reconnaissance. Enfin, pour atteindre une masse critique à la fertilité des découvertes, jouer sur les leviers des vocations ou de l’attractivité ne suffit pas. Il faut également qu’en fonction de sa taille la société se dote d’une densité d’explorateurs suffisamment importante pour répondre à ses attendus en matière de progrès, d’innovation, de compétition et d’adaptation.

    La recherche n’est bien sûr ni un bien ni un mal. Elle est la condition même de l’évolution de notre société. Il est essentiel que la société civile et les hommes et femmes politiques perçoivent cette réalité au delà des formes. Ainsi, l’exemple de l’organisation de l’exploration d’un territoire par les fourmis nous permet de prendre du recul sur la nature même et la fonction de l’activité de recherche dans nos sociétés. La comparaison de chercheurs à des fourmis, si elle est flatteuse pour les fourmis, n’en est pas moins utile pour analyser les enjeux derrière cette activité humaine très particulière, et finalement vitale à l’échelle de notre civilisation. C’est en reconnaissant la composante collective du travail de recherche que nous pourrons prendre les décisions adaptées à la manipulation de cet instrument complexe, mais tellement puissant si l’on s’en sert avec intelligence. Certains chercheurs, talentueux, audacieux et parfois chanceux (ou tout à la fois), vont être sous le feu des projecteurs. Et c’est très bien, car la société peut à travers eux prendre connaissance des fruits de l’immense effort consenti par tous : les contribuables, les entreprises qui investissent dans la recherche et les chercheurs eux-mêmes. Ils sont portés derrière eux par l’ensemble de la fourmilière des éclaireurs. Si la société a retenu le mot « chercheur » plutôt que celui de « trouveur », c’est bien qu’elle reconnait profondément la valeur essentielle de l’acte de chercher en soi ! Il ne nous reste qu’à accompagner dignement cette sagesse collective.

    … Vous rêviez de trouver ? J’en suis fort aise :
    Et bien ! Cherchez maintenant.

    Christophe Godin, Inria

    Pour aller plus loin

    • Quelques chiffres utiles sur la recherche française: « La dépense intérieure de recherche et développement s’élève à 45 milliards d’euros en 2011. Au total, 543 000 personnes participent à une activité de recherche en France dont 249 100 chercheurs (en équivalent temps plein). On compte 148 300 chercheurs dans les entreprises et 100 800 dans le publicEn 2012, la dépense intérieure de recherche et développement (DIRD) s’établit à 46,5 milliards d’euros, en hausse de 1,9 % en volume par rapport à 2011. »  rapport du Ministère de l’enseignement et de la recherche.
      Si l’on passait au même chiffre que l’Allemagne par exemple cela correspondrait à 60 milliards d’euros au lieu de 46.5 milliards d’euros en France, et 73 milliards d’euros si nous avions une politique similaire à la Finlande (soit 26 milliards d’euros en plus des 46.5 milliards d’euros du budget français R&D 2012).
      Comment déterminer alors la masse critique de chercheurs efficace pour une nation ? Il y aurait une étude complète à développer sur ce thème. Une solution pragmatique consiste à se reposer sur l’expérience comparée des différents pays. Par exemple, les chiffres donnant le pourcentage du PIB national utilisé pour la recherche et le développement par différents pays nous permet de faire une première estimation de cette densité. Par exemple, l’Espagne consacre 1.30% de son PIB à la recherche et au développement, l’Irlande 1.72, Royaume Uni 1.72, Pays-Bas 2.16, France: 2.26,  Etats Unis: 2.79, Allemagne: 2.92  Danemark: 2.98, Japon 3.39, Suède 3.41, Finlande: 3.55,  Israël: 3.93, Corée 4.05, Moyenne mondiale: 2.21 (ref  Banque Mondiale – dépenses en recherche et développement en % du PIB données 2012– ). Pour un pays comme la France, ce chiffre correspond actuellement à environ 100 000 chercheurs dans le secteur public. Un point supplémentaire (ce qui nous positionnerait à peu près au niveau du Japon) correspondrait à un investissement supplémentaire d’environ 20 milliards d’euros dans la recherche et le développement et 43 000 chercheurs supplémentaires (en supposant par exemple simplement que le nombre de chercheurs du public croit proportionnellement au PIB investi dans la recherche).
  • Osons les cours d’informatique à l’école

    Tout le monde s’accorde (ou presque) pour dire que l’informatique est indispensable. En revanche, il y a un point qui fait frémir : quels cours supprimeriez-vous pour l’enseigner ? Retrouvez la tribune sur Slate.fr datée du 8 décembre 2014 de Colin de la Higuera, président de la Société Informatique de France (SIF) et Gilles Dowek, président du conseil du scientifique de cet espace de réflexion, de concertation sur les enjeux de l’informatique qu’est la SIF.

     

  • Barbie est moins conne qu’on le dit

    Barbie est moins conne* qu’on le dit.
    Barbie is ultimately not that a dummy**.

    Lorsque Casey Fiesler, Doctorante en Sciences Informatiques, a vu les fils de ces média sociaux déborder d’indignation à propos de l’incommensurable maladresse de la bande dessinée « Barbie: I Can Be a Computer Engineer » elle a fait une chose tout à fait constructive et utile pour toutes et tous nos enfants. Elle a réécrit ce qu’aurait du être une telle histoire. Et met en partage « Barbie, remixed : je peux (vraiment !) être ingénieure en informatique ». Un auteur du blog voisin bigbrowser.blog.lemonde.fr nous explique sa démarche.

    À notre tour*** d’aider parents et enfants à ne pas être victimes de tels poncifs. À réaliser que nous avons besoin des deux moitiés de l’humanité à égalité pour avancer au mieux sur tous les sujets. Voici la version française, à lire, offrir et partager sans modération ! Même la Mère ou le Père Noël pourrait glisser ces huit feuillets au pied du sapin.

    Barbie revisitée : « Je peux être ... ingénieure en informatique »

    Colin, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.


    (*) Ici dans le sens de femme sotte, manquant d’intelligence et éventuellement prétentieuse.

    (**) [english traduction of this text] When Casey Fiesler, PhD student in Computer Science, discovered that her social media feeds have been full of outrage over the unboudned awkwardness of the comic « Barbie I Can Be a Computer Engineer » she simply did the constructive and useful think to do. For all small girls and boys: She rewrote what should have been such a story, i.e., « Barbie, remixed: I (really!) can be computer engineer« , as explained on bigbrowser.blog.lemonde.fr.
    It is our turn to contribute, helping parents and children not to be victims of such cliches. To help realizing that we need the two halves of humanity equaly treated to get the best on all subjects. Here is the French version of Casey’s work, to read, offer and share without moderation! Even Mother or Father Christmas can put some of them under the Christmas tree !

    (***) La traduction du travail de Casey Fiesler a été faite par Provence Traduction avec le soutien d’Inria .

  • Les blagues sur l’informatique #11 : parallélisme et maternité

    Après une longue pause, voici le retour des blagues (et de leurs explications, bien sûr !).
    Une blague d’informaticiens que vous ne comprenez pas ? Un Tee-shirt de geek qui n’a aucun sens pour vous ? Binaire vous explique l’humour des informaticien(ne)s!

    Neufs femmes ne peuvent pas faire un bébé en un mois.

    Cette citation attribuée à Fred Brooks montre la limite du parallélisme : si neuf femmes en travaillant pendant un mois chacune peuvent produire, par exemple, neuf mois de travaux scientifiques, et bien pour faire un bébé … difficile de paralléliser !

    En informatique aussi, le parallélisme consiste à utiliser plusieurs ordinateurs à la fois pour effectuer une tâche. Ce domaine de recherche permet d’accélérer significativement de nombreux programmes en se servant par exemple des cœurs d’un même ordinateur ou d’une grille de calcul de 5000 processeurs répartis dans des ordinateurs connectés par Internet.

    Parmi les grandes réalisations, le projet scientifique national GRID 5000 a pour objectif de ne faire qu’une seule machine avec 5000 processeurs mis en réseau sur 10 sites en France.

    Machine GRID 5000
    Machine GRID 5000
    © Inria / Photo C. Lebedinsky

    Mais on sait aussi que tout ne se parallélise pas : certains algorithmes sont tels que les calculs dépendent obligatoirement des calculs précédents, donc il faut attendre ces derniers et paralléliser ne sert à rien. On peut  essayer de changer d’algorithme, quitte à calculer plus (pour aller plus vite), mais ce n’est pas toujours possible.

    Vous voulez en savoir plus ? L’article de votre boulangerie à un système d’exploitation multiprocesseur, et ce document sur la gestion de la mémoire qui devient le goulot d’étranglement, bien plus que la puissance des machines vous aideront à aller plus loin que cette blague d’informaticien.

    Sylvie Boldo.

  • Interstices fait peau neuve !

    Vous ne connaissez pas )i(nterstices ? C’est une revue de culture scientifique en ligne, qui vient d’avoir 10 ans ! Vous trouverez des podcasts, des jeux, des idées reçues et des articles de tous niveaux sur les sciences du numérique. Bref, des ressources pour les scolaires et pour les autres, écrites par des chercheurs pour vous !

    Vous connaissez )i(nterstices ? Eh bien, il faut y retourner car le site d’interstices vient de changer ! Pour ses 10 ans, le nouveau site est plus moderne et fait la part belle aux témoignages des lecteurs. Et en plus, les super contenus sont toujours là !

    Logo Interstices

    Mes préférés ? L’abécédaire et les podcasts. Et puis les jeux et les animations, et puis la nouvelle rubrique L’informatique – ou presque – dans les films, et puis…

    Bref, interstices nouveau est arrivé. Binaire salue sa re-naissance en lui souhaitant autant de succès pour les 10 prochaines années !

    Sylvie Boldo

  • Pixees, le monde numérique à portée de clic

    Vous en avez marre qu’on vous rabâche les oreilles avec des notions d’informatique ou de numérique, que l’on vous dise « Ah oui, mais c’est hyper important pour le monde d’aujourd’hui », alors que vous ne comprenez même pas pourquoi ? Et bien voici un moyen efficace et intéressant de comprendre ces notions.

    pixees-4Pixees, un site Inria, de la SIF (Société Informatique de France) et de Pasc@line (Association des Professionnels du Numérique) avec plus d’une vingtaine de partenaires, dédié à la médiation scientifique…

    Pixees, une solution pour décoder le monde du numérique

    La médiation… ?! D’accord ! On part déjà trop loin ? Et bien disons simplement que ce site regroupe toute sorte de supports pour nous initier aux notions d’algorithmes, à la représentation de l’information, à l’histoire de l’informatique, etc. C’est à travers des conférences, des vidéos, des interviews, des documentaires, des jeux, et on en passe, que nous pouvons nous documenter, et même apprendre à apprendre aux autres.

    pixees-2En effet ce site a été réalisé pour toute personne du niveau le plus sobre au plus élevé. Que nous soyons parent, élève ou étudiant, professeur, ou bien simplement curieux, ce site est fait pour nous. Des méthodes sont là pour vous accompagner pas à pas, par exemple pour expliquer à l’enfant comment utiliser et s’approprier ces machines omniprésentes au quotidien dans notre société : ordinateur, tablette ou smartphone… et au-delà de l’usage,apprendre également à créer grâce à elles.

    Peur de ne pas être à la hauteur ? De ne pas comprendre les articles ? Pas d’inquiétude, ils sont indexés et de multiples définitions sont là pour nous secourir en cas de problème.

    Spécial profs : profitez de la culture numérique en live.

    Cela tombe à pic, au moment où l’enseignement des fondements du numérique entre au collège et en primaire (on parle parfois de « codage », mais au delà de l’apprentissage de la programmation, il y a la construction d’une culture scientifique indispensable à la maîtrise du numérique).

    pixees-3Selon le lieu où on se trouve en France, il y a la possibilité de faire venir dans son établissement une ou un chercheur. Pixees propose différents types d’interventions, telles que des animations et/ou des conférences, consultables sur le site et répertoriées géographiquement sur la carte de France de tous les partenaires du projet.

    Vous préférez un contact direct de visu ? Cela tombe bien, car notre bureau en ligne est ouvert à partir du 8 septembre les mercredis et jeudis de 14h00 à 17h00. Vous n’aurez ensuite plus qu’à lancer la connexion en cliquant sur l’image affichée. Nous contacter par mail, téléphone, Twitter ou en remplissant un formulaire numérique est aussi possible.

    Le partage et la co-construction avant tout

    Pixees n’est évidemment pas réservé qu’aux enseignants, animateurs d’activité extra-scolaire ou parents. Le bureau en ligne est destiné à tous les futurs et bienvenus inconditionnels du site qui souhaiteront participer à cette aventure.

    En plus, Pixees peut vous répondre en anglais, espagnol, italien, allemand et en d’autres langues, grâce à notre bureau en ligne international. Certaines ressources sont mêmes déjà traduites.

    Pixees ou le mouvement perpétuel

    pixees-1Ça y est, mordu de Pixees ? N’oubliez alors pas de suivre son actualité et ses évolutions de publications et d’interventions. N’hésitez surtout pas à faire part de vos idées et remarques, afin que ce site évolue selon vos besoins.

    Un dernier argument pour vous montrer que ce site est celui de toutes et tous ? L’une de nous est une jeune prof de langues, l’autre une étudiante en communication. Aider à construire et nourrir Pixees a été notre job d’été. On en a profité pour découvrir plein de choses bien utiles dans notre vie quotidienne, dans le monde numérique. Et aussi des choses «inutiles» mais passionnantes pour avoir une meilleure vision de cet univers-là.

    Alice Viéville et Juliette Calvi

  • Un algorithme : EdgeRank de Facebook

    On n’arrête pas de vous dire que les algorithmes ont de plus en plus d’importance dans votre vie quotidienne. Vous êtes capable de comprendre comment Philae a fait pour atterrir sur la comète «Tchouri», mais vous ne seriez pas capable de comprendre comment ils fonctionnent ? Allons donc ! Binaire a demandé à un ami, Rachid Guerraoui, professeur à l’École Polytechnique Fédérale de Lausanne, de nous expliquer l’algorithme EdgeRank qui d’une certaine façon participe à votre vie sociale. N’hésitez pas à demander à Binaire des explications sur d’autres algorithmes.

    En préambule, si vous n’êtes pas familier de Facebook, ce réseau social qui est aussi le deuxième site web le plus visité au monde (après Google), nous vous conseillons d’aller lire la page de wikipedia qui l’explique en détail ou d’aller prendre 10 minutes pour consulter cette vidéo.

    edgerank-binaire-rayclid© Ray Clid

    Si vous êtes adepte du réseau social Facebook, vous aurez sans doute remarqué que toutes les activités concernant vos « amis » n’apparaissent pas dans votre fil d’actualité. Mais comment Facebook fait-il le tri? Pourquoi Facebook decide t-il d’afficher telle actualité plutôt que telle autre ? Ces décisions sont prises par un algorithme,  un parmi ceux qui régissent notre vie quotidienne aujourd’hui.

    Cet algorithme s’appelle EdgeRank. Le principe de cet algorithme n’est pas sorcier. Si on omet certains détails, en particulier de mise en oeuvre et d’optimisation, on peut l’expliquer de manière assez simple.

    Avant de décrire son fonctionnement néanmoins, quelques éléments de contexte.

    A la base, Facebook avait pour objectif de connecter les étudiants de l’Université de Harvard. Aujourd’hui, Facebook connecte près d’un milliard d’utilisateurs. Facebook permet à chacun de partager en temps réel toutes sortes d’informations avec ses “amis”: des notes décrivant ses états d’âme ou ses activités quotidiennes, des photos, de la musique, des recommandations pour des livres, des liens vers des articles de journaux, etc.

    En gros, chaque utilisateur possède deux espaces: un espace qu’il utilise pour décrire les informations qu’il souhaite partager, ses posts, et un espace dans lequel il voit défiler les posts partagés par ses amis.  Ce second espace est parfois appelé fil d’actualité.    L’algorithme EdgeRank fait une sélection radicale parmi tous les posts des amis d’un utilisateur Bob pour en afficher en moyenne 10% sur le fil d’actualité de Bob. D’une part EdgeRank fait cela pour ne pas inonder Bob d’informations qui disparaîtraient en une fraction de seconde à cause de leur trop grand nombre.  D’autre part EdgeRank filtre les informations afin que Bob trouve son fil d’actualité suffisamment intéressant pour rester connecté et être actif à son tour.  Plus il y a de personnes connectées et plus Facebook peut monnayer son support publicitaire. edgePour chaque utilisateur Bob, EdgeRank  détermine le score des posts partagés par les amis de Bob : plus le score d’un post p est élevé et plus B devrait trouver p intéressant.  EdgeRank affiche les posts dont les scores pour Bob sont les plus élevés.

    En première approximation, le score pour un utilisateur Bob, d’un post p émis par une utilisatrice Alice, correspond au produit de trois variables:  a * t * f.

    • La variable a désigne l’affinité d’Alice par rapport à Bob. Plus Bob  à l’habitude d’aimer ou de commenter des informations postées par Alice, voire d’envoyer des messages à Alice, et plus a sera grand.
    •  La variable t représente le poids du post. Une longue note, une photo ou une vidéo ont plus de poids qu’un petit commentaire par exemple.
    • La variable f représente la fraîcheur du poste: plus un post est ancien, plus diminue. Donc la priorité est donnée aux posts les plus récents.

    Il est important de remarquer ici que la notion de score est relative. Le score d’un post p posté par Alice peut être différent pour deux amis d’Alice, Bob et Jack. Cela peut s’expliquer par le fait que Bob soit un admirateur d’Alice mais pas Jack. Par ailleurs, la  notion d’affinité, sous-jacente au calcul d’un score, est asymétrique. Le fait que Bob  soit un admirateur d’Alice n’implique pas l’inverse. Ainsi, il se peut que les posts d’Alice soient systématiquement affichés sur le fil d’actualité de Bob et jamais l’inverse.

    En fait, EdgeRank ne fait pas simplement un produit, mais une somme de produits.  A chaque post p est associé un ensemble de liens. Le premier lien est celui de la création de p: il est généré par l’utilisateur Alice qui a partagé p.  A chaque fois qu’un autre ami Jack d’Alice souligne qu’il aime p ou le commente, un nouveau lien est généré par Jack : toujours concernant le post p. Si Jack est aussi un ami de Bob, il y a des chances que le lien qu’il vient de créer augmente le score du post p et le fasse apparaître sur le fil d’actualité de Bob.

    Plus un post p est “liké” ou commenté par des amis de Bob et plus p a de chances d’apparaitre sur le fil d’actualités de Bob. Cela explique parfois pourquoi on voit apparaître un « vieux » post sur son fil d’actualité.

    Chacun des liens sur p a donc un score qui correspond à un produit de variables a * t * f. Le score de p est la somme des scores des liens.

    Le nom de l’algorithme, EdgeRank, souligne le fait qu’il ordonne en fait des liens (vers des posts).

    (*) Pour en savoir plus une vidéo wandida

     

  • Comment semer quelques graines de sciences

    Graines de sciences est une Université d’automne pour les professeurs des écoles, organisée par la fondation « La main à la pâte ». On y  propose aux enseignants une formation sur des sujets scientifiques avec des ateliers qui les font participer de manière active. Depuis deux ans, cette formation inclut des ateliers sur les sciences du numérique, que l’éducation nationale aura à intégrer rapidement dans la formation des professeurs des écoles. Deux collègues du monde de la recherche en informatique témoignent.

    Les enseignants ont partagé leur expérience et les liens qu’ils peuvent tisser, entre ces grains de science et les enseignements qu’ils donnent déjà. Ils ont montrés comment ils peuvent adapter les contenus scientifiques qu’on leur propose pour les transmettre dans leurs classes. Bref, ils ont déjà ouvert la porte aux sciences du numérique dans leurs classes, mais parfois sans vraiment le savoir ! Petit retour sur ces liens qui ne demandent qu’à voir le jour…
    On parle ici de trois ateliers. Un atelier de robotique, un atelier d’informatique avec entre autres des activités débranchées et un atelier Scratch. Pour ce dernier, allons lire les retours de plus en plus nombreux que l’on peut trouver sur jecode.org (hélas encore trop limité à quelques enfants, puisque cantonné au domaine extra-scolaire). Ce billet va témoigner des ateliers « robotique » et « informatique ».

    retour_GDS_2014_DR_html_35209714
    Les enseignants, inspirés, proposent des messages autour de nos contenus

    Chaque atelier dure environ trois heures et concerne un groupe de dix enseignants. Le rôle des acteurs du monde de la recherche ? Faire de notre mieux pour leur expliquer nos sciences et discuter avec eux de ce qu’ils peuvent en retirer pour leurs classes. La limite ? Nous ne sommes pas en mesure de leur expliquer comment enseigner et comment faire passer des messages scientifiques dans les classes. Ce sont les enseignants les experts à ce niveau. Et cette démarche participative fait de Graines de sciences un enchantement.

    Les ateliers commencent par un tour de table, histoire de voir les attentes ou les appréhensions sur nos sciences et ce qui va se dérouler pendant l’atelier. Dans la majorité des cas, avec un peu d’inquiétude, la réponse est « Je suis curieux de voir comment on pourra expliquer le numérique aux élèves avec le contenu de cet atelier ». Mais vous verrez, une fois les ateliers faits : ils adorent et en redemandent. Le plus dur est donc de les amener à faire le premier pas.

    Pourtant ils ont conscience de l’ampleur que prend le numérique dans la vie des élèves et de la façon dont les enseignants peuvent les accompagner, pour que chacune et chacun ait les mêmes chances. Eh oui, ils en témoignent « Je les vois se servir de plus en plus de téléphones, ordis, tablettes, etc. mais ils sont utilisateurs et consommateurs… peut-on les aider à être acteurs et producteurs ? ». Gageons que, sans aller jusqu’à en faire des « acteurs ou producteurs », on pourra aider les enseignants à faire que les élèves deviennent des utilisateurs éclairés. Ce sera déjà pas mal. Enfin, une attente plus rare concerne la vie privée face à cette manipulation quotidienne et presque continue, sans réserve et sans précaution, d’outils qui les exposent publiquement.

    Dans ces ateliers, nous avons souvent demandé aux enseignants de jouer le rôle des élèves, histoire de reprendre des activités que nous connaissons et les appliquer directement avec eux. C’est une façon aussi de leur demander leur avis sur la façon de faire passer tel ou tel message. Nos contenus ont de nombreuses sources comme dessine moi un robot ou inirobot, la mallette « Sciences manuelles du numérique » initiée par Martin Quinson, l’ouvrage « Computer Science Unplugged » traduit en Français grâce à interstices, ou encore le site pixees qui contient une foule de ressources pour expliquer les sciences du numérique.

    Ah oui ! Nous vous avons promis de montrer des liens entre ces contenus et ce que les enseignants font déjà dans les classes. Alors allons-y !

    Les Thymio sauront-ils s’orienter dans ce labyrinthe ?

    Prenons l’exemple de la robotique avec le jeu du robot idiot. Ce petit exercice est très amusant et carrément facile à mettre en place avec un groupe d’enfants (de tous âges 🙂 ). Il s’agit de donner des instructions à un robot joué par l’animateur ou un autre enfant, et ce dernier va bien sûr oublier toute forme d’intelligence ou d’intuition pour appliquer scrupuleusement la liste d’instructions. Cette liste doit permettre d’atteindre un objectif (par exemple « sortir de la pièce ») et sera réduite à 3 instructions possibles comme « avance de X pas », « tourne d’un quart de tour à droite » et « tourne d’un quart de tour à gauche ». Cette activité, permet aussi de détendre un peu l’ambiance vu les « gamelles » que se prend le robot-animateur. Et cela montre combien on doit être précis dans ses instructions parce qu’il ne faut pas compter sur la machine pour être intelligente à la place de celui qui la programme. Nous voilà entrain de montrer le lien avec les sciences du numérique et là… Paf ! Une participante nous dit « Mais attends… moi je fais déjà un truc similaire avec ‘la carte au trésor’ ! ». Elle nous explique donc qu’il s’agit de découper un espace selon une grille, de fixer un point de départ et un objectif (le trésor) sur la grille et de trouver la séquence d’instructions qui permet d’atteindre le trésor. Tiens… un premier lien vient tranquillement de se tisser… et très facilement avec ça. A partir de là, cette enseignante sait qu’elle pourra parler d’algorithme au sens d’un enchaînement d’instructions qui permet d’atteindre un objectif. Mais elle peut aller encore plus loin sans difficulté. Par exemple, il lui est possible de modifier volontairement une instruction dans la liste… Ses élèves verront alors le résultat totalement faux sur le déplacement, et elle pourra expliquer qu’il y a un bug, avec plus ou moins de détails et d’explications, selon le niveau de la classe, et l’objectif pédagogique du moment.

    Le réglage des couleurs du Thymio

    Puisqu’on parle de robots, profitons-en pour voir quelques liens, avec la programmation de Thymio II qui faisait partie de l’atelier « robotique ». En voyant les possibilités de réglages du Thymio, comme par exemple la couleur de ses Leds, certains participants ont immédiatement réagi avec bonheur en disant que c’était un support idéal pour illustrer la palette et le mélange des couleurs. Et cette réaction se retrouve également quand il s’agit de faire jouer quelques notes à notre petit robot ludo-éducatif.

    Magic Makers et les machines de Rube Goldberg

    Puisque ces Thymio sont équipés de capteurs, les participants ont vu un lien très prometteur avec une activité qui se pratique souvent en classe. Ils ont suggéré que ces robots seraient de parfaits maillons dans la chaîne d’une machine de Rube Goldberg. Ces machines délirantes mettent en pratique la notion de réaction en chaîne et permettent d’étudier les transformations et transmissions de mouvements sur des séquences plus ou moins longues. D’après nos participants, il serait donc très intéressant d’ajouter un Thymio dans la séquence, avec une programmation adéquate de ses capteurs pour qu’il joue son rôle et permette à la séquence de continuer. D’ailleurs, cette idée des machines de Rube Goldberg est déjà employée par Magic Makers dans ses ateliers en famille grâce à des robots Légo équipés de capteurs.

    À leur grande surprise, les enseignants ont également vu des liens assez frappants entre ce qu’ils font déjà en classe et les contenus de l’atelier « informatique ». Il faut dire que le titre de l’atelier était « Informatique, algorithmique et cryptographie ». De quoi mettre la trouille à tout le monde ! En fin de compte, c’est plutôt une bonne chose. À leur entrée dans l’atelier, dans les yeux de certains participants, on pouvait voir la définition du mot « dubitatif ». Mais doucement, au bout de quelques minutes, quand l’algorithmique s’est faite avec 16 jetons, la correction d’erreur avec des cartes et un tour de magie, ou bien la cryptographie avec des boites en carton et des petits cadenas… l’’appropriation à des fins pédagogiques est devenue une évidence.

    Atelier titré ‘Informatique, algorithmique et cryptographie’ plus de peur que de mal en fin de compte..

    Cet atelier s’est tenu sous la forme d’une histoire… l’histoire de quelques uns des personnages qui ont contribué à nos sciences du numérique. Et cette histoire était régulièrement ponctuée d’activités débranchées, permettant de garder un rythme animé et de faire participer les enseignants de manière active. Voilà déjà un premier lien avec ce qui est enseigné par les participants puisqu’il s’agit d’un angle différent sur la façon d’aborder les cours d’histoire. Beaucoup sont repartis avec la ferme intention d’en savoir plus sur la vie de tel ou tel personnage. D’ailleurs, il nous semble que c’est Ada Lovelace qui a eu le plus de succès dans ce domaine.

    Les sciences du numérique : du raisonnement avant tout !

    Le jeu de Nim était la première activité de cet atelier. Très rapidement les participants ont pu faire le lien qui nous paraît le plus important avec leurs enseignements : « les sciences du numérique c’est du raisonnement ». Du raisonnement dans la mesure où il s’agit, par exemple, d’établir une stratégie gagnante pour un jeu (et on peut transposer facilement « stratégie gagnante pour un jeu » en « algorithme »). Mais aussi parce qu’il s’agit de bien étudier les conditions d’un problème avant de lui proposer une solution (« est-ce que je peux gagner si je commence ? » ou bien « est-ce que je peux gagner si le nombre de jetons au départ n’est pas un multiple de 4 ? »). Cet apprentissage et l’angle apporté par les sciences du numérique est donc capital non seulement en tant que matière, mais devrait aussi trouver son reflet dans la mise au point du programme et dans tous les domaines enseignés à l’école.

    Le nombre cible : de l’algorithmique sans le savoir.

    Après le jeu de Nim, et pour approfondir un peu la question des algorithmes, nous avons joué à trouver nos prénoms dans une liste. Une longue liste, contenant 105 prénoms, est affichée à l’écran pendant 3 secondes. Elle n’est pas triée. Après 3 secondes d’affichage, presque aucun participant ne sait dire si son prénom est dans la liste ou pas… Puis la même liste est affichée, mais triée cette fois, toujours pendant 3 secondes. Et là, par contre, presque tous les participants sont capables de dire si leur prénom est dans la liste ou pas. Ce petit jeu permet d’introduire l’algorithme de la dichotomie. On leur affiche ensuite une liste réduite dans laquelle on cherche un prénom pour illustrer le fait qu’à la première itération on enlève la moitié des données, ce qui simplifie le problème, puis on enlève encore la moitié de la moitié à la deuxième itération, puis… ainsi de suite. Et là… re-Paf ! Un participant nous dit « Mais attends, je viens de comprendre comment je devrais parler du nombre cible et de la file numérique avec mes élèves ! ». Euh… le nombre quoi, tu dis ? ? Nous demandons alors quelques détails et il nous explique le principe de ce jeu qui consiste à trouver un nombre entre 1 et 100, inscrit derrière le tableau. Bien sûr, sans stratégie, ça prend des heures. Alors on change le problème et il faut maintenant choisir un nombre X et poser la question « plus grand ou plus petit que X ? », ce qui renseigne le joueur et l’oriente dans sa recherche du nombre cible. Et là ça marche mieux mais c’est encore hésitant. On explique aux élèves qu’en prenant X au milieu de ce qui reste à explorer à chaque fois, alors c’est plus efficace. Ce participant nous dit enfin « Donc tu vois, je faisais déjà de la dichotomie sans le savoir ! ». En vérité, il faisait déjà de l’algorithmique sans le savoir. Et il est désormais mieux équipé pour expliquer pourquoi le fait de prendre le nombre « du milieu » c’est imbattable. Il n’aura pas forcément besoin de parler de complexité algorithmique, mais le terrain sera préparé pour les sciences du numérique.

    Photo @Marik. Le drap : « Après l’atelier il faut passer à la pratique ! »

    Certains participants sont même allés bien plus loin que trouver des liens avec ce qu’ils enseignent déjà. En particulier, une participante venait pour la deuxième fois et avait déjà ajouté des sciences du numérique dans sa classe après son premier Graines de science. Quel réconfort de l’écouter nous raconter comment elle a utilisé Computer Science Unplugged ou bien des activités débranchées auprès de ses élèves. Mais surtout, quel bonheur de discuter des activités présentées cette année et des modifications qu’on peut leur apporter. Par exemple, concernant le réseau de tri de Computer Science Unplugged, elle envisage de modifier le tracé de façon à le faire bugger volontairement et laisser ses élèves le réparer. Mais elle veut aller encore plus loin en utilisant cette activité au service de son enseignement existant. Comment ? Eh bien par exemple en leur demandant de trier des fractions (eh oui, comparer les fractions c’est en plein dans le programme). Et voici le drap qui va lui servir de support avec le réseau dessiné dessus. Tout est déjà prêt, et ses idées aussi !

    Voilà pourquoi et comment ces Graines de sciences sont un enchantement…

    Florent Masseglia et Didier Roy.

  • Concours Castor informatique 2014

    C’est le début du Castor Informatique ! Concours castorAfin de faire découvrir aux jeunes l’informatique et les sciences du numérique, et après le grand succès de la troisième édition 2013 (plus de 170 000 élèves dont 48% de filles et près de 1200 collèges ou lycées français ont participé), une nouvelle édition commence aujourd’hui : les épreuves 2014 se déroulent du 12 au 19 novembre 2014.

    « Le concours comporte quatre niveaux (6e-5e / 4e-3e / 2nd / 1ère-Term). Il couvre divers aspects de l’informatique : information et représentation, pensée algorithmique, utilisation des applications, structures de données, jeux de logique, informatique et société. Ce concours international est déjà organisé dans 21 pays qui partagent une banque commune d’exercices. Environ 734 000 élèves ont participé à l’épreuve 2013 dans le monde.

    Les points à retenir :

    • Entièrement gratuit,
    • Organisé en salle informatique sous la supervision d’un enseignant,
    • 45 minutes pour 15 à 18 questions,
    • Quatre niveaux : 6e-5e / 4e-3e / 2nd / 1ère-Term,
    • Du 12 au 19 novembre 2014, l’enseignant choisit le moment de la semaine qui lui convient,
    • Participation individuelle ou par binôme,
    • Aucune connaissance préalable en informatique n’est requise.

    Nouveauté 2014 : La version 2014 sera entièrement composée de sujets interactifs, pour lesquels il faut trouver une stratégie de résolution, et le score sera affiché en temps réel. Il n’y aura donc plus aucune question à choix multiple.

    Si vous n’avez plus l’âge, vous pouvez vous amuser à tester les exercices des années précédentes depuis 2010 ! Comme nous l’a expliqué Susan McGregor récemment sur Binaire : Explorez la pensée informatique. Vous pouvez le faire !

    Sylvie Boldo

  • Science participative & informatique

    IMG_8603
    © @Maev59

    Par certains aspects la science informatique du XXIème siècle est participative ou du moins, elle permet à d’autres disciplines de le devenir. De quoi s’agit-il en fait ? Pour mieux comprendre cette démarche, nous vous proposons de considérer trois exemples précis.

    • La science est un bien commun accessible à tou·te·s, elle peut-être participative.
    • La recherche scientifique est un métier qui nécessite beaucoup d’années d’études.
      Il faut bien distinguer les deux

    1. Le Crowdsourcing ou comment utiliser une foule de cerveaux humains

    Des travaux scientifiques expérimentaux et ludiques permettent de confier des tâches que des machines ont du mal à réaliser, au village humain relié par Internet, au service de la recherche scientifique ou de la culture. Cela se fait à une échelle techniquement inaccessible à une équipe de recherche, même la mieux dotée du monde.

    • Ainsi, Fold.it est un jeu de puzzle sur le repliement des protéines. Les scientifiques ont su réduire à un jeu combinatoire le problème très compliqué de trouver un niveau d’énergie optimal au repliement d’une protéine. Ils profitent des capacités naturelles du cerveau humain pour aider à résoudre ce type de problème exploratoire, avec à la clé un vrai résultat scientifique. Un autre exemple dans la même veine en lien avec les maladies génétiques est par exemple Phylo.

      logo-foldit
      © http://fold.it
    • La capacité naturelle de reconnaissance des formes du cerveau humain est utilisée par exemple pour classer des galaxies dans Galaxyzoo avec la participation d’un très grand nombre d’astronomes amateurs. Ce travail collectif massif peut même prendre une forme involontaire comme avec Recaptcha quand nous devons saisir des caractères lus sur une image pour prouver que nous sommes une personne et non un algorithme sur une page web. Le micro-travail de cette multitude de personnes sert aussi à la numérisation de qualité de nos bibliothèques : la photo des textes à numériser est découpée en petites images qui sont proposées dans les formulaires de façon à ce qu’un humain lise le texte de l’image et le rentre au clavier.

      logo-recapcha
      © recapcha.net

    On est donc devant une nouvelle approche : ce n’est plus uniquement grâce à la puissance des calculs et à la création de nouveaux algorithmes qu’émergent des travaux scientifiques (ex : comme ce fut le cas pour la reconstruction des régions codantes du génome humain). C’est grâce à la capacité de faire coopérer des milliers de cerveaux humains sur certains problèmes précis (exploratoires ou de reconnaissance) qui dépassent justement la capacité des calculs numériques. L’écueil serait évidemment d’en déduire que toute la science se ferait par-la-foule. On ne va évidemment pas faire voter la foule sur la véracité d’un théorème mathématiques, par exemplr.

    Quel est le rôle du public ici ? Celui d’accepter de «prêter son intelligence » souvent dans le cadre d’un jeu. En fait-t-on pour autant un spécialiste de l’ADN ou d’astronomie ou l’aide-t-on à augmenter sa culture scientifique sur ces sujets ? Pas lors de cette activité. On lui offre simplement l’occasion de découvrir que l’expérimentation numérique de phénomènes scientifiques peut-être amusante. Cela peut simplement lui donner le goût des sciences.

    2. L’utilisateur devenant co-validateur

    view-brainTV
    © braintv.org

    Quand on mesure en situation réelle l’activité cérébrale profonde d’un patient, ou que l’on robotise un environnement quotidien pour augmenter le bien-être face à un handicap, il est juste insensé d’imaginer travailler sans associer l’utilisateur final en tant que validateur de ces volets du travail de recherche. C’est le cas des travaux exemplaires de Jean-Philippe Lachaux qui a mis au point BrainTV, un système permettant au patient d’observer lui-même son activité cérébrale ou l’équipe de David Guiraud qui affirme le rôle essentiel du patient dans ses recherches permettant de restaurer la marche chez le paralytique grâce à une puce électronique reliée à ses muscles (ceci grâce aux progrès de la simulation numérique).

    Une telle démarche se retrouve à un autre niveau dans l’Interaction Homme-Machine, quand Wendy Mackay explique que l’enjeu n’est pas de mettre « l’humain dans la boucle [de la machine] » mais bien la machine dans la boucle des activités humaines. L’utilisateur numérique devient co-validateur du progrès du numérique.

    view-apisense
    © apisense.com

    Bien entendu l’usage même que nous faisons du numérique est soigneusement étudié. Cela peut être fait en toute transparence et la plateforme Apisense, par exemple, sollicite une communauté d’utilisateurs volontaires, en les associant à la démarche et en partageant avec eux objectifs et résultats.

    Que se passe-t-il ici ? Au lieu de séparer l’objet et l’acteur des recherches, on fait le choix de profiter des interactions qu’il peut y avoir entre eux.  Là encore, sans transférer de compétences professionnelles, la science devient participative.

    3. La contribution du public aux collectes de données

    Le muséum d’histoire naturelle, cet institut de recherche qui étudie notre environnement naturel,  propose depuis des années au public de faire des mesures de comptage de populations dans la nature pour évaluer l’évolution de la biodiversité. Une démarche rigoureuse qui permet d’accorder un bon degré de confiance à la collecte de ces données. Ce sont les chercheurs qui décident ce qu’il y a lieu à mesurer et surtout comment exploiter ces données. Conçue dès le départ comme une démarche de médiation scientifique, un effet retour sur la prise de conscience des problèmes environnementaux a été obtenu grâce à cette démarche de partage de pratiques scientifiques et à la découverte de connaissances naturelles (activités scolaires générées). On fait de la science « pour de vrai » disent les enfants.

    view-Pl@ntNet
    © plantnet.net

    De même, le projet Pl@ntNet, met à disposition sur sa plateforme un logiciel interactif pour identifier les plantes que l’on rencontre sur le terrain et partager les observations effectuées. Que se passe-t-il ici ? Le public est recruté comme « un assistant du chercheur » pour démultiplier son action. Son avis est bien entendu écouté au delà de son travail de terrain. Et le fait de pouvoir le faire participer à une véritable étude expérimentale est une profonde marque de reconnaissance et de respect. La généralisation à d’autres disciplines n’est pas forcément possible. En effet, en science informatique par exemple, le fait que les élèves de France soient privés de son enseignement, empêche de proposer ce type de démarche en lien avec une science qui ne leur est pas familière.

    D’autres partenariats institution-citoyen existent. En Île de France, 1% du budget de la recherche a été consacré à voir dans quelle mesure développer des projets de recherche à deux voix : scientifique & citoyenne, avec une méthode contractuelle d’appel d’offre rigoureuse et paritaire (scientifiques/société). Les résultats sont encore à évaluer.

    Pour conclure

    Ces trois familles d’exemples de démarches ne se réduisent pas les unes aux autres, n’appartiennent pas aux mêmes paradigmes, ne positionnent pas les acteurs dans les mêmes rôles.  Bref : il n’y a pas de recherche participative, il y a des recherches participatives.

    Thierry Viéville

  • Le pacs des humanités et du numérique

    On parle d’humanités numériques  autour de la proposition du Conseil National du Numérique d’un « bac HN ». Un chercheur en humanités aujourd’hui consulte des documents sur Internet, produit des sources numériques, les indexe, classe ses informations dans des bases de données, invente de nouveaux corpus de sources, tweete, blog, prépare des Mooc, discute à distance avec ses collègues, ses étudiants, etc. Les humanités sont devenues numériques. Une historienne et un informaticien nous parlent du sujet. L’article complet peut être trouvé sur HAL.

    histoire-numeriqueLes humanités numériques se définissent au départ par des outils numériques au service de la recherche en sciences humaines et sociales, des outils pédagogiques pour enseigner dans ces domaines. Mais, le sujet dépasse largement le cadre de ces seuls outils. Tous les savoirs se transforment au contact de la pensée informatique, les disciplines évoluent, les frontières bougent. C’est toute la complexité des humanités numériques.

    Les humanités. Le terme est imprécis. Prenons-le dans un sens très général, en y incluant l’histoire, la linguistique, la littérature, les arts et le design, mais aussi la géographie, l’économie, la sociologie, la philosophie, le droit, la théologie et les sciences des religions.

    Le numérique et l’informatique. Il nous faut ici considérer l’articulation entre le monde numérique et la science qui en est au cœur, l’informatique. Par exemple, le Web, si essentiel dans les humanités numériques, est une des plus belles réalisations de l’informatique. Mais il tient aussi d’une philosophie humaniste : la mise à disposition pour tous, le partage. L’informatique est à la fois une science et une technique, qui propose des outils et développe de nouvelles formes de pensée ; elle a donné naissance au monde numérique, avec ses usages et ses cultures propres.

    Des outils et une pensée

    Le point de départ des humanités numériques est la représentation de l’information et des connaissances sous forme numérique. Les premières applications furent la numérisation de textes (notamment à partir d’OCR, « optical character recognition »), mais aussi de photos, de films, de la musique, de cartes géographiques, de plans d’architecture, etc. Les scientifiques (en SHS ou pas) ont vite compris l’intérêt de réunir des données de natures différentes, de les organiser dans des bases de données. Les bases de données ont été combinées à deux grandes inventions de l’informatique, l’hypertexte et le réseau Internet, pour conduire aux « bibliothèques numériques ». Par exemple, le Projet Perseus  de l’université Tufts s’est attaqué à la construction d’une bibliothèque numérique qui rassemble des textes du monde méditerranéen en grec, latin et arabe. Les textes numérisés, indexés, disponibles sur la Toile, sont facilement accessibles à tous. A l’heure du Web, les étudiants, mais aussi les amateurs, les journalistes, tout le monde a accès à des sources d’informations considérables.histoire-numerique-clio

    Si la bibliothèque numérique peut être vue comme un des piliers des humanités numériques, le « réseau numérique » en est certainement un autre. Le travail des chercheurs repose depuis toujours sur l’existence de réseaux. On échangeait des lettres. On voyageait pour consulter une bibliothèque ; on en profitait pour rencontrer ses homologues locaux. Ces échanges, ces rencontres physiques participaient à produire et enrichir les connaissances. Pour les scientifiques (en sciences humaines ou pas), le réseau numérique transforme le travailler ensemble. On peut partager des textes, les annoter ensemble, les commenter, voire corédiger des contenus très riches en s’éloignant du texte linéaire bien défini aux auteurs bien précisés. Pour citer un exemple riche en symbole, le projet  « Mapping the republic of letters », lancé par Stanford, a permis de mettre en commun des recherches pour étudier comment, depuis la Renaissance, les lettrés européens partageaient leurs connaissances à travers des textes et des rencontres. Un réseau social numérique pour expliquer un réseau social « classique » ! Ce passage au travail en réseau s’accompagne de changements fondamentaux dans nos rapports aux connaissances. Un univers des fragments se substitue aux contributions monolithes. Les outils de recherche, les sites de corédaction encouragent cet effet, qui s’accompagne aussi de l’affaiblissement de la contribution de l’auteur individuel devant les contributions du groupe.

    Jusque-là nous avons surtout parlé d’information, évoquons maintenant les connaissances. À une petite échelle, on introduit des connaissances pour expliquer un document, des éléments qui le composent, des services Web. C’est la base du Web sémantique. Des balisages permettent par exemple de préciser le sens des mots d’un texte, de faire des ponts entre des ressources distinctes avec le linked data. Un des premiers exemples très populaire de balisage de texte est le « Text encoding initiative », initié en 1987. Le but du balisage était de permettre de trouver plus facilement de l’information dans de larges collections de textes de bibliothèques. Avec les ontologies, un pas supplémentaire est franchi pour atteindre le monde des connaissances structurées, classifiées, organisées. Par exemple, l’ontologie Yago a été construite à partir de la version anglaise de l’encyclopédie textuelle Wikipédia, en utilisant un logiciel développé à l’Institut Max Planck. En 2011, Yago avait déjà 2 millions d’entités et plus de 20 millions de relations entre ces entités.

    La machine peut aider à obtenir toujours plus de connaissances. Il est intéressant de remarquer que le calcul de connaissances « quantitatives » est à l’origine de ce qui est souvent cité comme le premier travail en humanité numérique : Roberto Busa, un jésuite italien, a imaginé dans les années quarante et réalisé ensuite, l’analyse linguistique basée sur l’informatique des œuvres complètes de Thomas d’Aquin. Les techniques d’analyse de texte qu’il a utilisées (indexation, contexte, concordance, co-occurrence, etc.) sont utilisées aujourd’hui dans de nombreuses disciplines notamment en histoire ou en littérature. Peut-être les plus paradigmatiques exemples de cette analyse de données (notamment de par leurs masses) viennent de Google trends. Google trends permet d’avoir accès à la fréquence d’un mot dans les requêtes au moteur de recherche Google (près de 10 milliards de requêtes par jour en 2014). Il a donné lieu à de nombreuses études comme la détection d’épidémie.

    Dans les sciences physiques et les sciences de la vie, la modélisation numérique tient une place considérable. En simplifiant, le chercheur propose un modèle du phénomène complexe étudié, et le simule ensuite numériquement pour voir si les comportements résultants correspondent à ceux observés dans la réalité. Parmi les plus grands challenges actuels, on notera par exemple Le « Blue brain project » lancé à l’Ecole Polytechnique Fédérale de Lausanne qui vise ni plus ni moins que de simuler numériquement le cerveau humain. La modélisation et la simulation tiennent une place grandissante en SHS. La sociologie est en particulier un candidat évident. Il est possible de s’appuyer sur la modélisation (extrêmement simplifiée) des comportements d’un très grand nombre d’acteurs (agent dans une terminologie informatique populaire) et de leurs interactions avec leur environnement.6340497bb01b04f0d7b4e00ca32ff638 La puissance de calcul de clusters d’ordinateurs permet ensuite de réaliser des simulations. La comparaison des résultats avec la réalité permet de « paramétrer » le modèle, voire de le modifier, pour mieux coller à la réalité observée. Nous retrouvons par exemple l’étude  de Paola Tubaro et Antonio Casilli sur les émeutes de Londres. Ils ont cherché à savoir si la censure des médias sociaux proposée par David Cameron avait un effet sur le développement d’émeutes. A l’aide d’une simulation numérique, ils ont montré que la censure participait à augmenter le niveau général de violence.

    Et nous conclurons ce tour d’horizon rapide des humanités numériques par l’archivage, un domaine véritablement bouleversé par le numérique. On peut mentionner par exemple Europeana , une bibliothèque numérique européenne lancée en novembre 2008 par la Commission européenne qui compte déjà plus de 26 millions d’objets numériques, textes, images, vidéos, fin 2013. Les États européens (à travers leurs bibliothèques nationales, leurs services d’archivages, leurs musées, etc.) numérisent leurs contenus pour assurer leur conservation, et les mettent en commun. De telles initiatives permettent d’imaginer par exemple que dans moins de 50 ans des historiens trouveront numériquement toutes les informations dont ils ont besoin, passant d’une archive à une autre simplement en changeant de fenêtre sur leur écran.

    Avec le numérique, nous sommes passés pour l’information disponible d’une culture de rareté, à une culture d’abondance. Devant le déluge informationnel, il n’est pas simple de choisir ce qu’il faut conserver, un vrai challenge pour les archivistes. Les institutions comme les Archives Nationales, la BNF (Bibliothèque Nationale de France) et l’INA (Institut National de l’Audiovisuel), et des outils anciens comme le dépôt légal se sont transformés. Que seront devenues les pages du Web d’aujourd’hui dans 50 ans quand des chercheurs voudront les consulter ? Des fondations comme Internet Archive  aux Etats-Unis ou Internet Memory  plus près de nous, s’attaquent au problème avec les grandes institutions d’archivage.

    Limites de la technique. Les humanités numériques ont modifié les modes de travail et de pensée dans les sciences humaines et sociales. Il faut pourtant être conscient de leurs limites. Si les opportunités sont nombreuses, tout n’est pas possible. Certains problèmes demandent des puissances de calcul dont nous ne disposons pas ou que nous n’avons pas les moyens de mobiliser pour un problème particulier. Surtout les plus grandes avancées en humanités reposent sur l’intelligence d’humains qui découvrent la bonne question, énoncent la bonne hypothèse, proposent l’approche révolutionnaire. Si les machines peuvent aider, elles ne sont pas prêtes de fournir cela. Et puis, dans le cadre des SHS, il faut aussi savoir accepter les limites de l’objectivité. Le problème de l’analyse qualitative des données reste entier. Bruno Latour écrivait en 2010 : « Numbers, numbers, numbers. Sociology has been obsessed by the goal of becoming a quantitative science. » Les humanités numériques ne peuvent se réduire à des équations ou des algorithmes (les plus beaux soient-ils) et des nombres. Le sujet principal est l’être humain bien trop complexe pour être mis dans sa globalité en équation ou même en algorithme.

    robot-poppy
    Poppy, un robot pour populariser et démystifier les sciences du numérique.

    La convergence entre sciences et humanités. Un ordinateur est une machine à tout faire (« general purpose ») ; le même système peut être utilisé que la science soit « humaine » ou « dure », et le même algorithme peut être utilisé dans les deux cas. Les méthodes, les concepts, les techniques, les outils de l’informatique rapprochent les chercheurs de toutes ces disciplines, réduisant en particulier le gouffre qui s’est créé entre les SHS et les sciences « dures ». Les principes même de la « pensée informatique » (computational thinking) sont généraux. Les convergences sont si fortes que plutôt que de parler d’humanités numériques, peut-être aurions-nous dû discourir de « sciences numériques » en général. Evidemment une telle convergence n’implique pas la confusion. Un modèle formel des sentiments dans la poésie romantique n’a rien à voir avec un modèle numérique de l’anatomie du cœur humain. Si l’informatique se met au service des sciences humaines et sociales, ce ne doit pas être pour les appauvrir mais au contraire, avec de nouveaux outils, une nouvelle pensée, pour leurs permettre de découvrir de nouveaux territoires.

    Inventer un nouvel humanisme. Avec notamment Internet et le Web, le numérique a encouragé la naissance d’une nouvelle culture basée sur le partage et l’échange. Dans des développements comme les logiciels libres ou Wikipédia, les ambitions de cette culture sont claires, l’invention d’un nouvel humanisme. Il nous semble que les humanités numériques doivent participer à ce mouvement car quelle plus grande ambition humaniste que la diffusion des connaissances et de la culture à toutes et tous ?

    Serge Abiteboul (INRIA & ENS Cachan), Florence Hachez-Leroy  (Université d’Artois & CRH-EHESS/CNRS)

  • Il a existé une culture écrite avant le linéaire B

    Ceux qui, tel Michel Onfray voienttwitt-onfray-oct14 un oxymore dans le fait de rapprocher humanités et informatique, ou apprentissage de l’écriture et apprentissage de la programmation, propagent une vision singulièrement partielle de la culture écrite.

    Tablette précunéiforme, ©2011 Musée du Louvre, thierry Ollivier
    Tablette précunéiforme, ©2011 Musée du Louvre, Thierry Ollivier

    Les premières traces écrites dont nous ayons connaissance, des tablettes qui datent de 3300 av. J.-C., sont pour la plupart des pièces de comptabilité ou d’inventaire (voir par exemple les tablettes archaiques), qui expriment des données sur lesquelles des algorithmes opèrent, notamment des algorithmes de comparaison d’entiers naturels et de listes.

    Face à l’irrédentisme de ceux qui nient la dimension technique de l’écriture, réaffirmons que l’écriture est antérieure au linéaire B, que les humanités et les sciences ont beaucoup à s’apprendre et qu’imaginer un professeur de sciences et un professeur de lettres travaillant ensemble n’est une bizarrerie que dans leur tête.

    Gilles Dowek

  • Antoine Petit, Président Directeur Général d’Inria

    Antoine Petit vient d’être nommé Président Directeur Général d’Inria, établissement public de recherche dédié aux sciences du numérique (le 28/9/2014). Comme il était au bon vieux temps professeur à l’Ecole Normale Supérieure de Cachan, Binaire a demandé à Alain Finkel, professeur à l’ENS Cachan, qui l’a côtoyé quand il était encore professeur, de nous parler de cette personnalité du monde de la recherche en informatique. Il nous raconte un chercheur, un enseignant, la genèse d’un dirigeant.

    antoineAntoine Petit

    Je connais Antoine Petit depuis 30 ans. Je l’ai rencontré au début des années 1980 dans un groupe de recherche qui utilisait la théorie des langages pour étudier le calcul parallèle et la vérification de programme. Les séminaires avaient lieu dans le sous-marin au LITP*. Antoine faisait sa thèse avec Luc Boasson. Je me souviens de discussions passionnées : Luc soutenait que la recherche devait être motivée par le plaisir quand Antoine défendait qu’il fallait aussi s’intéresser aux applications. Antoine aura par la suite à cœur de faire, personnellement, de la recherche fondamentale en prise avec les applications et, comme responsable, d’éviter qu’un laboratoire ne s’enferme dans une recherche uniquement  fondamentale.

    J’ai retrouvé Antoine à l’Université Paris Orsay où nous étions tous les deux maitres de conférences. J’ai été impressionné par sa grande liberté de penser, son absence d’à priori et de préjugés, qui lui permettent de trouver des solutions originales pour atteindre ses objectifs. J’ai découvert ses capacités exceptionnelles : il est à la fois un chercheur brillant (beaux résultats, très belles présentations pédagogiques, papiers dans les très bonnes conférences) et un stratège hors-norme. S’il y avait dans notre domaine d’autres chercheurs brillants, je n’en connaissais pas avec ses talents de stratège.

    picture-015Antoine Petit, à la Conférence annuelle sur « Computer Science Logic », 2001, @ LSV

    En 1995, il est devenu professeur à l’ENS Cachan. C’est aussi un enseignant brillant. C’est un spécialiste de ces méthodes formelles qui permettent de vérifier des systèmes informatiques calculant en le temps réel, et avec plusieurs processus en parallèle». Il a notamment dirigé la thèse d’une de nos stars, Patricia Bouyer, sur les automates temporisés (des automates finis auxquels on adjoint des horloges ce qui permet d’exprimer et vérifier des propriétés temporelles). Patricia est aujourd’hui DR CNRS, médaille de bronze et prix EATCS Presburger. Malgré ses responsabilités, Antoine a tenu à continuer à faire de la recherche jusqu’assez récemment .

    Les débuts de l’informatique à l’ENS Cachan ne furent pas toujours faciles. Certains  collègues d’autres disciplines souhaitaient une informatique à leur service. Comme Directeur du département Informatique (1995 a 2001), Antoine a eu à négocier pied à pied. Il ne quittait pas ses objectifs de vue et savait déployer une grande créativité pour les atteindre ou résister aux contraintes. Les arguments d’autorité n’avaient aucune prise sur lui. Ni la colère ou les menaces de son interlocuteur. Antoine n’est pourtant pas infaillible. Il a échoué à faire évoluer la cantine de l’ENS Cachan sur un point important. En 1995, il était possible de prendre deux plats définis à l’avance, écrits sur un tableau, par exemple un « steak haricot verts » ou un « poulet frites » mais pas une combinaison comme un « steak frites », et cela bien que les différents composants soient dans des bacs séparés. Antoine s’est battu mais il a perdu.  L’ensemble {steak, poulet, haricots verts, frites¬¬} muni de la combinaison cantinière officielle n’était pas un monoïde (**) et n’était certainement pas libre.

    Son goût de la compétition et de la performance ne s’exprime pas seulement dans le domaine scientifique. Il est passionné par le sport, surtout le rugby. (A son époque cachanaise, il lisait L’équipe tous les jours.) Il adore utiliser des métaphores sportives. S’il veut convaincre de viser l’excellence, il parle de : « jouer en première division ». Dans ces métaphores, on retrouve tout le plaisir qu’Antoine trouve dans la recherche, tout ce plaisir qu’il aimerait que les chercheurs des structures qu’il dirige partagent. Oui. Antoine sait se placer où il faut quand il faut ; il est là où arrive le ballon. Et, je ne parle pas d’opportunisme mais d’intuition, d’analyse, de raisonnement.

    Je me souviens encore de l’entretien que j’ai eu en 1995 avec Antoine pour sa candidature à l’ENS Cachan. Je lui ai prédit une carrière de ministre mais pour l’instant, il n’a été que :
    •    Directeur scientifique du département STIC du CNRS (2001-2003)
    •    Directeur interrégional Sud-Ouest au CNRS (2004-2006)
    •    Directeur d’INRIA Paris-Rocquencourt (2006-2010)
    •    Directeur général-adjoint d’INRIA (2010-2014) et enfin
    •    Président Directeur Général d’INRIA aujourd’hui.

    Antoine n’est pas encore ministre, mais sa carrière n’est pas terminée loin s’en faut. 🙂

    Alain Finkel, Professeur ENS Cachan

    (*) Laboratoire d’informatique théorique et programmation de Paris 7, maintenant LIAFA  de Université Paris Diderot
    (**) Blague de geek. Un monoïde est une structure algébrique. L’ensemble des mots d’un alphabet muni de l’opération de concaténation forme un monoïde libre.

  • Gérard Berry, traqueur de bugs

    Un informaticien médaille d’or du CNRS 2014 (communiqué du 24 septembre)

    college2Gérard Berry en cours au Collège de France

    C’est un chercheur en informatique qui vient de recevoir la médaille d’or du CNRS, la plus haute distinction scientifique française toutes disciplines confondues. Les informaticiens sont rares à avoir été ainsi honorés : ce n’est que la seconde fois, après Jacques Stern en 2006.

    Gérard Berry est un pionnier dans un nombre considérable de domaines informatiques : le lambda-calcul, la programmation temps réel, la conception de circuits intégrés synchrones, la vérification de programmes et circuits, l’orchestration de services Web. Il a été l’un des premiers informaticiens académiciens des sciences, le premier professeur d’informatique au Collège de France.

    Parmi ses grandes inventions, essayons d’en expliquer une, le langage Esterel.

    Sad_macEcran indiquant un code erreur sur
    les premières versions de Macintosh. @Wikipédia

    Nous sommes entourés de systèmes d’une incroyable complexité : téléphones, moteurs de recherche, avions, centrales nucléaires. Ils fonctionnent tous avec du matériel informatique (des circuits) et du logiciel informatique (des programmes). Mais alors que le plantage d’un téléphone ou même d’un moteur de recherche est anodin, il en est tout différemment des avions, des centrales nucléaires ou encore des pacemakers. Pour ces derniers, le bug peut provoquer un désastre. Pour ne donner qu’un exemple, c’est un bug qui est à l’origine de la destruction d’Ariane 5, de l’Agence spatiale européenne, quarante secondes seulement après son décollage, le 4 juin 1996. Or un bug, c’est souvent une seule ligne de code erronée sur des millions qui composent un programme. Ça vient vite ! Et ça peut faire mal.

    Comment éviter les bugs ? On peut bien sûr tester davantage les programmes. Cela permet de trouver beaucoup d’erreurs, mais combien d’autres passeront à travers les mailles du filet ? Une autre solution, c’est d’intervenir en amont dans le processus de création de programme, par exemple en fournissant aux informaticiens de meilleurs outils de conception, de meilleurs langages de programmation. C’est l’approche que prône Gérard Berry.

    Les langages de programmation standards sont mal adaptés aux situations rencontrées dans des systèmes aussi complexes que des avions. Il faut tenir compte à la fois du matériel et du logiciel, du fait que nombreuses tâches s’exécutent en parallèle, que parfois la même tâche est exécutée plusieurs fois pour se protéger d’une panne d’un composant. Surtout, il faut utiliser des modèles qui tiennent compte du temps, des délais de réponse, des mécanismes de synchronisation. Le nouveau concept de langage synchrone a permis de répondre à cette situation. Ce concept a été découvert et promu par Gérard Berry et ses collègues au travers notamment du langage Esterel. Ce langage ainsi que d’autres langages synchrones développés en France, comme Lustre et Signal, ont eu un impact majeur dans le monde entier.

    Mais comment un langage peut-il aider à résoudre des problèmes aussi complexes ? D’abord, parce qu’il permet de décrire les algorithmes que l’on veut implémenter sous une forme compacte et proche de l’intention du programmeur. Ensuite, parce que ce langage est accompagné de toute une chaîne d’outils de compilation et de vérification automatique, qui garantit que le produit final est correct.

    Les langages synchrones ont constitué une avancée scientifique majeure. Gérard Berry est allé plus loin encore, et les a emmenés dans l’aventure industrielle en cofondant la société Esterel Technologies. Ces langages sont aujourd’hui incontournables dans des domaines comme l’aérospatial ou l’énergie.

     

    Sa notoriété, Gérard l’a aussi mise au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ». Il passe un temps considérable, souvent avec des jeunes, à expliquer les fondements et les principes de la science informatique. Un défi !

    L’enseignement de l’informatique est l’un de ses grands combats. Il a dirigé avec Gilles Dowek l’écriture d’un rapport important sur la question. Un autre défi ! Alors qu’il  s’agit d’éducation, de science et de technique, l’Etat se focalise souvent sur le haut débit et l’achat de matériel. Un pas en avant et au moins un en arrière. Mais il en faut bien plus pour entamer l’enthousiasme de Gérard Berry.

    Gérard Berry est un inventeur. Au-delà d’Esterel, c’est un découvreur des modèles stables du lambda-calcul, un inventeur de machine abstraite chimique, un concepteur de langages d’orchestration d’objets communicants, comme HipHop. Gérard Berry s’investit avec enthousiasme dans ses nombreuses fonctions des plus académiques, comme professeur au Collège de France, aux plus mystérieuses, comme régent de déformatique du Collège de Pataphysique.

     

    Les Mardis de la science

    Et quand vous passerez devant une centrale nucléaire, admirez le fait que même s’il utilise des logiciels et matériels bien plus compliqués que votre téléphone, son système informatique ne « plante » pas, contrairement à celui de votre téléphone. Quand vous volerez, peut-être au-dessus de l’Atlantique, réjouissez-vous que le fonctionnement de votre avion soit plus fiable que celui de votre tablette. Et puis, de loin en loin, pensez que tout cela est possible parce que des chercheurs en informatique comme Gérard Berry ont mis toute leur créativité, toute leur intelligence pour développer cette science et cette technique qui garantissent la fiabilité des systèmes informatiques.

    Serge Abiteboul (Inria), Laurent Fribourg (CNRS) et Jean Goubault-Larrecq (École normale supérieure de Cachan)

    Pour aller plus loin

    1. « Science et conscience chez les Shadoks ! », vidéo
    2. « L’enseignement de l’informatique en France. Il est urgent de ne plus attendre », rapport de l’Académie des sciences, 2013
    3. « L’informatique du temps et des événements », cours au Collège de France 2012-2013)
    4. « Penser, modéliser et maîtriser le calcul », cours au Collège de France 2009-2010)
    5. « Pourquoi et comment le monde devient numérique », cours au Collège de France 2007-2008)
    6. Entretien avec Gérard Berry, Valérie Schafer, technique et science de l’informatique

    PS. : une citation de Gérard Berry, pataphysicien, « L’informatique, c’est la science de l’information, la déformatique, c’est le contraire. »

    PPS de Binaire : Une amie non informaticienne nous a écrit pour nous dire que le sujet était passionnant mais qu’elle n’avait pas tout compris, en particulier comment un langage comme Esterel pouvait aider. Binaire reviendra sur ce sujet avec Gérard Berry. Mais en attendant, nous conseillons une lecture qui tente d’aller plus loin dans les explications.