• Dieu a-t-il programmé le monde en Java ?

    Serge Abiteboul a rencontré pour Binaire Baptiste Mélès, un jeune philosophe des sciences qui sait aussi écrire du code informatique. Baptiste Mélès a étudié une analogie entre les langages de programmation orientés objet et la monadologie leibnizienne (n’ayez crainte !). Serge vous propose un article très simplifié de cette analogie qui, nous l »espérons, vous donnera envie d’aller lire l’article complet de Baptiste Mélès. La présentation détaillée de cette fameuse monadologie leibnizienne et les liens que Baptiste Mélès tisse avec la programmation orientée objet (avec des exemples de code) vous plongeront dans un univers passionnant où philosophie et informatique dialoguent.  Marie-Agnès Enard.

    Philosophie des systèmes (puce bleue). Logique, mathématiques, informatique (puce verte). Pensée et mathématiques chinoises (puce rouge). Trois thèmes de recherche qui nourrissent la pensée de Baptiste Mélès.

    En informatique, nous utilisons des « langages de programmation » pour dire aux machines ce que nous voulons qu’elles fassent. Ces langages sont très loin des « langages machines », c’est-à-dire des langages que comprennent les machines. Il est nécessaire d’avoir une phase de « compilation » où un programme dans un langage, par exemple Java, que parle le développeur (un être humain) est traduit dans un langage que comprend la machine. Comme une langue naturelle, un langage de programmation s’appuie sur un alphabet, un vocabulaire, des règles de grammaire ; comme dans une langue naturelle, les phrases des langages de programmation (on parle d’instructions) ont une significations.  Les différences entre les langages de programmation sont du même ordre que celles entre les langues que parlent les humains – les informaticiens ont juste réinventé Babel. Baptiste Mélès s’intéresse à la philosophie des connaissances mais il a aussi étudié les langages de programmation. Il m’a donc expliqué le lien entre la monadologie leibnizienne et les langages de programmation orientés objet d’où le titre de son article : Dieu a-t-il programmé le monde en Java ?

    Baptiste Mélès est parti de taxonomies des langages de programmation et de taxonomies d’écoles de philosophies et il a montré des liens entre ces taxonomies. En résumé, il existe plusieurs grandes familles de langages de programmation : par exemple, les langages impératifs, fonctionnels, logiques, orientés objet. Chacune d’entre elle est « proche » d’une école de philosophie.  Pour illustrer cette thèse, Baptiste Mélès s’attache à la famille la plus populaire de nos jours, celle des langages de programmation orientés objet qui inclut des langages comme Java, OCAML, Python, C++, et Ruby. Il nous explique les liens avec la philosophie «monadologique» de Gottfried Wilhelm Leibniz (1646–1716).

    La monadologie leibnizienne

    Gottfried Wilhelm Leibniz ©wikicommon

    Gottfried Wilhelm Leibniz, philosophe et scientifique allemand, voit la nature comme composée de substances simples, les monades, et de substances composées que nous ignorerons ici. Une monade est caractérisée par ses propriétés et par ses «actions internes». Ce qui distingue une monade d’un atome, c’est qu’elle est capable de  transformer son état, de réagir à son environnement, c’est-à-dire aux actions d’autres monades. Un monde est défini par les «essences» des monades qui le peuplent. (La vision du monde de Leibniz que je présente ici est évidemment hyper simplifiée par rapport à celle du philosophe.) C’est Dieu qui décide du comportement des différentes essences de monades et de leurs interactions.

    Baptiste Mélès écrit : « Pour résumer, la théorie leibnizienne des monades est une doctrine métaphysique dans laquelle les concepts, créés par Dieu, sont organisés de façon hiérarchique et préexistent aux individus ; les individus sont des êtres atomiques et animés, qui, quoique enfermés sur eux-mêmes, n’en sont pas moins capables de se représenter le monde et d’agir sur lui en échangeant des messages grâce à l’action intermédiaire d’une harmonie préétablie par le créateur. »

    La programmation orientée-objet

    humanEn programmation orientée objet, le programmeur définit des types d’objets (des classes dans la terminologie orientée objet) et les comportements des objets dans ces classes. Concrètement, un objet est une structure de données dans un certain état (typiquement caché pour l’extérieur) qui répond à un ensemble de messages. L’ensemble des messages (des programmes) acceptés par l’objet détermine son comportement. Les objets interagissent entre eux par l’intermédiaire de ces messages. Il n’est pas nécessaire de connaître le programme correspondant à un objet pour pouvoir interagir avec cet objet. Il suffit de connaître son «interface», c’est-à-dire l’ensemble des messages qu’il comprend. (C’est sans doute ce principe d’indépendance qui est à la base du succès de la programmation orientée objet.)

    L’analogie entre la monadologie leibnizienne et la programmation objet est claire. Les objets sont des monades. Les classes sont les «essences» de Leibniz. Si le Dieu de la Bible a créé l’homme à son image, les informaticiens ont façonné les développeurs orientés objet à l’image du Dieu de Leibniz. C’est tout sauf innocent.

    Du dialogue entre la philosophie et de l’informatique

    Les langages orientés objet permettent de mieux comprendre des concepts philosophiques qui peuvent paraître très abstraits. Par elle également, la philosophie permet d’expliquer les raisonnements complexes qui sous-tendent la programmation. Le dialogue entre philosophie et informatique enrichit bien les deux disciplines. On retrouve d’ailleurs dans ce dialogue un de mes thèmes favoris : l’informatique est un lieu naturel de rapprochement entre les sciences dites dures et les sciences humaines. (Voir texte sur les Humanités Numériques). Avec l’informatique, nous avons l’occasion de combler un fossé entre des sciences qui s’est construit depuis le 19ème siècle, et qui n’a pas lieu d’être.

    Serge Abiteboul, Inria et ENS Cachan

  • Dessine moi les impôts !

    Quand un ami de Binaire, Arnaud Sahuguet,  nous a suggéré de faire un article  sur «Openfisca», nous nous sommes demandés s’il était vraiment sérieux. La fiscalité est un sujet qui est loin d’exciter les foules. Comment intéresser le public du Monde sur un sujet comme informatique et fiscalité ? Et pourtant, c’est un sujet important qui nous concerne tous (que l’on paye ou pas des impôts). Nous avons décidé d’en savoir plus sur Openfisca et sur ses outils qui peuvent vraiment nous aider au quotidien. C’est donc Serge Abiteboul qui a relevé le défi de nous donner envie d’en savoir plus. Marie-Agnès Enard

    Quand j’ai regardé le site Web de OpenFisca, je me suis dit qu’on pouvait faire plus aguicheur. Alors, j’ai envoyé un courriel à Openfisca et proposé qu’ils m’expliquent devant un verre. Jackpot ! J’ai alors rencontré Mahdi Ben Jelloul de l’IPP (Institut des Politiques Publiques) et Emmanuel Raviart (EtaLab) et j’ai finalement trouvé le sujet très intéressant ; ils ont su me convaincre !

    Openfisca c’est un logiciel open-source de micro-simulation du système socio-fiscal. Une fois que l’on a dit ça, on s’est fait plaisir mais ça manque un peu de clarté. Alors décortiquons et demandons-nous au préalable à quoi cela peut servir ?

    Le but de cette collaboration entre l’IPP, Etalab et France Stratégie est d’abord de rendre compréhensibles à tous les citoyens les impôts et les prestations sociales. Une première version du logiciel OpenFisca est déployé sur le site « mes-aides.gouv.fr », qui devrait être lancé officiellement courant mars. L’accroche est alléchante :

    Service expérimental : Ici l’État innove avec
    la société civile pour offrir aux usagers
    le service public de demain.

    Sans titre-1

    Le constat de départ est très simple : des prestations sociales ne sont pas demandées par un nombre incroyable de personnes qui y auraient droit. Ils ne le savent pas ; ils ne veulent pas se lancer dans un dossier compliqué sans savoir si ça va marcher. Le site demande des informations simples au prestataire éventuel (cela peut-être saisi via un médiateur numérique, un ami, un bénévole d’une association) et propose de calculer si la personne en question a droit à telle ou telle prestation. Le problème est simple, la solution est claire.

    En cliquant sur cette image, on découvre un aperçu de l’interface

    L’outil est neutre. Il permet de savoir si vous pouvez bénéficier d’une prestation sociale, de comprendre ce que vous allez gagner ou perdre avec une nouvelle loi ou pourquoi pas, comment faire de l’optimisation fiscale. Dans des cas de divorce, le juge pourrait utiliser un tel outil plutôt que de fixer, par exemple, des pensions alimentaires à l’aide de grilles désuètes. On imagine aussi l’utilisation pour faire du « fact checking » (vérification des faits). Par exemple, nous avons assisté début 2014 à une polémique sur le fait que beaucoup de personnes qui ont droit au RSA, ne le demandaient pas. (Voir l’article des Décodeurs) Les outils de Openfisca peuvent être utilisés par les journalistes pour vérifier les chiffres que les politiques ou les administrations avancent. Nous sommes tous unanimes sur le fait que les débats se basent sur des chiffres corrects !

    impotsDe la complexité du problème : Les contraintes entre les variables, © Openfisca (cliquer sur le graphe)

    Pour arriver à cela, les quelques personnes d’Openfisca ont dû coder toute la législation des impôts, toutes les règles des prestations sociales. On imagine aisément la complexité d’une telle démarche. Maîtriser les règlements, interpréter le plus fidèlement les textes, clarifier les éléments de langage. Au-delà de la loi, il fallait comprendre les usages. À l’arrivée, il s’agit de centaines de variables et de fonctions qu’il faut exécuter en tenant compte des dépendances entre elles. Donc, au final des centaines de formules et des milliers de tests codés en « Python » (le langage de programmation utilisé). Pour un informaticien, c’est un problème super intéressant à programmer.

    On ne peut s’empêcher de se poser la question de la fiabilité d’un tel logiciel et des tests effectués avant de le déployer. Openfisca nous explique qu’une armada de tests ont ainsi été proposé par des experts et qu’actuellement on vérifie que le programme fait ce que les experts en attendent. Le verdict positif nous permettra de juger de la qualité et fiabilité du programme.

    Mais revenons à notre point de départ, « la micro-simulation du système socio-fiscal ». Que veut-on simuler ? Prenons un impôt particulier. Que se passerait-il si on changeait tel seuil, tel taux d’imposition ? Quel serait l’impact pour un ménage avec deux enfants en fonction du revenu imposable ? Mieux. En supposant que je désire développer telle prestation sociale pour arriver à offrir en moyenne une somme particulière à une catégorie particulière de la population. Comment pourrais-je y arriver ? Bien sûr, les administrations disposent déjà de tels logiciels, les impôts, la CAF, l’INSEE, d’autres. Mais avec Openfisca, le logiciel est libre. Tout le monde peut l’utiliser. Chacun peut l’améliorer, l’enrichir. C’est le principe du libre.

    Les impôts pour tou-te-s ©vidberg

    Au cœur de tout cela, il s’agit ni plus ni moins de définir un modèle de la fiscalité et des prestations sociales, un modèle « ouvert », partagé par tous et développé collectivement. Nous sommes au cœur de l’open-gouv, le Gouvernement ouvert. Mahdi, Emmanuel et d’autres (notamment Clément Schaff) ont développé de la belle technologie informatique et leur travail nous ramène au célèbre « Code is Law » de Lawrence Lessig. Avec Openfisca, les impôts et les prestations sociales sont devenues des lignes de Python, du code pour le bien de tous.

    Serge Abiteboul

     

    def function(self, simulation, period):
    period = period.start.offset(‘first-of’, ‘month’).period(‘month’)
    rsa_socle = simulation.calculate(‘rsa_socle’, period)
    rsa_socle_majore = simulation.calculate(‘rsa_socle_majore’, period)
    ra_rsa = simulation.calculate(‘ra_rsa’, period)
    rsa_forfait_logement = simulation.calculate(‘rsa_forfait_logement’, period)
    rsa_forfait_asf = simulation.calculate(‘rsa_forfait_asf’, period) # TODO: not used ?
    br_rmi = simulation.calculate(‘br_rmi’, period)
    P = simulation.legislation_at(period.start).minim.rmi

    socle = max_(rsa_socle, rsa_socle_majore)
    base_normalise = max_(socle – rsa_forfait_logement – br_rmi + P.pente * ra_rsa, 0)

    return period, base_normalise * (base_normalise >= P.rsa_nv)

    Le Revenu de solidarité active, https://github.com/openfisca
  • Les bonnes propriétés d’un système de vote électronique

    Pour poursuivre la série d’article sur le sujet du vote électronique (Qu’est-ce qu’un bon système de vote ? et la sureté des systèmes) par Véronique Cortier, Directrice de recherche au CNRS à Nancy, nous avons choisi de vous parler du système Helios pour mettre en lumière les bonnes propriétés d’un système de vote électronique et les possibilités offertes par certains algorithmes. Pierre Paradinas

    urne_vérouillée_votant_aussiMettre au point un système de vote électronique sûr est un exercice délicat. En particulier, la vérifiabilité et la résistance à la coercition sont des propriétés antagonistes : il faut à la fois démontrer qu’un certain vote a été inclus dans le résultat et ne pas pouvoir montrer à un tiers comment on a voté.

    Le système Civitas implémente un protocole qui vise à la fois la vérifiabilité et la résistance à la coercition. Les systèmes Helios et « Pretty Good Democracy » assurent la vérifiabilité et l’anonymat. Contrairement à Civitas, ils ne garantissent pas la résistance à la coercition, mais ils sont plus faciles à mettre en œuvre. Le fonctionnement d’Helios est aussi plus simple à exposer.  Pour approfondir le sujet, nous vous conseillons d’aller découvrir sur Interstices deux articles qui explorent plus en détail la partie cryptographie et le système Helios.

    L’exemple d’Helios

    Helios est un protocole développé sous licence libre par des chercheurs de l’Université d’Harvard et de l’Université catholique de Louvain (Ben Adida, Olivier de Marneffe et Olivier Pereira), basé sur une proposition originale de Josh Benaloh. Helios a été retenu pour élire le recteur — équivalent du président — de l’université catholique de Louvain et a également été utilisé à plusieurs reprises dans des élections étudiantes, par exemple à Princeton et Louvain. L’association internationale des chercheurs en cryptographie (IACR) l’a aussi choisi pour élire les membres de son bureau.

    Il s’agit d’un protocole en deux phases, comme le système de vote papier classique : la phase de vote à proprement parler et la phase de dépouillement. Pour simplifier la présentation, le cas présenté est l’exemple d’un référendum où chaque électeur peut voter 0 (pour non) ou 1 (pour oui).

     

    schema-helios2Helios : phase de vote. Illustration © skvoor – Fotolia.com.

    Phase de vote

    Le système Helios utilise un chiffrement à clef publique. C’est un système de chiffrement dit asymétrique : la clef de chiffrement est publique — tout le monde peut chiffrer — alors que la clef de déchiffrement est privée — seules les personnes ayant la clef de déchiffrement peuvent déchiffrer.

    Pour voter, chaque électeur, au travers de son navigateur, chiffre son choix (0 ou 1) avec la clef publique de l’élection. Il fournit également la preuve qu’il a bien chiffré l’une des deux valeurs 0 ou 1 et non une autre valeur. Cela est possible grâce à une technique cryptographique particulière, appelée preuve à divulgation nulle de connaissance, qui permet de prouver que le contenu d’un chiffré vérifie une certaine propriété, sans fournir aucune autre indication sur le contenu du chiffré.

    Le vote chiffré, accompagné de la preuve de validité, forme le bulletin qui est envoyé à une urne. Une des caractéristiques importantes d’Helios est que l’urne affiche sur une page web publique tous les bulletins reçus.

    Ainsi, chaque électeur peut vérifier que son bulletin est présent dans l’urne.

    Phase de dépouillement

    La phase de dépouillement est plus complexe et les explications sont données sur l’article complet Helios sur le site d’Interstices. En résumé, les propriétés mathématiques des algorithmes mis en œuvre empêchent le votant malhonnête de chiffrer autre chose que 0 ou 1 et d’ajouter des bulletins dans l’urne. Elles permettent également à chacun de vérifier le résultat de l’élection, à nouveau à l’aide de preuves à divulgation nulle.

    Les points forts d’Helios

    Helios est un système de vote relativement simple comparativement aux autres systèmes existants. Il est facile à mettre en œuvre et il s’agit d’un logiciel libre, ce qui signifie que le code source est disponible. Helios assure bien sûr la confidentialité des votes mais son principal avantage est d’être entièrement vérifiable et par tous : tout électeur peut suivre son bulletin dans l’urne, calculer le résultat de l’élection sous une forme chiffrée et vérifier les calculs effectués par les autorités de déchiffrement. Il s’agit d’une différence fondamentale par rapport à la plupart des solutions commerciales actuellement déployées : même si les entreprises développant ces solutions font un effort pour que leurs systèmes soient audités par des experts habilités, elles ne permettent pas à tout un chacun de vérifier que le résultat proclamé est conforme.

    20 ans après le vote est révélé !

    Dans Helios, les votes sont affichés de manière chiffrée avec l’identité des électeurs ce qui comporte des risques pour l’anonymat. En effet, des systèmes de chiffrement qui sont sûrs aujourd’hui pourraient ne plus l’être dans 20 ou 30 ans. Les avancées scientifiques et technologiques permettront très probablement de casser ces chiffrés et de connaître ainsi comment chacun des électeurs a voté. D’autre part, en France, la liste d’émargement n’est pas publique en général. Ainsi, les recommandations de la CNIL en matière de vote électronique précisent que : « Les fichiers comportant les éléments d’authentification des électeurs, […] ne doivent pas être accessibles, de même que la liste d’émargement, sauf aux fins de contrôle de l’effectivité de l’émargement des électeurs. » Une solution très simple pour corriger Helios consiste à ne plus afficher l’identité des électeurs. Malheureusement, cela affaiblit également la sécurité du système : dans le cas où l’urne serait attaquée (par exemple si des hacker parviennent à contrôler le système informatique déployé pour l’élection), il serait alors facile d’ajouter quelques bulletins sans se faire remarquer. Le développement d’un système de vote sûr est un sujet de recherche très actif à l’heure actuelle. Ainsi, une évolution d’Helios, appelée Belenios, comporte une protection cryptographique contre le bourrage d’urne.

    Quand (ne pas) choisir d’utiliser Helios ?

    Des systèmes ouverts et vérifiables comme Helios représentent une avancée pour les élections qui ont lieu à distance. Cependant, il est important de souligner qu’Helios, comme tout système de vote en ligne, ne nous semble pas adapté à des élections à forts enjeux, comme des élections politiques (présidentielles, législatives…). En effet, un ordinateur compromis pourrait transmettre la valeur du vote d’un électeur à une tierce personne, et à l’insu de l’électeur. Il pourrait également voter pour une autre personne (même si Helios comporte quelques protections contre cela, non décrites ici). Ces faiblesses ne sont pas dues au système Helios, mais au fait qu’on ne peut tout simplement pas avoir une totale confiance dans la sécurité d’un ordinateur personnel.

    De manière générale, certains problèmes de sécurité sont inhérents au vote par Internet. Ainsi, des logiciels malveillants comme des virus ou un enregistreur de frappe (keyloggers) peuvent enregistrer et divulguer les votes, brisant ainsi l’anonymat. D’autres logiciels peuvent non seulement divulguer les votes mais également changer leur valeur, sans être détectés. En 2012, lors des votes des Français de l’étranger aux élections législatives, Laurent Grégoire, ingénieur français travaillant aux Pays-Bas, en a fait la démonstration en mettant au point un logiciel capable de remplacer le choix de l’électeur pour un parti pirate, au moment où l’électeur votait. En 2007, en Estonie, un étudiant en informatique, Paavo Pihelgas, a également construit un logiciel pour produire des bulletins valides, pour le candidat de son choix. Dans les deux cas, il s’agissait de systèmes de vote dont le fonctionnement et le code source n’étaient pas connus. Ceci démontre que le secret du fonctionnement du système ne garantit pas la sécurité. Au contraire, il est souhaitable que la description du système et le code source soient ouverts pour permettre à un maximum de personnes de procéder à une analyse de sécurité.

    Même pour les systèmes les plus sûrs et les plus vérifiables, les mécanismes de vérification font appel à des théories mathématiques complexes dont la compréhension détaillée est réservée à des experts. Les autres utilisateurs doivent faire confiance à ces experts, contrairement au vote papier où les procédures sont comprises par une vaste majorité des citoyens.

    Election technology
    © The Economist on October 27th 2012, un article qui explique comment le vote à domicile sur Internet pose des problèmes d’acceptabilité, mais change aussi létat d’esprit de l’électeur au moment du vote.

     

    Vote à l’urne/Vote par correspondance/Vote par Internet ?

    Pour toutes ces raisons, il semble prématuré d’utiliser le vote par Internet pour des élections à forts enjeux comme des élections politiques importantes. Par contre, il serait réducteur de penser que le vote par Internet est plus dangereux que les autres systèmes de vote en général. Ainsi, le vote par Internet est souvent utilisé pour remplacer le vote par correspondance, qui lui-même n’est pas un système totalement sûr comme nous en avons discuté dans un précédent billet.

    En conclusion, le choix d’utiliser un système de vote électronique dépend très fortement du système déjà en place et du type d’élection.

    Véronique Cortier, CNRS – Nancy, et Steve Kremer, INRIA Nancy Grand-Est, chercheurs au LORIA.

     

  • L’informatique sur Wikipédia

    WikipédiaBinaire a pris l’initiative d’une série d’actions regroupées sous le nom de code « Cabale Informatique de France ». Il s’agit de contribuer aux pages de Wikipédia sur l’informatique, en français. Cela démarre le samedi 11 avril par un « pizza camp » co-organisé par la Société Informatique de France et Wikimédia France. Serge Abiteboul et Marie-Agnès Enard.

     

    La Société Informatique de France et Wikimedia France s’associent pour enrichir les articles de Wikipedia dédiés à l’informatique, en français. A l’heure où l’école, le collège et le lycée ouvrent plus largement leurs portes à l’informatique, il nous a paru important de participer à l’enrichissement de la première encyclopédie en ligne au monde. Des formateurs seront aux côtés des participants pour les initier à la contribution sur Wikipedia. Cette journée est une occasion unique pour découvrir les rouages de Wikipédia.

    @Maev59
    @Maev59

    Rendez-vous samedi 11 avril de 10h à 18h à l’UPMC, 4 place Jussieu, Paris 5e.
    Salle 105 barre 26-25

    10h-10h30 : Café d’accueil et introduction
    10h30-13h : Session de contribution
    13h-14h : Déjeuner sur place (à la charge des participants)
    14h-17h30 : Session de contribution
    17h30-18h : Conclusion

    Merci d’apporter votre ordinateur portable
    Demande d’inscription : http://tinyurl.com/oghbuaa
    Inscription dans la mesure des places disponibles.

    Une fois votre demande d’inscription acceptée, merci de confirmer votre présence avant le 30 mars par courriel à thierry.vieville@inria.fr. Seul le reçu de cette confirmation vous garantira une place.

    En collaboration avec

  • L’ordinateur imite l’homme imitant la femme…

    L’intelligence artificielle est un vrai sujet, mais c’est aussi une source de fantasmes dont la forme contemporaine est issue de textes d’Alan Turing. Isabelle Collet, Maître d’enseignement et de recherche à la Faculté des sciences de l’éducation de l’université de Genève, nous offre ici un éclairage inattendu et nous aide à dépasser les idées reçues. Elle attire notre attention sur le fait que c’est avant tout une histoire de « mecs ». À déguster donc… Thierry Viéville.

    shapeimage_2Quand je faisais mes études d’informatique, j’avais entendu parler du « test de Turing ». Pour moi, il s’agissait simplement de faire passer un test à un ordinateur pour savoir s’il était intelligent (ou s’il était programmé d’une façon suffisamment maline pour donner cette impression).

     

    Face à un ordinateur, l’humain est-il une femme ou un homme ?

    En faisant des recherches dans le cadre de ma thèse, j’ai lu un peu plus sur le « test de Turing »… et j’ai découvert avec fascination que quand les informaticiens prétendaient le mettre en place, ils en oubliaient la moitié : le jeu ne se met pas en place avec un humain et un ordinateur, mais avec un homme et une femme. Un observateur devra déterminer lequel de ses interlocuteurs est un homme et lequel est une femme. Il devra les interroger sans avoir aucun autre indice que le contenu des réponses que l’homme et la femme formulent. Puis, au bout d’un « certain temps », on remplace l’homme par l’ordinateur. Si l’observateur pense qu’il joue encore à détecter la différence des sexes et ne remarque rien, c’est que l’ordinateur a l’air au moins aussi intelligent que l’homme. À l’époque, je ne voyais pas bien l’intérêt de ce passage par la différence des sexes… Jusqu’à ce que je lise un texte de Jean Lassègue, auteur d’un autre texte sur Turing sur ce blog, et que je l’associe aux recherches de l’anthropologue Françoise Héritier. Je vais parler ici de cette connexion, avec tous mes remerciements à Jean Lassègue pour son excellente analyse du jeu de l’imitation .

    On pourrait considérer que la première partie du jeu (entre un homme et une femme) n’est qu’un prétexte pour permettre ensuite la substitution en aveugle avec l’ordinateur et que Turing aurait pu choisir un autre critère que la différence des sexes pour amorcer le jeu. Pour Jean Lassègue1, le critère de la différence des sexes est tout à fait capital : « il s’agit de passer d’un écart physique maximal entre êtres humains à un écart maximal entre espèces différentes (si on considère l’ordinateur comme une nouvelle espèce) ». Sur cette base, l’observateur est supposé en déduire que : « puisque la différence physique la plus profonde entre les êtres humains (être homme et être femme) n’est pas apparente dans le jeu n°1, la différence physique encore plus profonde entre les êtres humains d’une part et l’ordinateur d’autre part ne sera pas apparente dans le jeu n°2 non plus. ». Évidemment, si le jeu n°1 échoue, il n’est plus question de passer au jeu n°2 qui perd sa capacité démonstrative.

    Lors de la première phase de l’expérience, Turing signale que : « La meilleure stratégie pour [la femme] est sans doute de donner des réponses vraies. Elle peut ajouter à ses réponses des choses comme : ‘‘C’est moi la femme, ne l’écoutez pas’’ mais cela ne mène à rien puisque l’homme peut faire des remarques semblables ».

    Photo @Maev59
    Photo @Maev59

    Pourquoi Turing assigne-t-il ainsi les stratégies de jeu entre l’homme et la femme ? Toujours selon Lassègue, la stratégie de la femme est en fait une absence de stratégie. Dans le jeu de l’imitation, la femme est la seule qui s’imite elle-même, alors que l’homme imite la femme et que l’ordinateur imite l’homme imitant la femme.

    Dans une interview, un de ses anciens collègues, Donald Michie, rapporte ces propos de Turing : « Le problème avec les femmes, c’est qu’il faut leur parler. Quand tu sors avec une fille, tu dois discuter avec elle et trop souvent, quand une femme parle, j’ai l’impression qu’une grenouille jaillit de sa bouche. »1

    L’intelligence artificielle est-elle finalement « gendrée » ?

    Revenons au jeu de l’imitation : les femmes, qui sont supposée être de manière générale à ce point dépourvues d’à-propos dans une conversation, doivent se contenter d’être elles-mêmes dans ce jeu, c’est-à-dire, indiscutablement une femme, un être incapable de faire abstraction de son sexe. L’homme, par contre, va tenter de tromper l’interrogateur, et pour cela, il devrait être capable de se détacher de son sexe, c’est à dire de son corps sexué, pour réussir à imiter la femme. Et en fin de compte, ce que l’ordinateur va devoir réussir, c’est d’imiter l’homme qui imite la femme, ou, plus simplement, d’imiter la femme.

    Finalement, l’homme et l’ordinateur ont des stratégies tout à fait similaires. L’intelligence ainsi imitée par la machine est celle de l’homme et le jeu de l’imitation a pour conséquences, d’une part, d’écarter les femmes dès qu’on parle d’intelligence, et, d’autre part, de placer l’intelligence de l’homme (et non pas de l’humain) à un niveau universel.

    Il est en effet remarquable au début du jeu n°1 que Turing semble signifier que la différence des sexes se traduit clairement par les attributs physiques. Plus particulièrement, il pense qu’il y a une essence féminine (différente de l’essence masculine) et qu’une de ses manifestations fiables est l’apparence de la femme. Dans le premier et seul exemple de l’article proposé pour le jeu n°1, l’observateur pose une question relative à la longueur des cheveux de son interlocuteur-trice. Turing reprend ici, volontairement ou non, le présupposé sexiste largement répandu qui prétend, d’une part, que les femmes sont davantage asservies à leur corps que les hommes et, d’autre part, que leur apparence se superpose à leur personnalité. Rousseau disait déjà que la femme est femme à chaque instant, alors que l’homme n’est homme (c’est-à-dire un être mâle) qu’à des instants précis… le reste du temps, il est universel (c’est à dire un universel masculin, puisque de toute manière, la femme n’y est pas conviée).

    Notons que pour que le jeu puisse fonctionner, il faut bien que la femme soit elle-même, et ne puisse être qu’elle-même. La différence est alors produite par la capacité de l’homme à se détacher de son corps, car son esprit lui permet d’imiter un être pris dans un autre corps, et ainsi de jouer, sur ce plan, jeu égal avec la machine. On en vient à penser que l’intelligence universelle est plutôt du côté de la machine.

    Dans son jeu, Turing se débarrasse de la différence des sexes simplement en se débarrassant des femmes. Si l’intelligence que recherche Turing est universelle, ce n’est pas parce qu’elle a fusionné les sexes, mais parce qu’il n’en reste plus qu’un, auquel peut se comparer l’intelligence artificielle.

    On retrouve ce même fantasme quand il décrit les machines autorisées à participer au jeu : « Nous souhaitons enfin exclure de la catégorie des machines les hommes nés de la manière habituelle. […] On pourrait par exemple requérir que les ingénieurs soient tous du même sexe, mais cela ne serait pas vraiment satisfaisant »2. Cette phrase, qui peut être considérée comme un trait d’humour, possède en fait deux éléments essentiels pour comprendre la vision que Turing a de la machine. Tout d’abord, la machine est considérée comme étant littéralement l’enfant des ingénieurs, puisque s’il était produit par une équipe d’hommes et de femmes ingénieurs, cela jetterait le doute sur un possible engendrement biologique. D’autre part, pour que la machine puisse être éligible au jeu de l’imitation, une condition nécessaire est qu’elle ne soit pas issue de la différence des sexes.
    De plus, l’équipe d’ingénieurs de même sexe qui engendrerait une machine, serait selon toutes probabilités dans l’esprit de Turing, une équipe d’hommes. Sa vision de la création d’une machine de type ordinateur est non seulement un auto-engendrement, mais surtout un auto-engendrement masculin se débarrassant des femmes au moment de la conception sous prétexte, en quelque sorte, de ne pas tricher.

    Un paradis sans altérité !

    Photo @Maev59
    Photo @Maev59

    La cybernétique nous explique que, puisque le niveau supérieur de compréhension de l’univers implique l’étude des relations entre ses objets et non la connaissance de la structure des objets, les matières et les corps ne sont pas vraiment ce qui importe. Piégées dans leur corps, les femmes n’ont pas accès à ce niveau supérieur de compréhension de l’univers que propose le paradigme informationnel. Elles en seront même éventuellement écartées pour permettre à l’intelligence d’atteindre un idéal androgyne débarrassé du féminin. A cet instant, la perspective d’un monde idéal dans lequel l’homme pourrait se reproduire à l’identique devient possible.

    Les fantasmes d’auto-engendrement apportent une solution à ce que Françoise Héritier3 appelle le privilège exorbitant des femmes à pouvoir se reproduire à l’identique mais aussi au différent. Les femmes sont les seules capables de mettre au monde non seulement leurs filles mais aussi les fils des hommes. Selon Françoise Héritier, on retrouve dans de nombreux mythes des groupes non mixtes vivant séparément et pacifiquement, chacun étant capable de se reproduire à l’identique. L’harmonie primitive résidait dans l’absence d’altérité, jusqu’à ce qu’elle soit gâchée par un événement violent (en général : une copulation que (les) dieu(x) ne désirai(en)t pas).

    Philippe Breton estimait dans son livre de 1990 « La tribu informatique » que : « La reproduction au sein de la tribu se fait fantasmatiquement grâce […] à l’union de l’homme et de la machine ». Sur ce point, je ne suis pas d’accord. À mon sens, il n’y a pas d’union avec la machine, mais un auto-engendrement dont la machine est soit le produit (du temps où on fantasmait sur les robots) soit le support (depuis qu’on imagine des IA uniquement logicielle). Or, un auto-engendrement et une reproduction via une « matrice biologique » sont des procédés qui se présentent comme mutuellement exclusifs. C’est pourquoi je suis d’accord quand il ajoute : « Dans ce sens, l’existence même de la tribu informatique est en partie conditionnée par l’exclusion des femmes qui constituent une concurrence non désirée.»

    Le monde scientifique des années 1950 peut être un exemple du paradis sans altérité de Françoise Héritier. Le monde de l’informatique d’aujourd’hui n’en est pas très loin. L’auto-engendrement cybernétique au cours duquel l’homme seul duplique son intelligence dans une machine permettrait de faire fonctionner pleinement ce « paradis », il possède le double avantage de supprimer la différence des sexes en écartant les femmes du processus de reproduction et de permettre aux êtres mâles de se reproduire à l’identique.

    Isabelle Collet.

    1Lee, J. A. N. and Holtzman, G. « 50 Years After Breaking the Codes: Interviews with Two of the Bletchley Park Scientists. » The Annals of the History of Computing vol. 17 n°1 (1995) p. 32-43

    2Alan Turing, Jean-Yves Girard, La machine de Turing, 1995

    3Françoise Héritier, Masculin / Féminin, Dissoudre la hiérarchie. (2002).

    1Jean Lassègue, Turing. 1998.

  • Où sont les femmes ?

    C’est une question historique. Binaire l’a posée à une amie historienne, Valérie Schafer de l’Institut des sciences de la communication. Valérie reprend ici un sujet qu’elle a développé au congrès annuel de la Société Informatique de France qui s’est tenu récemment à Orléans. Regard sur l’histoire des femmes et de l’informatique. Serge Abiteboul.

    valerie
    Valérie Schafer

    La célébration cette année des deux cents ans de la naissance d’Ada Lovelace, la sortie de The imitation Game dans lequel Keira Knightley incarne la mathématicienne-informaticienne Joan Clarke ou encore la diffusion en France de la série britannique Enquêtes codées, qui permet de découvrir l’univers féminin de Bletchley Park, témoignent de ce que la relation des femmes à l’informatique est ancienne. Le temps serait-il à l’œuvre pour reconnaitre la place qu’elles ont pu occuper aux débuts de l’informatique? Le livre de l’historienne Janet Abbate, Recoding Gender, Women’s changing participation in Computing, s’ouvre ainsi sur un souvenir d’Elsie Shutt, fondatrice en 1958 d’une entreprise informatique qui employait à ses débuts uniquement des programmeuses en freelance travaillant à domicile : elle avoue sa surprise quand elle a rencontré des programmeurs, métier qu’elle considérait comme féminin. Et la journaliste Lois Mandel ne soulignait-elle pas en 1967 dans Cosmopolitan que l’informatique offrait des opportunités absolument remarquables aux femmes, avant de reprendre les propos de la pionnière de l’informatique Grace Hooper, qui comparait la programmation à l’organisation d’un dîner, concluant que les femmes sont naturellement enclines à cette activité ! Si cette idée peut aujourd’hui faire sourire, du moins témoigne-t-elle de ce que les représentations de l’informatique ont profondément évolué.

    cosmo-girlsLes pages d’ouvertures d’un article de  Cosmopolitan Magazine en 1967.
    Indiana University’s School of Informatics and Computing.

    L’historien Nathan Ensmenger [1] a souligné que si l’essentiel des recherches s’est intéressé à « l’histoire cachée » des femmes dans l’informatique, celle-ci ne nous apprend pas seulement sur les femmes, mais aussi sur l’informatique elle-même. On peut notamment retenir :

    • La présence nombreuse des femmes aux débuts de l’informatique, à Bletchley Park ou à la Moore School autour de l’Eniac, mais aussi dans le secteur civil que ce soit dans le domaine des cartes perforées, dans les départements scientifiques pour le traitement de données, ou dans la programmation.
    • La construction progressive d’une image masculine de l’informatique notamment de la part d’associations professionnelles, comme la Data Processing Management Association dont l’historien Tom Haigh montrait qu’elle avait œuvrée dès les années 1960 à dissocier son image de celle d’un monde professionnel féminin pour mieux valoriser et faire reconnaître son activité. Nathan Ensmenger souligne également le rôle des tests d’aptitude et de personnalités à la fin des années 1950 et dans les années 1960 pour recruter les programmeurs.
    • Un autre élément qu’éclaire cette histoire est celui du statut de l’informatique, et en particulier celui de la programmation, à la fois largement féminisée et souffrant à ses débuts d’une moindre reconnaissance que le domaine du matériel. Si la faible féminisation actuelle de l’informatique fait oublier que jusque dans les années 1980 la situation était toute différente, cet oubli tient aussi à ce que certains des emplois confiés aux femmes dans l’informatique étaient alors considérés comme de statut inférieur.
    usarmyPhoto of the U.S. Army.  Left: Patsy Simmers, holding ENIAC board Next: Mrs. Gail Taylor, holding EDVAC board
    Next: Mrs. Milly Beck, holding ORDVAC board Right: Mrs. Norma Stec, holding BRLESC-I board

    Non seulement l’analyse de la place des femmes dans l’informatique ne relève pas d’une histoire compensatoire, qui viserait à chercher quelques rares traces de leur présence, elle est une réalité historique, mais encore son étude et celle des rapports de genre éclairent l’histoire de l’informatique elle-même, son passé et son présent, donnant tout son intérêt à une thématique qui était au cœur du congrès annuel de la SIF qui s’est tenu à Orléans du 3 au 5 février 2015. Au-delà c’est aussi ses futurs que peut accompagner ce regard historique, à l’heure où le milieu informatique s’inquiète de la baisse inédite de la proportion de femmes dans ses rangs depuis vingt ans. L’histoire, en éclairant comment la discipline et les professions informatiques se sont construites [2], permet aussi de ne pas considérer comme acquise ou figée la situation actuelle.

    Valérie Schafer, Institut des sciences de la communication –  CNRS, Paris Sorbonne, UPMC

    coderecoding
    Pour aller plus loin

    1. Dans le livre collectif, Gender Codes: Why Women Are Leaving Computing?
    2. Colloque Femmes, genre et TIC du LabEx EHNE
  • Et un, et deux, et trois femmes Prix Turing !

    Après Ada Lovelace et Grace Hopper, et à l’occasion de la Journée internationale de la femme, Anne-Marie Kermarrec nous parle de plusieurs grandes informaticiennes et scientifiques, toutes Prix Turing. Elle achève ainsi sa démonstration – s’il était possible de douter – l’informatique est aussi pour les filles !  Serge Abiteboul.

    En 1966, l’ACM crée le prix Turing, l’équivalent du Nobel pour l’informatique, qui récompense les plus grands scientifiques du domaine. Il faudra attendre quarante ans pour voir entrer une femme au palmarès. Depuis, deux autres femmes ont été récompensées par le prestigieux trophée. Ce n’est pas si mal, quand la médaille Fields a récompensé une femme pour la première fois en 2014 !!

    Frances Allen,  source Wikipedia
    Frances Allen Source Wikipedia

    2006 : Frances Allen, née en 1932, après voir été la première femme à recevoir le titre d’IBM fellow,  est la première à se voir récompenser par le prix Turing pour ses  contributions pionnières tant pratiques que théoriques dans l’optimisation des compilateurs. Lors de ses études de mathématiques à l’Université du Michigan, Ann Arbor, elle y prend aussi des cours d’informatique, parmi les premiers dispensés. Elle est engagée par IBM avec l’envie de revenir à ses premières amours et de revenir enseigner les mathématiques quand son prêt étudiant serait soldé. Elle restera 45 ans chez IBM. Sa passion pour la compilation lui vient de la lecture attentive du compilateur Fortran en 1957 quand d’autres lisent des romans ! En bref,  un compilateur traduit un langage de programmation de haut niveau, comme le langage Cobol dont Grace Hopper est à l’origine rappelez-vous, un langage adapté à des humains, en instructions qu’un ordinateur peut exécuter. Un compilateur est donc par définition dépendant d’un langage de programmation et d’une architecture machine. Avec son équipe, elle conçoit le premier environnement de compilation multi-langages (Fortran, Autocoder qui est un langage proche de Cobol de Grace Hopper et Alpha). Les trois langages partageaient en particulier un socle d’optimisation qui permettait de produire du code pour les deux architectures du supercalculateur Stretch et de son co-processeur Harvest. Elle travailla ensuite à la conception du premier ordinateur superscalaire (ACS) capable d’exécuter plusieurs instructions simultanément, y compris dans le « désordre ». Il va de soi qu’écrire des compilateurs associés à ce nouveau type d’architecture représentait un incroyable défi, qu’elle a su relever en représentant le code source comme un graphe plutôt que comme une séquence d’instructions. Cette représentation a permis en particulier de pouvoir détecter des relations entre différentes parties du code difficiles à détecter autrement. Son dernier projet a consisté à compiler des programmes séquentiels pour des architectures parallèles.

    L’une des grandes vertus scientifiques de Frances Allen, a été à l’instar de Grace Hopper, non pas de réinventer des nouveaux paradigmes en langage de programmation mais de concevoir des mécanismes nouveaux d’analyse et d’optimisation permettant de traiter les langages tels qu’ils étaient utilisés en pratique.

     
    Barbara Liskov Source Wikipedia
    Barbara Liskov
    Source Wikipedia

    2008 : Barbara Liskov reçoit le prix Turing pour ses travaux dans le domaine des langages de programmation et de la méthodologie polymorphe. Barbara Liskov, née en 1939, fait ses études à Berkeley, passe un doctorat à Stanford avant de rejoindre Mitre Corp où elle crée le système d’exploitation pour l’ordinateur Venus, un système d’exploitation qui permettait d’isoler, en utilisant la notion de machine virtuelle (ça vous rappelle quelque chose ?) pour isoler les actions, et donc potentiellement les erreurs, d’un utilisateur sur une machine partagée entre plusieurs utilisateurs : les débuts du temps partagé. Elle devient professeur au prestigieux MIT en 1971. Elle y conçoit un langage de programmation, appelé CLU, qui introduit les notions de modularité, d’abstractions de données et de polymorphisme (ce qui permet d’utiliser le même code pour des types d’objets différents), notions fondatrice des langages orienté-objet dont le plus connu est le plébiscité Java. Le langage Argus, sur lequel elle travaille plus tard, étend ces concepts  pour faciliter la programmation au dessus d’un réseau. C’est d’ailleurs dans le domaine des systèmes distribués, quand plusieurs machines connectées par un réseau exécutent ensemble une application, qu’elle continuera son illustre carrière. Elle est encore extrêmement active aujourd’hui et les travaux actuels du domaine reposent sur bien des concepts qu’elle a introduit en terme de réplication, tolérance aux défaillances, etc. Elles s’est en particulier attaquée à l’algorithmique Byzantine, qui consiste à tolérer la présence d’entités malicieuses (attaques ou fautes matérielles ou logicielles aléatoires) dans un système.

    L’avantage de mettre autant de temps à récompenser les femmes dans cette discipline jeune est qu’elles sont toujours actives !  J’ai eu la chance de rencontrer Barbara Liskov, une grande dame de ma discipline, que nous admirons tous beaucoup et qui est en particulier une fervente défenseure de la cause féminine. Elle a beaucoup contribué à renforcer la présence des femmes professeurs au MIT, et met beaucoup d’énergie pour animer la communauté des femmes en système en particulier.

    Shafi Goldwasser Source Wikipedia
    Shafi Goldwasser
    Source Wikipedia

    2012 : Shafi Goldwasser  reçoit, avec Silvio Micali, le prix Turing pour ses travaux  dans le domaine de la cryptographie et de la preuve informatique. C’est un peu comme si Babbage avait partagé son prix de la Royal Academy of Astronomy avec Ada… Shafi Goldwasser est née seulement en 1958 et son nom est déjà célèbre dans le domaine de la cryptographie. Cette volontaire et énergique Professeure au MIT est connue en particulier pour ses contributions pionnières dans le domaine de la cryptographie et des « preuves interactives connaissance-zéro ».

    Durant ses études à Carnegie Mellon University, Shafi effectue un stage à RAND Corporation qui lui fait découvrir la Californie et surtout Berkeley où elle commence un doctorat sous l’égide du très connu Dave Patterson. Elle rencontre son brillant collaborateur Silvio Micali et commence à s’intéresser à la cryptographie. La cryptographie est un cauchemar à expliquer. Pour simplifier disons que l’une des contributions majeures de Shafi a été cette « preuve interactive connaissance-zéro », qui désigne une méthode dans laquelle une entité prouve à une autre entité qu’une proposition est vraie mais ne donne aucun autre élément que la véracité de la proposition. La dernière fois que l’on m’a expliqué ce concept, c’était justement Shafi Goldwasser, qui nous avait fait le plaisir d’honorer de sa présence un évènement scientifique que nous organisons pour les étudiants. Une célébrité très accessible.

    zeroPreuve interactive connaissance-zéro, Wikipedia

    Le principe de la « preuve interactive connaissance-zéro » est souvent expliquée de la manière suivante (source wikipedia). Imaginons Peggy (en rose sur l’image, une fois n’est pas coutume) et Victor (en vert), Victor souhaite savoir si Peggy connaît le code d’un passage secret entre une allée A et une allée B d’une cave. L’objectif de Peggy est de lui montrer qu’elle connaît le code sans le divulguer. Peggy entre dans la cave sans que Victor ne sache par quelle allée elle est entrée. Victor lui demande de sortir par l’une des allées, A ou B.  Si Peggy connaît le code et que Victor lui demande de sortir par l’allée A, peu importe l’allée par laquelle elle est entrée, elle sortira par A (en ouvrant le passage secret si elle est entrée par B). Sinon elle a seulement une chance sur deux de sortir par l’allée demandée. En répétant cette opération (interactive) plusieurs fois, la probabilité que Peggy sorte par l’allée demandée devient très petite si elle ne connaît pas le code. Ainsi ceci fournit un moyen de  vérifier que Peggy connaît le code (preuve) sans que Peggy ait à divulguer d’information (connaissance-zéro). Expliquer cet exemple est déjà un défi, quand à le prouver, cela vaut bien un Turing Award  !

    À quand la super production Hollywoodienne qui nous portera tout ça à l’écran ?

    Anne-Marie Kermarrec, Inria Bretagne

     

  • La pétulante Grace Hopper

    Après Ada Lovelace hier et à l’occasion de la Journée internationale de la femme, Anne-Marie Kermarrec nous parle d’une autre grande pionnière de l’informatique, Grace Hopper. Inventeure d’un des langages de programmation qui a été le plus utilisé, Cobol, Grace Hopper est une grande dame dans un style très différent d’Ada Lovelace. Serge Abiteboul.

    graceGrace Hopper, Wikipedia

    Grace Hopper (1906-1992) est américaine, elle obtient un doctorat en mathématiques à Yale et commence à enseigner la discipline à Vassar College en 1931.  En 1943, elle s’engage dans l’armée américaine comme beaucoup d’autres femmes, dans l’unité exclusivement féminine WAVES. Ces femmes étaient appelés les « ordinateurs humains » et étaient en charge, pendant que les hommes étaient au front, d’étudier en particulier des trajectoires balistiques. Grace Hopper est affectée à Harvard comme lieutenant pour y programmer l’ordinateur Mark 1. Son supérieur H. Aiken, un peu réticent à l’idée d’avoir comme second une femme, accuse cependant très vite réception des qualités de Grace Hopper pour la discipline.  Le Mark 1 est un calculateur générique, programmable par cartes perforées.  Grace Hopper s’attèle à la programmation de cette machine dont les résultats seront très importants dans ce contexte de guerre. Grace Hopper décide alors de nommer le processus d’écrire des instructions, le codage (coding). Il est amusant de noter que ce terme, remplacé par celui de programmation, vient d’être récemment remis au goût du jour. À l’issue de la guerre, Grace Hopper ne peut réintégrer la Navy en raison de son âge trop avancé, et  doit quitter Harvard qui n’attribue pas de postes de professeurs aux femmes.

    Elle rejoint alors  Eckert-Machly Computer Corporation, une « startup » qui souhaite commercialiser l’ordinateur, et l’équipe qui développe l’Univac.  Grace Hopper est parmi les premières à défendre l’idée d’un langage de programmation qui serait  d’une part indépendant des machines (de multiples ordinateurs  fleurissent à l’époque) et d’autre part possible d’être exprimé non pas avec des symboles mais à l’aide d’un langage proche de l’anglais, permettant ainsi à des gens qui n’auraient pas de doctorat en mathématiques ou informatique de pouvoir programmer des ordinateurs. Elle introduit alors avec cinquante ans d’avance le concept de réutilisation. Les langages de programmation de haut niveau étaient nés. Elle écrit en 1952 le premier compilateur.  Elle introduit en particulier la notion  de subroutines, réalise qu’elles peuvent être stockées et assemblées par l’ordinateur lui-même. Elle écrit alors un morceau de code, un compilateur, pour effectuer ces tâches automatiquement. C’est en 1959, qu’avec une poignée d’autres scientifiques, elle pose les bases du langage Cobol, très largement inspiré du FLOW-MATIC qu’elle avait inventé quelques années auparavant. Cobol sera une vraie révolution industrielle.

    Enfin, Grace Hopper est connue pour avoir rendu populaire la notion de « bug », même si le terme était déjà utilisé pour désigner des phénomènes inexplicables. Le terme de « bug » est associé à la découverte d’un insecte, en l’occurrence une mite, qui avait provoqué un faux contact et une  erreur dans l’exécution  d’un programme.

    Une féministe à sa manière, Grace Hopper croyait fermement que les femmes disposaient des mêmes capacités (ça c’est faire preuve de féminisme) et des mêmes opportunités (ça moins, un manque de discernement étonnant pour une femme de ce calibre) que les hommes. Ceux qui connaissent Grace Hopper ont en tête l’image de la vieille dame, amiral  de l’armée américaine, austère,  en uniforme. Grace Hopper s’est pourtant imposée dans ce monde informatique en construction,  largement dominé par les hommes, à renforts de sarcasmes, d’humour mais aussi de charme, selon ses propres mots [1].  En revanche, elle n’a jamais admis que les droits des  femmes avaient besoin d’être défendus d’une quelconque manière. Trop optimiste sur la condition humaine il semblerait. Qu’importe, son nom aujourd’hui est clairement associée à une réussite féminine en informatique. Toute féministe qu’elle était, il est amusant de noter que le nom Hopper est en fait celui de l’homme avec qui elle s’est mariée en 1930 et dont elle a divorcé en 1945.

    Contrairement à Ada Lovelace, Grace Hopper a été très primée tout au long de sa vie. Elle reçoit en particulier en 1969, le prix de l’homme de l’année en informatique (Computer Sciences Man of the Year award).  En 1973, elle devient la première personne américaine et la première femme, toutes nationalités confondues, à recevoir la distinction  « Distinguished Fellow of the British Computer Society ». En 1971, l’ACM crée le prix Grace Murray Hopper, qui récompense le(la) jeune informaticien(e) de l’année.

    À suivre…

    Anne-Marie Kermarrec, Inria Bretagne

    Pour aller plus loin

    1. The queen of Code, directed by Gillian Jacobs.  http://fivethirtyeight.com/features/the-queen-of-code/
    2. Grace au Letterman Show  (en anglais)
    3. The Queen of Code
    Commodore_Grace_M._Hopper,_USN_(covered)Rear Admiral Grace M. Hopper, USN, Ph.D. Wikipedia
  • La visionnaire Ada Lovelace

    Voilà quarante ans que nous célébrons les femmes le 8 mars, depuis 1975, année internationale de la femme, pour accuser réception de la lutte historique concernant l’amélioration des conditions de vie des femmes. Vaste programme, comme dirait l’autre. Toujours cet arrière goût d’inachevé…  Pour l’occasion, Anne-Marie Kermarrec nous parle de grandes pionnières de l’informatique, aujourd’hui Ada Lovelace. Le premier programmeur de l’histoire était une programmeure ! Serge Abiteboul.

    ©Inria/Lebedinsky
    Anne-Marie Kermarrec ©Inria/Lebedinsky

    1967 : autant de bachelières que de bacheliers, pour la première fois.  2015 : à peine 10% de femmes dans les cursus d’ingénieurs. L’informatique continue de se sinistrer doucement mais surement. Au cours du congrès annuel de la SIF (Société informatique de France), consacré cette année à « Femmes et Informatique », nous n’avons pu que constater les statistiques en berne, qu’il s’agisse d’étudiantes, de chercheuses et enseignantes-chercheuses. Plus encore, à mesure que les grades augmentent, les femmes se raréfient. Same old story. D’aucun pourrait se réjouir du reste et conclure que l’informatique prend du galon, arguant du fait qu’une discipline qui se féminise est clairement en perte de prestige et de vitesse… Nous avons débattu deux jours sur les raisons de cet état de fait. Qui de l’image, des clichés, etc. …. et cette impuissance, prégnante, à inverser la tendance.  Oui quelques idées flottent bien, comme de convaincre les filles qu’elles aiment aussi la technique, de revamper les cours d’informatique ou encore d’enseigner l’informatique dès le primaire. On attend toujours le déclic sociétal…

    2014, si elle était le quarantième anniversaire de la légalisation de l’IVG,  était aussi celle du centenaire d’Alan Turing, le père de l’informatique. Turing, malheureusement encore trop peu connu du grand public quand il devrait mériter au moins autant d’égards qu’Einstein. Tout le monde connaît l’espiègle moustachu qui tire la langue, quand bien même la théorie de la relativité échappe à la majorité des gens, ou encore Freud, dont on sait qu’il interprète les  rêves. Turing, lui les aura réalisés. Pourtant, personne ne le connaît, quand la moitié de la planète tweete à longueur de journée, sur ses traces…

    2015 commence bien. Hollywood s’en mêle. Deux films consacrés à des scientifiques de renom : Alan Turing (Imitation game) justement et Stephen Hawkings (The theory of everything).  Imitation Game retrace les activités de Turing pendant la seconde guerre mondiale pour craquer Enigma, au creux de Bletchey Park, où mille délicates oreilles féminines interceptent les messages pendant que quelques cerveaux masculins s’évertuent à les décoder.  Pourtant, déchainement de critiques : impossible de comprendre précisément comment Enigma a été craquée, le concept de la machine de Turing est à peine évoqué, pas plus que le test éponyme permettant de différencier intelligence artificielle et intelligence humaine, qui pourtant donne son titre au film, Turing a l’air d’un autiste, l’homosexualité est trop timidement affichée, etc.   Soyons sérieux, quel scénariste, aussi talentueux soit-il, serait capable d’expliquer clairement la crypto au grand public dans un film hollywoodien ? Réjouissons nous plutôt que ce film ait du succès et permettent de mettre en lumière le père de l’informatique. Quand à The theory of everything, peut-être que le fait que Hawkings, lui même, ait rendu un verdict positif, suffira à faire taire les puristes des trous noirs.

    Mais revenons à nos moutons,  en cette veille de journée de la femme 2015, c’est une pionnière de l’informatique, que j’aimerais mettre sous le feu des projecteurs.

    adaAda Lovelace, Wikipedia

    La visionnaire Ada Lovelace (1815-1852)

    Ada Lovelace est le fruit des amours tumultueuses de Lord Byron, poète romantique dont le talent  n’a d’égal que le goût pour les frasques amoureuses, père qu’elle ne connaitra jamais d’ailleurs, et de Anabella Milanke, mathématicienne,  que Byron aimait à appeler sa « Princess of parallelograms »… De l’importance du niveau d’instruction des mères pour celle des jeunes filles.  Poussée par sa mère, elle étudie les mathématiques. Elle rencontre à 17 ans, Charles Babbage, mathématicien, professeur à l’Université de Cambridge. Fascinée par les machines qu’il conçoit, Ada y consacrera une grande partie de sa courte vie.

    Babbage, dont les travaux couvrent un spectre aussi large qu’hétéroclite, du pare-buffle pour locomotive à l’analyse des troncs pour y déceler l’âge des arbres, de l’invention du timbre poste unique aux premiers ordinateurs, conçoit sa machine à différence, sur les traces de la Pascaline de Pascal,  initialement pour pallier les erreurs humaines et fournir ainsi des tables nautiques, astronomiques et mathématiques exactes, y incorporant des cartes perforées du métier Jacquard. Ce métier, inventé par Jacquard afin d’éviter aux enfants les travaux pénibles, permettait de reproduire un motif grâce à des cartes perforées qui n’actionnaient que les crochets nécessaires à effectuer le motif choisi sur un métier à tisser. La légende dit que Jacquard s’en est toujours voulu de l’invention de cette machine qui, outre d’être à l’origine de la révolte des canuts, a certes détourné les enfants des métiers à tisser, mais ne leur a pas épargné des travaux pénibles dans d’autres secteurs et parfois dans des conditions encore plus difficiles.

    Le premier programmeur de l’histoire est une femme

    Babbage se concentre bientôt sur la conception d’une machine plus puissante, la machine analytique dont le design a déjà tout d’un ordinateur moderne. Si Babbage avait en tête de pouvoir effectuer grâce à sa machine de nombreux calculs algébriques, celle qui l’a réellement programmée pour la première fois est Ada Lovelace.  En 1842, à la faveur d’un séminaire de Babbage à l’Université de Turin,  Louis Menebrea, publie en français un mémoire décrivant la machine analytique de Babbage. Babbage, impressionné par les qualités intellectuelles et mathématiques d’Ada, et dont la compréhension fine de sa machine ne lui aura pas échappé, décide de lui confier la traduction de cet article.  Elle s’attellera à cette tâche avec une grande application et à la faveur de cet exercice, augmentera l’article de nombreuses notes, qui triplent sa taille. Ces notes, dont la publication l’a rendue « célèbre », démontrent que si elle appréhende le fonctionnement de la machine aussi bien que Babbage, elle en voit beaucoup plus clairement l’énorme potentiel.
    Ceci valut à Ada d’être considérée comme le premier programmeur de l’histoire. Elle a, la première, clairement identifié des notions essentielles en informatique que sont les entrées (les cartes perforées contenant données et instructions), les sorties (cartes perforées contenant les résultats), l’unité centrale (le moulin) et la mémoire (le magasin permettant de stocker les résultats intermédiaires). À la faveur de la conception de l’algorithme permettant le calcul des nombres de Bernoulli, elle a introduit la notion de  branchements, mais également expose comment une répétition d’instructions peut être utilisée pour un traitement, introduisant ainsi le concept de la boucle que l’on connaît bien en programmation.

    Cent ans d’avance. Dans ses notes,  Ada décrit en particulier comment la machine peut être utilisée pour manipuler pas uniquement des nombres mais aussi des lettres et des symboles. Ada est une visionnaire, elle est celle qui, la première, entrevoit l’universalité potentielle d’une telle machine, bien au delà de ce que ses contemporains pouvaient appréhender. Ada avait eut cette vision du calculateur universel bien avant l’heure, vision qu’Alan Turing formalisera quelque cent ans plus tard. En particulier elle fut, tellement en avance,  en mesure d’imaginer la composition musicale effectuée par un ordinateur.  Dans sa fameuse note G, la note finale, elle décrit un programme, comme nous l’appellerions aujourd’hui, qui permettrait à la machine analytique de faire des calculs sans avoir les réponses que les humains auraient pu calculer d’abord.  Virage radical par rapport à ce que l’on attendait initialement de la machine analytique.
    Ada Lovelace était une femme, non conventionnelle, athée quand sa mère et son mari étaient de fervents catholiques. Sur la fin de sa vie, Ada avait  pour seul  objectif de financer la machine de Babbage, elle croit avoir découvert une méthode mathématique lui permettant de gagner aux courses, qui la laissera dans une situation financière délicate. Elle meurt à 36 ans d’un cancer de l’utérus.

    Une femme trop peu célébrée. Même si un langage de programmation porte son nom, Ada est restée assez discrète dans la discipline.  Étudiante en informatique, j’ai entendu parler de Turing, de von Neuman ou de Babbage. Jamais d’Ada Lovelace. C’est Babbage qui  fut récompensé par la médaille d’or de la Royal Astronomical Society en 1824. La vision d’Ada prendra son sens quelque cent ans plus tard dans les travaux de Turing. Alors même qu’il apparaît clairement que les notes  d’Ada jetaient les premières bases de la machine de Turing, aucune des nombreuses biographies consacrées à Turing ne la mentionne. Il semblerait pourtant qu’il ait lu la traduction de Lovelace et ses notes  quand il travaillait à Bletchey Park.  Pire encore, certains historiens lui en retirent même la maternité comme l’historien  Bruce Collier [1]. Si cette interprétation est largement contestée, cela en dit long sur la crédibilité qu’on accorde parfois aux esprits féminins.

    À suivre…

    Anne-Marie Kermarrec, Inria Bretagne

    Et pour aller plus loin

    1. Bruce Collier. The Little Engine That Could’ve. 1990
    2. Suw Charman-Anderson. Ada Lovelace: Victorian computing visionary, chapitre de Women in STEM anthology, A passion for Science : Tales of Discovery and Invention.
  • Bonne fête des Meufes !

    FullSizeRenderBinaire essaie de ne pas sombrer dans le monde très masculin des sciences en ouvrant ses articles à un grand nombre d’amies. Nous avons d’abord les « gentilles éditrices » du Blog : Marie-Agnès (Maé quoi!) et Sylvie. Et puis, certaines auteures sont devenues des habituées comme Françoise qui nous raconte l’enseignement de l’informatique dans le monde ou Véronique qui nous parle de sécurité informatique.

    Donc pour nous la Journée de la Femme c’est toute l’année. Nous avons quand même voulu célébrer avec des amies cette journée, mais pendant une semaine. Nous aurons avec Anne-Marie des articles sur les grandes informaticiennes du passé comme Ada ou Grace, ou du présent avec trois Prix Turing. Nous parlerons de l’histoire des rapports entre femmes et informatique avec Valérie. Enfin, Isabelle nous proposera une vision gendrée du jeu de l’imitation d’Alan Turing.

    Voili-voilà ! Les éditeurs de binaire souhaitent

    • Une année prochaine moins machiste à ses lecteurs, et
    • Bonne fête à toutes ses lectrices !

     

     

  • Des robots et des humains

    Sur Interstices, la revue scientifique sur les sciences du numérique, Jean-Pierre Merlet, enrichit la rubrique sur la robotique d’une réflexion sur les problèmes soulevés par l’apparition de la robotique de service, et le fait que les robots évoluent de plus en plus au contact des humains. Un grand merci de nous permettre de reprendre ce billet ici. Thierry Viéville.

    © Inria / Photo H. Raguet

    Jusqu’à une période récente, l’utilisation des robots se cantonnait à des lieux où la présence humaine était totalement prohibée. Dans la plupart des cas, ces applications justifiaient l’étymologie du mot robot, qui vient de robota : corvée, travail pénible. Nous assistons actuellement à une évolution phénoménale de ce domaine avec, en particulier, l’apparition de la robotique de service. Les robots vont pénétrer dans tous les milieux, y compris dans la sphère privée. Ce changement s’accomplit suivant deux directions :

    • Des dispositifs spécialisés dans l’exécution d’une tâche. On peut citer en exemple les aspirateurs ou les tondeuses robotisées. Ils dérivent d’objets déjà présents dans les milieux humains, c’est l’évolution technologique et scientifique qui les a rapprochés de la robotique. Les drones s’apparentent aussi à cette catégorie.
    • Des dispositifs multi-fonctionnels, qui affichent en particulier des objectifs de symbiose avec l’humain. Pour simplifier, appelons-les « robots futuristes ». Les plus popularisés médiatiquement sont  les robots humanoïdes. Lorsque est affichée l’ambition que le robot devienne un véritable partenaire pour l’homme, on parle de robot compagnon. On est ici très proche des mythes antiques comme les servantes artificielles du dieu boiteux Héphaïstos ou de la machine servante de Saint Albert le Grand qui, selon la légende, a été démolie à grands coups de canne par Saint Thomas d’Aquin qui y voyait un suppôt de Satan. Il existe également des animaux de compagnie robotisés comme le chien AIBO ou le phoque PARO. Les exo-squelettes comme l’ATLAS du CEA ont pour objectif de suppléer à des déficits de mobilité, voire d’augmenter la mobilité humaine. Les robots de collaboration (cobot) assistent au plus près le travailleur humain.

    Un débat s’est engagé dans la communauté robotique pour déterminer si dans un futur relativement proche ces robots s’imposeraient. Examinons cette question non seulement d’un point de vue scientifique et technologique mais aussi d’un point de vue sociétal, sous l’angle de l’acceptation, des enjeux éthiques, etc.

    Des progrès matériels

    Arduino316Carte Arduino – Photo by Nicholas Zambetti
    [CC BY-SA 3.0 or CC BY-SA 3.0], via Wikimedia Commons

    Les dispositifs spécifiques se développent grâce aux nouveaux matériels informatiques, des processeurs à très bas coût comme le Raspberry ou les Arduino qui ont été conçus pour permettre d’interfacer en quelques minutes les capteurs nécessaires aux robots, capteurs dont les coûts ont considérablement baissé. La recherche en robotique bénéficie de cette évolution : il est désormais possible de réaliser en quelques heures et pour quelques centaines d’euros seulement des robots qui auraient nécessité, ne serait-ce qu’il y a 10 ans, des centaines d’heures de travail et des dizaines de milliers d’euros.

    Les robots futuristes bénéficient eux aussi des progrès en informatique, qui leur permettent de disposer d’une puissance de calcul importante, nécessaire même pour des fonctions basiques. Ainsi, le robot humanoïde NAO, un gros succès de la robotique française dont on a tout lieu de se réjouir, compte 25 servomoteurs qu’il faut simultanément contrôler pour que le robot puisse simplement marcher. Toutefois, cette puissance de calcul reste insuffisante. Ainsi, des robots encore plus sophistiqués, comme ceux utilisés pour les derniers challenges DARPA, souffrent d’une lenteur d’exécution visible sur les vidéos de présentation.

    C’est une chose d’obtenir des flux de données massifs issus des capteurs sensoriels. Mais, même en disposant d’une multitude de moteurs, c’en est une autre d’exploiter ces flux, très bruités, pour réaliser une tâche simple comme ouvrir un placard quel qu’en soit le mode d’ouverture, ceci en dépit des progrès réalisés en apprentissage automatique (machine learning). Les robots humanoïdes peuvent réaliser avec élégance quelques tâches spécifiques, ce qui a toutefois nécessité un long travail de la part des mathématiciens et des automaticiens. Bien que la complexité de ces robots justifie pleinement un effort de recherche, il faut cependant reconnaître, au risque de heurter certains roboticiens, que l’expression « robots intelligents » prête à sourire, tant ils font preuve dans beaucoup de cas d’une stupidité déconcertante. Il convient d’ailleurs de ne pas se leurrer sur certaines vidéos spectaculaires comme celle du robot ASIMO serrant la main du premier ministre chinois… alors qu’il est discrètement téléopéré.

    Des barrières techniques et économiques

    Outre ces limitations « intellectuelles », les robots humanoïdes sont confrontés à des barrières physiques et économiques. La première de ces barrières est liée à la physique de la manipulation : un NAO, malgré son incroyable succès médiatique, aura du mal à soulever un boulon de voiture, tandis qu’un robot capable de soulever 30 kilos en pèsera 600 et requerra 7 kW de puissance électrique, soit un rendement de 5 à 10 %. Cette faible efficacité n’est pas due à un mauvais rendement des actionneurs, qui au contraire est excellent, mais à la structure même du robot : la recherche de l’universalité dans l’exécution des tâches a imposé des architectures mécaniques où une partie importante de l’énergie est consacrée à l’équilibre de la structure au détriment de l’énergie affectée à la tâche.

    Et ce mauvais rendement conduit à se heurter à une autre barrière : l’autonomie énergétique. Certaines tâches courantes comme relever une personne ou monter une roue de voiture requièrent une énergie importante. De ce fait, elles sont hors de portée des robots humanoïdes, dont l’autonomie se limite à quelques dizaines de minutes sans réaliser ce genre de tâches.

    Une autre barrière est le coût. Les robots humanoïdes font appel à un nombre important d’actionneurs et de capteurs. Ces derniers ont vu leur prix considérablement baisser, mais restent encore souvent relativement coûteux, entre 1000 et 5000 euros pour un scanner laser par exemple. Pour les actionneurs, on fait actuellement appel à des composants industriels très standards et massivement diffusés, dont il semble peu probable que le prix puisse fortement baisser. On entend souvent parler de nouveaux types d’actionneurs, moins coûteux, mais sans mentionner leur rendement. Par ailleurs, une intégration plus poussée faciliterait certainement leur mise en œuvre, mais ne devrait pas avoir un impact considérable sur le coût. Actuellement, il faut compter plusieurs milliers d’euros pour un simple robot de téléprésence, 15 000 euros pour un NAO et plusieurs centaines de milliers d’euros pour un humanoïde de taille plus conséquente. Il y a aussi eu quelques effets d’annonce pour les cobots avec des prix très attractifs comparés aux robots industriels classiques. Mais un examen des robots présentés montre qu’ils ont une puissance et une dextérité réduites, ce qui en limite forcément les usages.

    Des mécanismes d’acceptation

    Spreading the Gospel of Robot Love« Les robots sont vos amis » – Source : Flickr / Photo Thomas Hawk

    Une barrière commune à tous ces robots est le problème de l’acceptation par l’humain. Il est probablement moins critique pour certains robots spécifiques, simplement dérivés d’objets du quotidien. D’autres, dont le design s’éloigne de l’objet équivalent, peuvent susciter une appropriation forte. Par exemple, il existe des sites qui proposent des habits pour personnaliser des robots aspirateurs, comme s’il s’agissait d’un animal de compagnie.

    Toutefois, d’autres robots spécifiques posent des problèmes d’acceptation : par exemple, l’utilisation des drones offrant la possibilité de pénétrer dans la sphère privée de tout individu a fait l’objet de réactions très violentes, allant jusqu’à la menace de les abattre.

    Pour les robots humanoïdes, le mécanisme psychologique de l’acceptation, qui peut être extrême — du rejet brutal et définitif à une appropriation proche du fétichisme —, n’est pas bien compris.

    Une théorie de l’acception est très en vogue en robotique humanoïde : la « vallée dérangeante » (Uncanny Valley). Elle explique que la non-acceptation est liée à des défauts d’apparence entre le robot et l’humain, qui sont jugés d’autant plus repoussants que sur d’autres aspects il peut faire illusion. En conséquence, un robot presque parfait peut être encore plus violemment rejeté que son prédecesseur. Mais la théorie stipule qu’une proximité encore plus proche permettra de passer ce creux, cette vallée du rejet, pour atteindre une acceptation complète. Cette théorie est toutefois très contestée car certaines études, comme celle menée par Christoph Bartneck, semblent montrer que même le plus parfait des humanoïdes n’atteindra jamais le seuil d’acceptation de robots plus simples dont l’apparence les fait classer clairement dans la catégorie des « machines » : la vallée serait plutôt une falaise inaccessible.

    On sait en tout cas que les outils classiques d’évaluation comme les questionnaires sont souvent biaisés, car l’objet évalué est très proche de l’humain.  Ainsi, les réponses traduisent plus l’image que l’utilisateur veut donner de lui vis-à-vis des nouvelles technologies que sa réelle appréciation du robot. Pourtant, l’étude de l’acceptation potentielle, en interaction avec des disciplines de sciences humaines et sociales,  devrait intervenir très en amont de la conception, car elle peut imposer des contraintes scientifiques et technologiques très fortes. Par exemple, le président d’une association mondiale de handicapés, en fauteuil roulant, à qui l’on demandait quelles fonctionnalités il aimerait pouvoir ajouter à son fauteuil, a simplement répondu « qu’il soit beau, sinon c’est un frein à mes relations sociales, en particulier avec les enfants ».

    Des questions éthiques

    Les robots humanoïdes posent aussi de nombreux problèmes d’éthique. La liste en est trop longue pour tous les exposer, mais l’on peut en citer quelques-uns. La proximité avec des humains de machines qui peuvent être relativement puissantes  ou qui sont censées les assister soulève des questions de risque et de responsabilité en cas d’accident. On évolue dans un domaine où la législation est encore extrêmement sommaire. Il est parfois invoqué l’implantation dans les robots des trois lois de la robotique d’Isaac Asimov pour assurer la protection des humains. Indépendamment du fait qu’on n’ait actuellement aucune idée du comment, c’est un peu vite oublier qu’Asimov s’est lui-même amusé à expliquer comment les détourner (dans son roman Face aux feux du Soleil par exemple).

    Outre la gestion des risques, on peut se poser des questions sur le rôle des robots dans l’interaction sociale. En admettant que cela soit possible, est-il souhaitable qu’un robot devienne un substitut aux relations humaines ? On peut par exemple parfaitement envisager que la société, poussée par des contraintes économiques ou par sa propre évolution, réduise l’aide humaine aux personnes fragiles pour la remplacer par des machines. Dans Face aux feux du Soleil, Asimov décrit d’ailleurs une société qui a poussé la substitution jusqu’au bout, avec des humains devenus incapables d’assumer la présence physique de leurs semblables.

    Dans un autre registre, la robotique, ou des technologies qui en sont dérivées, laissent entrevoir la possibilité de dispositifs d’assistance et de monitoring de la santé qui incontestablement pourraient avoir des impacts positifs. Elles permettraient par exemple de gérer voire de prévenir la chute des personnes âgées qui, chaque année, cause en France la mort de 10 000 personnes. Le premier problème éthique concerne la protection des données médicales recueillies, dont on ne peut pas exclure qu’elles soient utilisées à des fins malveillantes ou pour des escroqueries. Un second problème est soulevé par des psychologues qui craignent un risque de changement de comportement chez les utilisateurs. Les adeptes du Quantified self pourraient en effet devenir totalement fascinés par ces données, même s’ils s’en défendent vigoureusement. Ces psychologues soulignent que ces données peuvent modifier, parfois en mal, la perception d’événements de la vie courante.

    Reconstitution d’un appartement complet expérimental. Cet appartement sera équipé d’une grue à cables, MARIONET-ASSIST, permettant d’aider au lever et à la marche et offrant des possibilités de manipulation d’objets. Il comportera aussi des objets communicants qui aideront à résoudre des problèmes de détresse, comme une chute.
    © Inria / Photo Kaksonen.

     

    Ces mêmes psychologues parlent aussi du risque de perte de l’imprévu, un élément pourtant essentiel dans la vie humaine, dans le cas où l’on suivrait trop strictement les recommandations de ces dispositifs, par exemple, ne pas goûter un aliment exotique parce que sa composition est inconnue ou qu’elle n’est pas à 100% compatible avec les recommandations de l’appareil. Des robots « prescripteurs » ne seraient pas simplement des machines destinées à supprimer ou alléger l’exécution de certains robota, car ils pourraient aller bien plus loin dans leur influence sur leur partenaire humain, de façon parfois fort subtile. La position des autorités de régulation sur ces problèmes est encore incertaine : par exemple, l’autorité américaine de la santé a récemment indiqué que les applications mobiles qui sont censées ne fournir que des informations sur l’état de santé de l’utilisateur, sans émettre de recommandations, ne seraient pas tenues d’être enregistrées auprès de cet organisme et ne font donc l’objet d’aucune vérification de fiabilité. Qu’en serait-il si l’application résidait dans un robot compagnon ?

    Conclusion

    L’évolution scientifique et technologique permet d’envisager l’utilisation de robots au plus proche de l’humain, certainement avec des effets bénéfiques et des perspectives scientifiques très riches et multidisciplinaires combinant théories et expérimentations. Toutefois, cette potentialité d’impact et la richesse scientifique des problématiques représentent paradoxalement un obstacle au développement du domaine. En effet, elles compliquent l’évaluation de cette recherche, qui nécessite un regard croisé d’experts de sphères différentes. De plus, les développements et les impacts potentiels sont forcément de long terme. Ils sont donc peu compatibles avec le fonctionnement par appel à projet, courant sur des délais relativement courts, alors que le montage d’une seule expérimentation avec des humains peut nécessiter plusieurs années.

    Néanmoins, la perspective de robots « intelligents », capables d’accomplir de manière autonome un large éventail de tâches, incluant une interaction profonde avec un humain allant au-delà d’un rapport entre humain et animal, semble être une vision très lointaine dans le temps, même si la présentation médiatique de la robotique peut laisser croire le contraire. Les raisons de cet éloignement dans le temps, outre la difficulté d’élaborer des schémas intellectuels convaincants, repose sur des problématiques physiques et technologiques dont la résolution suppose un nombre important de ruptures technologiques majeures. Et, bien entendu, resteront posés des problèmes d’éthique, de droit et de choix de société qui sont pour le moment très peu traités.

    Jean-Pierre Merlet. Version originale : https://interstices.info/robots-et-humains.

  • Dominik, collégien et citoyen

    Journée Concertation Nationale à Nantes. J’anime un atelier sur l’éducation au numérique – vaste chantier. Dans les participants, Dominik Abbas, en 4ème au collège Saint Stanislas de Nantes.
    Des hobbies ? Astronautique, Sciences, Littérature, Citoyenneté.
    Un jeune très sympa qui m’impressionne par sa compréhension du sujet traité. J’ai rencontré des décideurs avec plein de diplômes qui devraient l’écouter. Alors je lui ai proposé de prendre la parole dans Binaire. L’informatique à l’école par un des élèves qui la vit. Serge Abiteboul.
    PS : je précise que le texte est intégralement de lui.

    BLS Maisoncelles du Maine du 20 au 26 juillet 2014, 25 juillet (11)Dominik Abbas, © Dominik Abbas

    Ce matin là, comme tous les lundis,  il est un peu plus de 8 heures lorsque je franchis le portail du collège. Ce matin là,  débat sur les programmes scolaires.  En général, les élèves aiment bien se disputer, mais il y a une question qui a toujours la même réponse : « Dans quel domaine l’école a-t-elle le plus de retard ? ». La réponse est donnée en chœur : « L’informatique!  »

    Pour s’en rendre compte,  il ne faut pas aller bien loin, il suffit d’ouvrir les yeux durant un cours de Géographie réalisé dans LA salle informatique,  celle où l’imprimante ne marche pas,  celle où il y a Internet tant qu’il n’y a pas plus de deux ordis allumés. Quand ceux-ci veulent bien s’allumer. Très vite les questions fusent :

    • Où c’est qu’on allume Google ?
    • Pourquoi ma session ne marche plus ?
    • Etc…

    Alors, comment en est-on arrivé là ? En effet, on ne prend pas dix ans de retard du jour au lendemain.

    Voici comment je l’ai vécu. En CE1, on possédait au fond de la classe un seul ordinateur, une véritable antiquité,  et ce fut comme ça jusqu’en CM2. Et c’est encore comme ça dans bien des écoles.  Les rares professeurs qui n’étaient pas découragés par le matériel devaient se débrouiller tant bien que mal afin d’élaborer des activités dignes de ce nom.
    Aujourd’hui encore,  dans mon collège, le matériel manque,  la couverture wifi est inexistante, etc…

    Le problème vient de tout un tas de choses. À commencer par les fournitures en matériel informatique, qui relèvent trop souvent du gadget. Pourquoi investir dans des tableaux blanc interactifs dernier cri alors que la plupart des salles de cours n’ont même pas de vidéo-projecteur ? Comme bien souvent, pas de réponse.

    Vient ensuite la formation de nos chers professeurs. Comment se fait-il qu’une grande partie d’entre eux ne sait même pas utiliser correctement un traitement de texte ? Encore une fois, pas de réponse.

    La liste, on pourrait la continuer encore longtemps, mais je vais l’écourter ici. Mais la vraie origine de tout cela, vient tout simplement du fait qu’il y a quelques années,  le ministère de l’éducation nationale n’a pas su prendre le tournant du numérique et de l’informatique.

    Il n’est cependant, à mon avis,  pas encore trop tard. Ce retard, on peut le rattraper, et on le rattrapera grâce à l’action du gouvernement, mais aussi des citoyens. Un exemple simple est la concertation citoyenne qui s’est close à Nantes il y a quelques semaines. À l’initiative du conseil national du numérique, des citoyens se sont rencontrés et ont débattus sur les changements qu’il est temps de faire. Il en résultera une synthèse qui sera remise très bientôt au gouvernement. Mais je pourrais  également citer le rapport Jules Ferry 3.0, qui a dressé un tour d’horizon du numérique à l’école et qui a proposé des solutions aux problèmes.

    Oui, j’en suis persuadé,  le retard sera comblé, même si ce ne sera pas tout de suite, …

    Dominik Abbas, @DominikAbbas collégien

  • Neutralité du réseau : Et si on faisait comme les ricains ?

    Merci Obama ! 
    On s’attend à ce que La Federal Communications Commission aux États-Unis d’Amérique reconnaisse jeudi les services Internet comme un bien public. C’est un changement majeur pour qu’Internet reste un espace de liberté et pas une jungle trustée par quelques uns. Yes!

    Pour en savoir plus :

    Et, en complément, grâce à l’Isoloir nous apprenons que :

    « La Neutralité de l’Internet est tout simplement le principe de non-discrimination des utilisateurs : un utilisateur, quel qu’il soit – grand média ou petit blog, célébrité ou anonyme -, doit pouvoir accéder et diffuser de la même manière les informations. C’est cette extrême égalité qui a permis que se développent les services ultra-innovants sur Internet.  Cela signifie concrètement plusieurs choses :

    • D’abord, acheminer les données sans en examiner le contenu, sans en altérer le contenu, et sans tenir compte de la source, de la cible et de la façon dont on communique (on parle du protocole de communication). C’est la neutralité au niveau des « tuyaux » de l’information.
    • Mais il faut aussi garantir la visibilité de l’information (c’est-à-dire garantir qu’elle ne sera pas « noyée » dans une masse d’informations davantage mises en valeur.

    C’est pourquoi, au sujet de la neutralité d’Internet, le CNNum (Conseil National du Numérique) recommande que : « la neutralité des réseaux de communication, des infrastructures et des services d’accès et de communication ouverts au public par voie électronique garantisse l’accès à l’information et aux moyens d’expression à des conditions non-discriminatoires, équitables et transparentes ».

    Serge Abiteboul, Thierry Vieville

     

  • Dans la série The Code !

    Après la série américaine Alt and Catch Fire dont nous avions parlé en juin 2014, c’est au tour de l’Australie de nous proposer une mini-série appelée The Code, diffusée sur Arte depuis le 19 février (depuis octobre 2014 en Australie). Un nom évocateur pour la bande d’informaticiens (mais pas que) du comité éditorial de binaire. Il n’en fallait pas plus pour attiser à nouveau la curiosité de Maé sur le sujet !

    Source Wikipedia
    Source Wikipedia

    Un samedi froid et pluvieux, l’idéal pour découvrir une mini-série tournée en Australie qui risque fort d’intéresser mes amis de binaire si j’en crois le pitch :  « Deux frères, l’un journaliste web et l’autre hacker, tentent de déjouer un vaste complot lié aux biotechnologies. »

    Épisode 1, je ne suis pas sûre de bien comprendre où l’on veut m’emmener ! Le code en question se résume à une séance rapide de piratage de site. La mise en place de l’intrigue et des personnages me surprennent. Mais, après tout, j’adore être surprise donc je poursuis avec l’épisode 2. L’essentiel est enfin posé, on va parler corruption, cybercriminalité, journalisme d’investigation, le tout dans un décor assez fabuleux entre désert australien et bureaux feutrés. Même si les raccourcis pour installer les thèmes sont un peu trop visibles, le rythme est soutenu et l’on accroche assez vite à ce thriller politique et numérique. Mis à part le cliché de la directrice de la com blonde, sexy et manipulatrice avec la presse (si, si !), le casting est excellent (je retrouve avec plaisir Aden Young, tout simplement fabuleux dans Rectify).

    Cette série a quand même reçu le Prix du Meilleur scénario au Festival International des Programmes Audiovisuels 2015 (FIPA) !

    Source Arte
    Source Arte

    Si l’on se place côté binaire, la représentation du hacker est encore une fois assortie des clichés habituels. J’en énumère quelques uns, mais si vous en voyez d’autres, n’hésitez pas à les dénoncer dans les commentaires :

    • Non, le vrai hacker ne passe pas son temps à pirater des sites.
    • Non, on ne s’introduit pas en moins d’une minute sur n’importe quel site et cela en tapant deux lignes de code à deux doigts ! (Ou à 10 d’ailleurs, enfin je crois).
    • Mais pourquoi faut-il absolument que les touches du clavier fassent un bruit terrible ? Le code ça doit s’entendre ?
    • Non, le hacker n’est pas forcément « mauvais ». (Ses compétences peuvent même être  précieuses pour notre société. Ici c’est plutôt en la faveur de la série de montrer que les secrets d’états ne sont finalement pas si bien gardés… L’actualité ne nous contredira pas.)
    • Le hacker n’est pas forcément malheureux, voire désespéré… (Même s’il peut l’être – une pensée pour Aaron Swartz.)

    Il ne me reste plus qu’à attendre la suite des épisodes parce que j’ai vraiment accroché. Et puis j’aime quand même bien sourire au bruit des touches du clavier.

    Les images sur les as du code, l’informatique, le numérique envahissent nos écrans. On ne peut que s’en féliciter car cela peut avoir un réel impact pour démontrer (et cela est encore nécessaire) combien l’apprentissage de l’informatique pour les générations à venir est importante. Mais essayez quand même de discerner la fiction de la réalité !

    Marie-Agnès Enard

    PS : Pour rentrer plus en détail sur les rouages de cette série, je vous invite à lire l’article très complet de Pierre Langrais  « La série The Code montre deux visages opposés de l’Australie » sur Télérama.

  • Une « arithmétique » des données ouvertes

    Binaire demande depuis ses débuts à des amis des articles sur un sujet qui nous tient à cœur, les données ouvertes. Notre patience a été récompensée. Arnaud Sahuguet, directeur de la technologie au GovLab à New York, l’a coécrit avec David Sangokoya.  La version intégrale de cet article est disponible en français et en anglais (v.o.). La majorité des exemples qu’ils prennent, proviennent des États-Unis. Nous vous invitons à en suggérer d’autres, français ou pas,  en utilisant les commentaires. Serge Abiteboul.

    1*6mvYdLl8MmyOn8x_Vj5RxwPhoto by Andrés Monroy-Hernández/Flickr

    Les données ouvertes

    La valeur ajoutée, l’impact et les promesses de la mise en ligne des données ont conduit les citoyens, les services publics et les entreprises à adopter le principe de données ouvertes comme une façon d’améliorer l’efficacité, de promouvoir la transparence et de maximiser l’utilité.

    Une donnée ouverte est une donnée numérique d’origine publique ou privée. Elle peut être notamment produite par une collectivité, un service public (éventuellement délégué) ou une entreprise. Elle est diffusée de manière structurée selon une méthodologie et une licence ouverte garantissant son libre accès et sa réutilisation par tous, sans restriction technique, juridique ou financière. [source Wikipedia]

    Le cabinet de conseil McKinsey estime à 3 milliards de Dollars (2.6 milliards d’Euros) la valeur ajoutée due aux données ouvertes. Des études comme OD 500 par le GovLab suggèrent que cet impact touche des secteurs comme l’énergie, les produits de consommation, le médical, etc. Plus de 40 pays ont déjà partagé plus d’un million d’ensembles de données.

    Même si l’engouement pour les données ouvertes a donné lieu à de nombreux engagements et un enthousiasme grandissant, les fournisseurs de données manquent toujours d’un langage en commun pour peser le pour et le contre au moment d’ouvrir leurs données.

    L’administration publique ou les villes ouvrent souvent leurs données du fait de pressions hiérarchiques dans le but de se faire les champions de l’efficacité, de répondre à la demande des citoyens ou d’augmenter la transparence. Mais ceci se fait la plupart du temps en mesurant la quantité de données ouvertes plus que l’impact réel de ces dernières. Bien souvent, les coûts associés à cette ouverture sont ignorés, et les opportunités de valoriser les connaissances locales ou les expertises extérieures sont manquées.

    Les entreprises pour le moment ont une attitude attentiste. Même si certaines ont commencé à partager leurs propres données à des fins de R&D ou d’élaboration de politiques publiques, la plupart construisent leur modèle d’affaire en s’appuyant sur des données ouvertes exclusivement publiques. Étant donné que les données sont perçues comme un actif clé, les entreprises se demandent avec prudence pourquoi prendre un tel risque économique et se lancer dans un processus sans encadrement juridique ni réglementaire bien établi.

    Les citoyens sont désireux de partager leurs données. Cependant, trop souvent ils ne sont plus les véritables propriétaires de leurs propres données, celles-ci étant gérées en leur nom par des entreprises technologiques et de média. Et quand bien même ils le seraient, la crainte d’une surveillance étatique et les pratiques marketing du secteur privé les dissuadent de rendre leurs données publiquement disponibles.

    Réussites et débâcles

    Il y a de nombreuses réussites et de nombreux exemples pour les données ouvertes. Les informations de transit (par exemples mises en ligne via le standard GTFS créé par Google) permettent à des millions de gens de gagner du temps tous les jours. Les données GPS sont au cœur des applications mobiles. Les informations météo sont utilisées par des entreprises de prévisions ou des compagnies assurances. La nature ouverte des données sur le génome (Human Genome Project) a favorisé le passage à l’échelle de la collaboration pour le décodage du génome et la création d’un écosystème d’innovation entre le monde académique et celui de la recherche privée.

    Quelques débâcles sont à noter, en particulier la publication en 2006 des logs du moteur de recherche d’AOL à des fins de recherche académique. Les données mises en ligne contenaient des informations personnellement identifiables sur les utilisateurs du service. Ces données permettaient d’identifier les utilisateurs et révéler la nature de leurs recherches. Plus récemment, des données imparfaitement anonymisées du service des taxis de la ville de New York ont permis de révéler (a) l’identité des chauffeurs, (b) les itinéraires de vedettes du show-business et même (c) l’orientation religieuse de certains chauffeurs.

    Dans tous ces exemples, voici plusieurs questions pour lesquelles il est difficile de fournir une réponse satisfaisante :

    • pourquoi les parties prenantes ont-elles choisi d’ouvrir (ou de ne pas ouvrir) leurs données ?
    • quelles incitations auraient pu être mises en place afin d’encourager (ou décourager) l’ouverture des données ?
    • parmi les différents leviers à disposition, lequel est le plus pertinent pour le fournisseur de données ?

    Une arithmétique des données ouvertes

    En nous inspirant de “A theory of the calculus of voting”, nous présentons une modeste tentative de formalisation d’un calcul (ou une arithmétique) pour les données ouvertes qui puisse aider les fournisseurs de données dans leur prise de décision. Notre arithmétique se base sur une simple équation :

    P × B + D > C

    • P est la probabilité que l’ouverture des données ait un effet positif,
    • B est le bénéfice individuel de l’ouverture des données,
    • D est l’impact global dans l’écosystème, et
    • C est le coût.

    Une augmentation de P, B ou D et une diminution de C rendront l’ouverture des données plus bénéfique. Nous allons maintenant revisiter les variables une par une et identifier les facteurs qui peuvent les influencer.

    P pour probabilité

    La probabilité P représente la probabilité que l’ouverture des données génère une valeur ajoutée pour le propriétaire des données. Les facteurs qui peuvent faire augmenter P incluent :

    • la présence de standards pour publier les données.
    • une culture axée sur les données dans les secteurs publics et privés, soutenue par une filière universitaire riche.
    • un écosystème de consommation des données comprenant des hackers/développeurs pour construire des applications, des intermédiaires de données, des boutiques de data science.
    • des incitations pour les consommateurs pour utiliser ces données, par exemple récompenses et compétitions ou des financements de recherche.

    Les facteurs qui peuvent faire diminuer P incluent :

    • l’absence ou le manque de flexibilité des cadres juridiques, par exemple cadres rigides ou non-existants autour des données.
    • le manque de confiance entre les différents acteurs.

    B pour bénéfices

    Les bénéfices potentiels B pour les acteurs qui ouvrent leurs données englobent les améliorations liées aux données une fois qu’elles ont été mises en ligne :

    • plus de précision et moins d’erreur dans les données du fait que le public peut scruter celles-ci.
    • moins de lacune dans les données en terme de couverture et de granularité du fait de possibles contributions externes.
    • une plus grande inter-opérabilité une fois que les données sont sorties de leur silos.
    • une durabilité dans les données une fois mises en ligne.
    • une meilleure définition des priorités en terme de mise en ligne des données et l’identification des jeux de données prioritaires
    • une meilleure collecte des données par d’autres partenaires publics, ce qui diminue la duplication des efforts et le gaspillage.

    Des découvertes dans ces données pourront créer de la valeur dans les domaines politiques, sociaux et économiques tels que :

    • le développement de nouveaux produits et services,
    • la génération de nouvelles idées dans le secteur public,
    • la création de nouveaux secteurs à forte valeur ajoutée,
    • la créations de nouveaux jeux de données en re-combinant des données existantes,
    • une plus grande visibilité et publicité pour le fournisseur de données, et
    • l’amélioration de services publics

    Cette catégorie d’avantages varie en fonction du type de secteur. En outre, l’ouverture des données peut créer des opportunités de monétisation. Une ville peut par exemple choisir de vendre aujourd’hui un flux de données temps-réel (à un hedge fund ou un courtier d’assurance) et en même temps mettre ces mêmes données en ligne accessibles gratuitement pour le public avec un délai à la fin de la semaine.

    D pour devoir

    Le devoir D représente le devoir civique dans l’article dont nous nous inspirons. Mais pour nous ici il se traduit plus en terme d’impact global ou d’impact au sein de l’écosystème, c’est-à-dire l’impact positif de l’ouverture des données pour les autres acteurs. Pour le secteur public, il s’agit de la valeur ajoutée des données en terme de gouvernance (transparence, responsabilité, collaboration, participation), d’amélioration de la qualité de vie des citoyens, de meilleure interaction entre les agences, d’accès équitable aux données et de développement économique. Pour le secteur privé, il s’agit sans doute plus de responsabilité sociale d’entreprise. Pour les individus, il s’agit de responsabilité sociale et de comportement prosocial.

    C pour coût

    Le coût C est influencé par les facteurs suivants :

    • le coût d’ouverture des données elles-mêmes. Ces coûts comprennent le coût d’extraire les données des silos dont elles sont prisonnières et le coût de les convertir vers un format ouvert.
    • le coût d’exploitation, c’est-à-dire publier les données et les rafraîchir. Même avec les offres commerciales et les solutions libres, il reste un coût fixe d’exploitation pour un portail de données ouvertes par exemple.
    • le coût lié aux exigences de qualité des données, comme le besoin de les mettre à jour.
    • les coûts légaux pour mettre les données en conformité avec les législations. Trouver la bonne expertise juridique dans un domaine aussi jeune et volatile est difficile et donc potentiellement coûteux. Ce problème est accentué par l’existence de multiples juridictions et l’absence d’harmonisation, par exemple entre les États Unis et l’Union Européenne.
    • les coûts et risques légaux, liés par exemple à la violation de la confidentialité, aux erreurs dans les données, à des données périmées. Encore une fois, le manque de cadre juridique rend la quantification de tels risques plus difficile.
    • le coût concurrentiel (pour le secteur privé), i.e. le coût de partager les informations avec la compétition.
    • le coût de confidentialité (pour les individus), i.e. le fait de partager ses informations peut nuire à la qualité de vie (spam, contrat d’assurances, couverture médicale).
    • le coût en terme de relations publiques, i.e. un mauvais article de presse suite à une fuite dans les données, un mauvais résultat sur le tableau de bord d’une ville, un mauvais chiffre de pollution ou de diversité de la main-d’œuvre pour le secteur privé.
    • le coût d’opportunité, car ces mêmes ressources (capital, infrastructure technologique, capital humain) pourraient être allouées à d’autres buts.

    Là encore, la plupart de ces coûts sont spécifiques à chaque industrie.

    Activer les leviers

    Notre équation décrit une quantité qui doit être positive pour que l’ouverture des données soit bénéfique. Parfois, certaines variables ne sont pas du ressort du fournisseur de données. Notre équation permet alors de choisir quels leviers actionner et de poser les bonnes questions.

    Une simple équation ne va évidemment pas fournir toutes les réponses sur les données ouvertes. Mais, malgré ses limitations, notre « arithmétique » peut former une solide base de discussion. En s’appuyant sur notre équation, les décideurs peuvent comprendre comment un facteur donné influence le résultat final. En interne, une telle formulation peut servir de base à une réflexion sur une mesure de performance et un outil de décision. En externe, elle peut être utile à l’État quand il essaie de convaincre le secteur privé de partager ses données – incitations fiscales par exemple – ou encore pour la communauté tech, afin d’identifier les technologies qui pourraient réduire les coûts et amplifier les effets.

    Juste en regardant les leviers, et sans être Nostradamus, on peut raisonnablement anticiper que (a) l’établissement de bourses d’échange pour les données, (b) l’existence de tiers de confiance offrant agrégation et anonymisation des données des utilisateurs et (c) la création de modèles juridiques et des schémas de données incorporés dans des solutions informatiques de mises en ligne de données, rendraient la décision d’ouvrir les données plus facile et plus rationnelle.

    Notre souhait est que cette « arithmétique » des données ouverte permette de mieux cerner la question, d’identifier les leviers à actionner et facilite conversations et recherche sur le sujet à tous les niveaux et dans tous les secteurs.

    Arnaud Sahuguet, The GovLab

    Voir le profil complet d’Arnaud Sahuguet à https://www.linkedin.com/in/sahuguet. Suivez le sur Twitter à https://twitter.com/sahuguet.

  • La publication scientifique : du papier au numérique

    La publication scientifique est un modèle économique improbable ! Le produit de base est créé par des chercheurs qui réalisent un travail de recherche et écrivent un article pour transmettre ce qu’ils ont appris à d’autres chercheurs. La valeur ajoutée provient également des chercheurs qui évaluent l’article et suggèrent des améliorations. Les clients sont principalement des chercheurs qui à travers leurs laboratoires paient de plus en plus cher pour pouvoir lire leurs articles. Quelque chose vous choque ? ils paient pour accéder à leur propre travail ? Nous avons demandé à Pascal Guitton de nous expliquer pourquoi et comment nous en sommes arrivé à une telle arnaque. Dans un premier article, il nous explique ce qu’est une publication scientifique et son passage au numérique. Serge Abiteboul et Thierry Viéville.

    IMG_9454La notion de publication scientifique n’est pas vraiment comprise du grand public qui la rencontre principalement dans les médias quand ces derniers citent, souvent de façon maladroite et partielle, des résultats qu’ils jugent « spectaculaires » ou bien lors de controverses portées sur la place publique comme pour la mémoire de l’eau ou les méfaits d’un maïs transgénique sur des rats. Outil de base du quotidien de tous les scientifiques, nous allons essayer d’expliquer ce qu’est une publication scientifique pour que chacun puisse mieux discerner son impact pour la société. Nous évoquerons dans un second article les dérives induites par des changements récents et leurs conséquences sur le travail des chercheurs.

    C’est quoi une publi ?

    Pour commencer, il faut préciser qu’il n’existe pas une définition unique mais que cohabitent plusieurs formes de publications scientifiques avec de grandes différences entre les domaines de recherche. Synthétique (moins d’une dizaine de pages), de grande ampleur (plusieurs centaines), fréquente (plusieurs par an), espacée (de plusieurs années), principalement basée sur des résultats chiffrés ou bien rédaction plus littéraires, publiée dans des revues ou dans des actes de conférence, la forme de la publication n’est pas unique mais bien diverse à l’image des communautés de chercheurs.

    Il est cependant possible de distinguer des caractéristiques communes à toutes les cultures scientifiques qui relèvent de la nature du travail de recherche «générique».

    Avant toute autre chose et quelques soient les sciences, un chercheur doit en permanence connaître les résultats obtenus par ses collègues, d’abord pour ne pas réinventer la roue et ensuite pour essayer de les améliorer en s’en inspirant ou mieux encore en créant une approche originale. Ce travail d’écoute et de compréhension se réalise en lisant les publications rédigées par d’autres chercheurs. Le chercheur doit ensuite faire appel à son imagination et faire preuve de créativité pour développer de nouvelles idées qui sont le plus souvent présentées puis discutées et débattues avec ses collègues les plus proches dans un premier temps.

    FullSizeRenderPhoto  @Maev59

    L’étape suivante consiste à prouver l’intérêt de son idée à l’ensemble de la communauté. Selon les domaines, il s’appuie sur une démonstration mathématique, une argumentation littéraire, des mesures réalisées pendant une expérience physique ou chimique, les résultats d’une étude sociologique, des mesures biologiques… Toutes ces formes n’ont qu’un objectif : étayer l’idée originale avancée par l’auteur afin d’emporter la conviction de ses interlocuteurs. Le chercheur place donc cette preuve au cœur d’un texte qui décrit ses travaux depuis l’hypothèse initiale jusqu’à la conclusion en passant par les résultats préexistants (qu’il est indispensable de citer pour situer les progrès) et les éventuelles expérimentations réalisées. Ce texte scientifique est donc publié et diffusé le plus largement possible afin de permettre aux autres chercheurs de prendre connaissance de ses travaux, bouclant ainsi le cycle.

    Le but : la diffusion des résultats de recherche

    La raison d’être d’une publication est de diffuser les résultats des recherches au sein de la communauté scientifique. Mais l’on peut se demander en quoi est-ce différent d’une publication en général ? Contrairement à un article publié dans un journal « standard » qui est relu par un rédacteur en chef ou bien à un billet ou un commentaire sur un blog, elle s’appuie sur un principe dit d’évaluation par les pairs qui consiste à faire vérifier par d’autres scientifiques experts du domaine les qualités d’un article avant de le publier. Cette étape est fondamentale. De la qualité de ce processus, déroule directement la confiance que l’on accorde à une publication scientifique.

    La démarche : une évaluation par les pairs

    Dans l’immense majorité des cas, une publication est rédigée par des chercheurs pour ses pairs. La rédaction d’un tel document obéit donc à des règles et à des styles bien particuliers que les jeunes chercheurs apprennent principalement lors de la préparation de leur thèse. En d’autres termes et contrairement à ce que peuvent laisser penser certains, les articles sont des textes spécialisés le plus souvent incompréhensibles pour qui n’est pas du domaine.

    Les modèles de diffusion

    Les revues ou journaux représentent la voie la plus classique de publication : l’auteur  ou un groupe d’auteurs (le travail scientifique étant souvent collectif) soumet une première version de son document à l’éditeur en chef qui sollicite des membres du comité de lecture pour examiner la soumission. À l’issue de cette analyse, les relecteurs émettent un avis négatif (la soumission est rejetée) ou positif (elle est acceptée), le plus souvent avec des demandes de révision tant sur la forme que sur le fond. Une fois le texte amendé par l’auteur en fonction de ces remarques (parfois en plusieurs aller-retour), la version définitive est alors publiée dans un numéro de la revue.

    Dans certaines sciences comme l’informatique, il existe une autre voie de publication toute aussi importante : les conférences qui regroupent pendant plusieurs jours des chercheurs qui exposent leurs travaux. Pour certaines conférences, les auteurs rédigent en amont de la manifestation un texte qui suit une procédure de validation semblable à celle des revues. Pour d’autres, le texte est produit après la conférence. D’autres enfin se contentent d’un résumé succinct. Évidemment, suivant la procédure suivie,  l’ouvrage (appelé « actes de conférence ») qui peut accompagner la conférence est reconnu comme de qualité équivalente à celle des revue, ou pas.

    Pour juger de la qualité d’une expertise et, plus globalement, d’une revue ou d’une conférence, les scientifiques utilisent plusieurs critères :

    • L’expertise des relecteurs : la première chose que fait un chercheur qui découvre une nouvelle revue/conférence est de parcourir la liste des membres de son comité de lecture/programme afin d’en estimer la qualité.
    • L’anonymat : un auteur ne sait pas qui expertise son article et ce pour garantir l’indépendance de l’analyse ; parfois le relecteur ne sait pas qui sont les auteurs (on parle alors de « double-aveugle »). Les relecteurs sont aussi tenus de respecter des règles éthiques les excluant en cas de conflit d’intérêt qu’il soit positif ou négatif. Le but est évidemment de garantir autant que possible «l’honnêteté» du processus de sélection.
    • Le nombre de relecteurs : en cas d’expertises non unanimes, un éditeur en chef doit pouvoir s’appuyer sur un nombre « suffisant » d’avis.  Trois semblent un minimum ; dans certaines conférences a été mise en place une organisation arborescente avec des relecteurs, des méta-relecteurs et l’éditeur au sommet de façon à structurer un éventuel débat contradictoire.
    •  Le déroulement de la procédure : les délais de réponse sont-ils raisonnables ? Le contenu des expertises communiqué aux auteurs est-il suffisant pour réellement améliorer la qualité du document…

    Il existe aussi des critères numériques pour estimer la qualité d’une revue/conférence :

    • compter le nombre de soumissions pour juger de l’intérêt porté par les chercheurs,
    • calculer le ratio obtenu en divisant le nombre de publications acceptées par le nombre de soumissions  pour juger de sa sélectivité (des ratios de 1/7 sont standards pour certaines conférences en informatique),
    • comptabiliser le nombre de fois où un des articles qu’elle a publié est cité comme référence dans d’autres articles.

    Des évolutions

    Originellement basé sur la transmission orale, le travail d’écoute et de compréhension des travaux des autres chercheurs s’est enrichi de façon très importante avec les arrivées successives de l’écriture et de l’imprimerie qui ont autorisé une diffusion beaucoup plus importante des idées et des résultats. Ces formes nouvelles ont entraîné des bouleversements dans les pratiques scientifiques elles-mêmes.

    Une autre modification profonde a porté sur la langue de communication : d’abord maternelle, donc tour de Babel, puis internationale : chinois, arabe, latin, grec, français, allemand, russe, anglais. Depuis la 2ème guerre mondiale, l’anglais s’est imposé dans de nombreux domaines comme langue d’échange, permettant d’élargir le cercle des lecteurs et par conséquent la portée d’une publication.

    Plus récemment, la révolution numérique a provoqué des mutations profondes : encore tapée à la machine à écrire au début des années 80, la publication scientifique est progressivement devenue numérique grâce à l’apparition des systèmes de traitement de texte et d’édition comme Word  ou LaTeX par exemple. Cette technologie a également facilité l’inclusion d’éléments comme des images, des figures et aujourd’hui des sons ou des vidéos. Sont alors apparus des documents réellement multimédias enrichissant la description des travaux des chercheurs. Un point important de ces évolutions, le scientifique est devenu également l’éditeur de l’article, au sens de la réalisation du document numérique qui constitue l’article.

    Le deuxième impact de la révolution numérique s’est fait sentir avec l’invention des hypertextes incluant des liens vers des documents extérieurs, base du développement d’Internet et de ses contenus (pages, puis services). Il devient possible par exemple de donner accès à la description détaillée d’expériences (jusqu’à permettre de les reproduire) et aux données brutes qu’elles ont générées.

    La troisième mutation numérique résulte de la mise en ligne des publications scientifiques qui remplace progressivement l’accès uniquement sous forme papier qu’ont connu les générations précédentes de chercheurs. Les bibliothèques étaient auparavant le principal moyen d’accéder à la connaissance alors qu’aujourd’hui, les chercheurs utilisent principalement des moteurs de recherche et autres portails spécialisés pour chercher, accéder et lire les articles qui leurs sont nécessaires. Par exemple, quand j’ai préparé ma thèse à l’Université de Bordeaux, le seul moyen de découvrir la littérature scientifique dans mon domaine était de se rendre dans une bibliothèque : soit elle détenait les exemplaires des revues concernées, soit dans le cas contraire (le plus fréquent), je remplissais un formulaire papier avec les références qui m’intéressaient. Ce document était expédié au centre de documentation Inria de Rocquencourt qui renvoyait une photocopie de l’article à la bibliothèque. L’accumulation des délais postaux et des temps de traitement conduisait à une durée d’attente pouvant atteindre plusieurs semaines. Bien entendu ce service possédait un coût et je n’avais le droit qu’à un nombre limité de demandes. Aujourd’hui je peux accéder à l’ensemble des articles en quelques clics au bureau comme à la maison ou en déplacement. Une fois de temps en temps, très rarement, le plus souvent parce qu’il s’agit d’un vieil article, je n’y ai pas accès ; je demande alors à des copains s’ils peuvent m’aider.

    Précisons que cette démarche a nécessité de s’appuyer sur des informations essentielles de la publication scientifique : les métadonnées. Elles sont stockées dans les champs d’une base de données (le nom et l’affiliation des auteurs, des mots-clés, les dates de parution, etc.) afin que les moteurs de recherche puissent retrouver la bonne publication.

    L’innovation dans la publication

    Parchemin, livre, disque dur, le support a beaucoup évolué ; mais au delà des textes hypermédia qui sont devenus la norme, apparaissent des formes encore plus innovantes. Elsevier a proposé d’ajouter à un article un bref texte lu par l’auteur pour commenter sa publication. Le même éditeur permet d’inclure des logiciels exécutables directement dans le corps de la publication. Il est alors possible de modifier dynamiquement des paramètres du logiciel ou même les instructions du code. Encore plus avancée, la revue IPOL spécialisée dans l’analyse d’images diffuse des articles composés de textes, de sources logicielles et des données.

    Le principe d’évaluation anonyme par les pairs au sein des comités de lecture et de programme est lui aussi soumis à évolution. L’arrivée des réseaux sociaux a entraîné de nouvelles expérimentations basées sur la mise en ligne d’une version préliminaire d’un article, les commentaires des membres du réseau,  la prise en compte par l’auteur des précisions/modifications qu’il juge pertinentes et au delà la validation par les membres du réseau de la qualité de la publication. Précisons qu’il ne s’agit pas d’un réseau social ouvert mais bien d’un réseau professionnel dont l’accès est restreint à des scientifiques experts identifiés. Ce principe n’est encore pas complètement abouti mais il est intéressant d’y réfléchir.

    Peut-être que dans quelque temps, les billets sur le blog binaire seront eux aussi validés de façon collective et répartie ! Oui mais évidemment nous sortons là de la publication scientifique…

    Pascal Guitton, Professeur Université de Bordeaux et Inria.

  • Façonner l’imaginaire

    Marie-Paule Cani, Professeure à Grenoble INP et responsable d’une équipe commune au Laboratoire Jean Kuntzmann et à Inria, est la toute nouvelle titulaire de la Chaire «Informatique et sciences numériques» du Collège de France où elle présente un cours intitulé « Façonner l’imaginaire : de la création numérique 3D aux mondes virtuels animés » (leçon inaugurale le 12 février 2015). Nous nous sommes émerveillés devant les images de synthèse en 3D, dans des films, des jeux vidéo ou des œuvres d’art. Marie-Paule nous explique comment l’informatique graphique va continuer à nous faire rêver. Serge Abiteboul.

    Marie-Paule Cani @ Collège de FranceMarie-Paule Cani – Photo Collège de France 

    De la création numérique 3D aux mondes virtuels animés

    Le monde numérique est un espace artificiel où l’être humain règne en maitre, créant les contenus ou orchestrant leur génération à partir de données ou d’algorithmes. Mais il est parfois frustrant de ne créer que de l’immatériel – que l’on peut difficilement voir et encore moins toucher. C’est sans doute pour cela que la création numérique 3D fait tant rêver. Elle permet d’ébaucher des formes en quelques gestes, puis de les observer sous tous les angles et de les manipuler virtuellement. Elle ouvre la voie vers la fabrication automatique de prototypes physiques à partir de ces formes – par exemple via l’impression 3D, nous offrant ainsi la faculté unique de matérialiser l’immatériel. Enfin, elle permet de donner vie à d’autres mondes – des mondes virtuels peuplés et animés – puis de les explorer en s’y immergeant de tous nos sens grâce à la réalité virtuelle.

    Tout en étant capables, dans une certaine mesure, de reconstruire ou d’imiter le monde réel, les contenus 3D constituent un moyen privilégié pour exprimer notre imaginaire. Au-delà d’une dimension ludique et artistique qui s’exprime largement au travers des jeux vidéo, du cinéma et de l’art numérique, la création graphique 3D offre un outil formidable aux chercheurs et ingénieurs de tous domaines. Elle permet à l’ingénieur de créer virtuellement son objet d’étude puis de le tester pour l’améliorer avant même qu’il ne soit fabriqué dans le monde physique. Le scientifique (du biologiste à l’archéologue) pourra pour sa part exprimer ses hypothèses sous forme visuelle, puis explorer les contenus ainsi créés pour affiner sa compréhension de son objet d’étude. L’interaction avec un support visuel permet en effet au créateur de raffiner progressivement sa vision, bien mieux que ne le ferait une simple image mentale. Léonard de Vinci en avait eu l’intuition. Des recherches récentes en psychologie cognitive ont démontré que l’interaction visuelle avec une ébauche permet d’éveiller des parties de la mémoire ignorées par une description analytique, d’imaginer et d’explorer mentalement un espace de solutions possibles, permettant ainsi de compléter progressivement sa création.

    Marie-Paule Cani illustration-1Créations numériques © Grenoble-INP, Inria, Lyon 1

    À quand remonte ce goût pour la création 3D ? De tout temps, l’être humain a cherché à maîtriser la création de formes et même de mouvements, qu’ils soient inspirés par le réel ou simplement imaginés. Contrairement au son que nous pouvons produire directement sans l’aide d’instruments, l’être humain ne dispose pas de moyens physiques pour exprimer et communiquer des formes tridimensionnelles : il a besoin d’un support et d’outils pour les représenter. Ce support a pu être le sable, le rocher, l’argile … et les premiers outils ont probablement été les doigts ou un silex. Se sont développés le dessin et la peinture, qui ne peuvent représenter que des projections planes des formes, mais qui s’avèrent parfois précieux pour évoquer l’incertitude ou pour exprimer une action (pensons à la bande dessinée) ; et la sculpture, qui permet de représenter précisément des formes statiques en 3D mais ne sait évoquer le mouvement qu’à travers des situations de déséquilibre.

    Aujourd’hui, de plus en plus d’êtres humains disposent du média numérique et le manipulent plus quotidiennement qu’une boule de pâte à modeler, ou même, pour certains, qu’un papier et un crayon. L’outil numérique pourrait-il devenir à terme le média ultime, offrant à chacun cette capacité que nous recherchons depuis toujours, à savoir celle d’ébaucher en temps-réel puis raffiner progressivement les formes et des mouvements que nous imaginons, grâce à cette interaction visuelle si propice à la création ? De manière immédiate, des qualités du support numérique le rendant supérieur à tout support physique viennent à l’esprit : il peut permettre de dessiner dans le plan mais aussi en volume (en « 3D »); d’ébaucher non seulement des formes statiques, mais aussi des formes en mouvement ; de stocker et de visualiser ces créations à différents niveaux de détails ; de revenir en arrière au besoin, de copier, dupliquer et coller des détails. Plus encore, le numérique pourra apporter de l’aide à ceux qui n’arrivent pas à exprimer leurs imaginaire dans le monde réel, pensant qu’ils « ne savent pas dessiner ». Cependant, un long chemin reste à parcourir pour mettre ce média numérique à la portée de tous. Une série de recherches récentes ouvrent la voie.

    La création numérique 3D

    Les travaux que nous allons présenter ici correspondent au champ disciplinaire de l’Informatique Graphique, dont la communauté scientifique s’est structurée en France dès la fin des années 80. A l’opposé des technologies qui prennent des images en entrée, comme le traitement d’images, la vision par ordinateur ou l’imagerie médicale, l’informatique graphique s’intéresse aux méthodes pour produire des images en sortie. Ces images artificielles sont appelées images de synthèse.

    Si elles sont visuelles et parlent à tous, les images de synthèse cachent des modèles mathématiques et des algorithmes de simulation de phénomènes physiques, dont l’efficacité est essentielle. Les chercheurs en informatique graphique développent des représentations mathématiques dédiées aux formes 3D ainsi que des méthodes pour les façonner virtuellement : il s’agit de la « modélisation géométrique. Ils proposent des méthodes pour décrire ou générer les mouvements et les déformations de ces formes au cours du temps : il s’agit de « l’animation ». Enfin, ils explorent les chaînes de traitement permettant de passer du monde numériques 3D qui en résulte à une image ou à un film, semblables à ceux qu’auraient pu saisir une caméra : il s’agit du « rendu ».

    Au cours des dix dernières années, l’accroissement des capacités mémoire et de la puissance de calcul des ordinateurs ont permis de stocker, de traiter et d’afficher des données 3D massives (plusieurs millions de polygones), produisant des images de synthèse parfois difficiles à différencier du réel : on parle de « réalisme visuel ». En parallèle, les utilisateurs attendent des mondes virtuels un contenu toujours plus impressionnant, riche et détaillé. Mais comment créer ces contenus ?

    Deux approches ont été développées jusqu’ici pour accélérer la création de contenus 3D : la capture de données réelles et la génération automatique. Cependant, même s’il était possible de capturer un à un chaque élément de notre monde, l’utilisation massive d’objets capturés briderait la créativité. Et pour sa part, la génération automatique n’offre qu’un contrôle indirect et assez limité du résultat. De ce fait, la création graphique passe encore principalement par la modélisation interactive, via des logiciels dédiés. Des centaines d’artistes infographistes, ayant reçu plusieurs années de formation dans des écoles spécialisées, s’attellent à la création des éléments de chaque nouvel univers virtuel. Par exemple, la création du film « La reine des neiges » de Disney, sorti en novembre 2013, a demandé le travail de 650 personnes pendant deux ans. Pour accélérer le processus de création, des supports physiques (papier, argile) sont utilisés aux premiers stades de la conception. Recréer et améliorer chaque forme et chaque mouvement sous forme numérique demande des mois d’un travail minutieux et souvent fastidieux (pensons à un décor naturel dont la végétation est agitée par le vent, ou aux nombreux éléments animés d’une scène urbaine). De plus, la complexité des logiciels demande aux utilisateurs de rester concentrés sur la maitrise de l’outil pour naviguer dans un dédale de menus et sous-menus, au lieu de penser uniquement à la forme créée. Ainsi, Rob Cook, directeur scientifique de Pixar, a affirmé en 2009 que le grand défi en informatique graphique est de “rendre les outils aussi invisibles aux artistes que les effets spéciaux ont été rendus invisibles au grand public!” En effet, un spectateur ne se demande plus ce qui est réel ou virtuel lorsqu’il est plongé dans un film comme « Avatar » : il est emporté par l’histoire… De même, les créateurs de contenus 3D devraient pouvoir créer sans se soucier de l’outil, comme s’il s’agissait d’un simple prolongement de leurs doigts.

    Comment mettre la création 3D à la portée de tous, permettant à tout un chacun de « façonner l’imaginaire », au fur et à mesure qu’il lui vient en tête, et plus facilement qu’avec un papier et un crayon ? C’est l’objet d’un nouveau courant de recherche en informatique graphique, que j’appellerai la « modélisation expressive »1.

    Vers une modélisation expressive

    Des recherches récentes en informatique graphique s’attachent à développer des méthodes de création 3D mariant simplicité et rapidité d’utilisation avec la qualité visuelle et le contrôle des résultats. L’objectif est que l’utilisateur puisse littéralement « façonner » les formes et les mouvements qu’il imagine tout en s’appuyant sur l’outil numérique pour compléter automatiquement les détails et pour maintenir les contraintes qu’il souhaite en matière de réalisme. Pour cela, nous assistons à l’émergence de trois principes méthodologiques :

    • Tout d’abord, une création par gestes est proposée. Ces derniers peuvent être des gestes de dessin pour ébaucher une nouvelle forme, des gestes de sculpture ou de modelage pour l’améliorer ou lui ajouter des détails, ou encore des gestes de mime pour indiquer un mouvement. A ces métaphores d’interaction inspirées du monde réel sont ajoutées certaines actions simples qui ont déjà révolutionné les environnements numériques comme le fait de copier-coller pour reproduire et transférer certains éléments.
    • Deuxièmement, les modèles graphiques sont revisités de manière à ce qu’ils réagissent comme l’attendrait un utilisateur humain, sous ces gestes d’interaction. Pour cela, il s’agit d‘intégrer des connaissances adéquates dans les modèles, leur permettant de répondre à la sémantique qu’un utilisateur humain associe, presque involontairement, à ses actions.
    • Enfin, différentes méthodologies de passage à l’échelle sont développées, pour permettre à l’utilisateur d’orchestrer la création d’un monde virtuel complexes, constitué de hiérarchies d’éléments éventuellement animés, sans avoir à les manipuler un à un.

    Pour mieux décrire ces principes, prenons un exemple : la création d’un arbre virtuel.

    Un arbre inclue une multitude d’éléments de différentes dimensions, structurés en distributions aux propriétés statistiques spécifiques du fait des lois biologiques qui le régissent. Il s’agit d’offrir à l’utilisateur la capacité de créer rapidement un arbre 3D particulier dans sa forme, mais plausible, alors même que modéliser les milliers de branches qui le composent demanderait des connaissances spécifiques et serait extrêmement fastidieux.

    Plutôt que d’aborder une telle tâche directement en 3D, l’utilisation d’une métaphore de dessin 2D, inspirée de la manière dont un artiste ébauche rapidement un arbre puis précise progressivement son dessin, peut permettre d’accélérer considérablement cette tâche : l’utilisateur dessine en un seul geste le contour de l’arbre ; le système s’appuie sur des lois géométriques et biologiques pour en déduire la structure interne de premier niveau, c’est-à-dire la position des plus grosses branches, que l’utilisateur peut corriger manuellement s’il le souhaite. Cette idée de passer par un seul trait – une silhouette – est un exemple de méthode de passage à l’échelle : tandis que l’utilisateur garde un contrôle global sur la forme, la machine gère les détails, et ce de manière probablement plus réaliste qu’il ne l’aurait fait. A l’aide d’un gros plan sur l’une des sous-structures associées, l’utilisateur peut alors raffiner localement son dessin, et ainsi de suite sur plusieurs niveaux, jusqu’à aboutir au dessin d’une ou plusieurs feuilles. Tandis qu’il revient vers une vue d’ensemble, les structures dessinées sont automatiquement complétées par la génération de distributions aléatoires de sous-branches sur les branches voisines de même niveau, tout en vérifiant les mêmes propriétés statistiques que les parties dessinées. Chaque élément est également plongé en 3D de manière plausible, grâce encore une fois au respect de certaines lois biologiques. Enfin, des branches venant vers l’avant et partant vers l’arrière sont ajoutées. Ainsi, un arbre complet peut-être créé en quelques gestes.

    Marie-Paule Cani illustration-2Création d’un arbre 3D par dessin multi-résolution.
    À chaque niveau d’échelle, la structure est déduite
    d’un trait de silhouette (en vert) dessiné par l’utilisateur.
    Les détails sont générés, dupliqués et passés en 3D
    en utilisant des lois biologiques © Grenoble-INP, Inria, Cirad 

    Supposons maintenant que l’utilisateur veuille étirer son modèle, pour rendre cet arbre, disons, moitié plus haut : ici, le geste intuitif associé consiste probablement en un geste d’écartement de deux doigts posés sur l’arbre, dans la direction verticale, comme pour zoomer sur un texte. Un tel geste peut facilement être reconnu et associé à un étirement. Cependant, si des représentations graphiques classiques sont utilisées, chaque branche de l’arbre va alors s’épaissir verticalement, et les feuilles qu’elles portent vont s’étirer dans la même direction, rendant l’ensemble totalement irréaliste… Est-ce que l’utilisateur ne s’attendrait pas plutôt à ce que le tronc s’étire, mais à ce que les branches qui en partent se dupliquent et que de nouvelles sous-branches et feuilles similaires aux précédentes y soient placées ? Comme le montre cet exemple, l’incorporation de connaissances a priori (comme le fait que certains éléments répétitifs doivent être dupliqués et non étirés) est indispensable à la conception de modèles graphiques répondant de manière intuitive aux gestes de création.

    Conclusion

    La modélisation expressive est un nouveau courant de recherche en informatique graphique, visant à faire du média numérique un support de création 3D accessible à tous, et permettant aussi bien de façonner des formes isolées pouvant être imprimées, que de concevoir et animer en quelques gestes des mondes virtuels complexes. De nombreux défis restent à relever pour atteindre ces objectifs. Parmi eux, l’extension des méthodes proposées à des assemblages de formes animées, combinant contrôle des mouvements par l’utilisateur et réalisme visuel, n’est pas la moindre des difficultés.

    Le support idéal, permettant d’observer des objets à peine entrevus mentalement, d’ébaucher leur mouvement avant même que les formes ne soient vraiment précises, puis de raffiner progressivement ces contenus jusqu’à une œuvre aboutie, n’existe pas encore. Mais les avancées actuelles permettent d’énoncer un certain nombre de principes qui permettront d’atteindre ce but, comme l’alchimie créée par l’injection de connaissances dans les modèles, mariée à des gestes de création intuitifs. Comme dans le monde réel, tout l’art consiste à cacher à l’utilisateur la complexité de ce qu’il manipule : déchargé des tâches répétitives et de la gestion de contraintes difficiles à maintenir, l’être humain augmenté par l’outil numérique pourra lâcher plus largement la bride à son imagination. Les progrès sont rapides, et tout laisse présager que cette révolution de la création numérique changera durablement l’activité humaine.

    Marie-Paule Cani, Professeure à Grenoble INP

    1Du nom du symposium international EXPRESSIVE créé depuis quatre ans pour rassembler les recherches sur les nouveaux média de création, dont l’art numérique, la modélisation 3D par esquisses, l’animation et le rendu non photo-réalistes.

  • L’estimation de Good-Turing

    Toujours autour de la sortie d’« Imitation Game »,  Colin de la Higuera aborde pour Binaire des résultats obtenus par Alan Turing avec un collègue, Jack Good. Les travaux en statistiques de Good ont permis de dégager les principes de l’analyse Bayésienne, dont les succès dans l’analyse de l’incertain sont aujourd’hui essentiels. Plus surprenant est le rôle de Good comme conseiller  scientifique du film « 2001 ou l’Odyssée de l’Espace » de Kubrick.  Serge Abiteboul.

    Après avoir observé pendant un an des oiseaux, listé et compté ceux-ci, puis-je calculer la probabilité que le premier oiseau que je vois, demain matin, soit un étourneau ? Si par le passé, sur mes 1000 observations, 10 ont correspondu à des étourneaux, l’estimation la plus raisonnable est que j’ai une chance sur 100 de voir un étourneau. Mais quelle doit être mon estimation si je n’ai jamais vu d’étourneau ?

    C’est à ce genre de question qu’étaient confrontés Alan Turing et Jack Good en 1941, quand ils cherchaient à casser les codes produits par les machines Enigma. Si les machines utilisées par la Wehrmacht et la Luftwaffe étaient déjà victimes  – sans le savoir – des attaques des équipes d’Alan Turing à Bletchley Park, la marine Allemande, elle, avait modifié la machine suffisamment pour que le problème de cryptanalyse soit bien plus complexe. En particulier, chaque matin, 3 caractères étaient choisis (le trigramme) et servaient de configuration de base de 3 rotors de la machine pour la journée. Le choix du trigramme du jour s’effectuait dans un livre que les Anglais n’avaient pas. Il arrivait que le livre s’ouvre sur une page déjà vue, que l’opérateur allemand prenne le premier trigramme de la page et cela donnait donc une répétition. Mais il arrivait aussi que le trigramme du jour soit entièrement nouveau. Pour répartir l’effort de cryptanalyse, il était important d’estimer correctement ces deux cas. Ce qui revient  à calculer la probabilité que le trigramme soit nouveau.

    À première vue, cela peut sembler impossible : comment prévoir quelque chose qui n’est jamais arrivé ?

    640px-EnigmaMachineLabeledLa machine Enigma

    Revenons un instant à nos oiseaux et commençons par admettre que la probabilité de voir un oiseau jamais vu auparavant soit différente dans les deux cas extrêmes suivants :

    (A) Les 1000 observations correspondent à un seul et même oiseau, le moineau,
    (B) Les 1000 observations correspondent à des oiseaux tous différents.

    Good et Turing ont obtenu une formule qui explique pourquoi la probabilité de voir un nouvel oiseau est bien plus grande dans le cas (B) que dans le cas (A). Pour estimer la masse totale de probabilité à répartir entre les événements non observés, il est possible d’utiliser le nombre d’observations uniques. Ainsi, plus on aura observé d’événements une seule fois, plus la probabilité que le prochain événement soit nouveau augmente.

    Good et Turing eux, s’intéressaient aux configurations de départ de la machine Enigma. Leur formule s’est avérée trop compliquée pour être utilisée directement (car il faudrait également tenir compte des événements observés 2 fois, 3 fois,…). Il fallait un algorithme astucieux pour réaliser ce calcul.

    Des travaux ultérieurs basés sur cet algorithme vont apporter des outils précieux dans de nombreuses applications informatiques. Un exemple est  la reconnaissance de la parole, où il s’agit de décider si une suite de syllabes correspond (approximativement) à un mot du dictionnaire ou s’il s’agit d’un mot inconnu, peut-être le nom d’une personne ou d’un lieu.

    Colin de la Higuera

    Pour aller plus loin :

    Pour une présentation en Anglais, on peut se référer à l’article de David McAllester et Robert E. Schapire.

    On peut trouver sur le web d’excellentes nécrologies (toutes en Anglais) de Jack Good ou l’article de Wikipedia.

  • Gay pride des informaticiens

    Binaire accompagne la sortie d’Imitation game. Après  Jean Lassègue et son analyse du Jeu de l’imitation, Isabelle Collet nous parle de Turing avec cette fois un éclairage du point de vue du genre.

    800px-Sackville_Park_Turing_plaquePlaque à la mémoire d’Alan Turing à Sackville Park, Manchester

    Turing, l’homosexualité et les biopics hollywoodiens

    Ces jours-ci est sorti sur les écrans français un film d’espionnage se déroulant pendant la seconde guerre mondiale. De bons acteurs sont à l’affiche, tels que Benedict Cumberbatch ou Keira Knightley. Ils y jouent vraiment très bien et le film est sympathique. Malheureusement, le scénario est supposé raconter la vie d’Alan Turing. Si la trame générale est juste, à peu près aucun détail scénaristique n’est vrai.

    Benedict_Cumberbatch_2013_TIFF_(headshot) Benedict Cumberatch portrayed Turing
    in the film The Imitation Game (2014), Wikipedia

    À côté de la vie incroyable de Turing, nous avons un film bien léché répondant aux attentes hollywodiennes, avec des anecdotes qui tombent bien, un climax où il faut, des militaires bornés, un héros maudit, un mathématicien génial donc limite Syndrome d’Asperger, du sur-mesure pour les oscars mais historiquement erroné… Avec 11 nominations, le pari est réussi. Je ne vais pas me mettre à jouer au jeu des 1024 erreurs, les Turingophiles s’étant déjà déchainés, je vous propose plutôt une analyse sur la manière dont l’homosexualité de Turing a été traitée.

    Turing était gay, à une époque où il n’était pas conseillé d’en faire état, d’autant plus que l’homosexualité masculine était illégale au Royaume-Uni.

    En note : Le lecteur attentif pourrait se demander pourquoi  seule l’homosexualité masculine était illégale. Tout d’abord, seul l’acte homosexuel était réprimé et non le sentiment amoureux. Or à cette époque, on considérait qu’il n’y avait rapport sexuel qu’à condition qu’un pénis soit impliqué. Dans les rapports lesbiens, de fait, il n’y a pas de pénis (en tout cas, pas en vrai).

    Toutefois, Turing n’a jamais vraiment caché son homosexualité. Au lycée, il tomba amoureux d’un camarade de classe, Christopher qui mourra peu de temps plus tard. Selon Turing, Christopher savait très bien quels sentiments Alan avait pour lui, même s’ils n’étaient visiblement pas payés en retour. Le film montre un jeune Alan très désireux de tenir secrète sa relation avec Christopher, également amoureux. Or, les amitiés très fortes entre jeunes garçons étaient tout-à-fait banales et encouragées dans ces écoles privées non-mixtes. L’homo-socialité était de mise et n’était pas suspectée d’être en réalité de homosexualité : les angoisses d’Alan présentée dans le film sont en réalité anachroniques. Or, tel est le fil rouge du récit : Turing aurait vécu toute sa vie dans le drame d’être découvert.

    Le film prétend que lorsque Turing était à Bletchley, où était situé le Governement code & cypher school britannique, il aurait découvert qu’un de ses collègues, John Cairncross, était en réalité un espion russe. Cairncross fait alors chanter Turing : « Tu révèles mon secret, je révèle le tiens et tu seras viré de Bletchley, tu ne pourras plus jamais travailler, etc. ».

    Or, une interview très intéressante d’anciens de Bletchley, Donald Michie et Jack Good rendent cette histoire tout-à-fait invraisemblable. Certes, pendant la guerre, Turing ne vivait pas ouvertement son homosexualité. Néanmoins, Michie signale que : « Bletchley avait des homosexuels flamboyants » tel qu’Angus Wilson qui se baladait ouvertement avec son petit ami Beverley. Il ajoute que c’était un non-sens de dire que si le Royaume-Uni avait su que Turing était gay, les Alliés auraient perdu la guerre. En les lisant, on a plutôt le sentiment qu’à Bletchley, les mathématiciens pouvaient tout se permettre, pour peu qu’ils travaillent à ce pourquoi ils étaient là. Ce n’était pas pour rien que Turing disait que Bletchley était un camp de vacances pour mathématiciens : ils jouissaient là-bas d’une grande liberté, Turing en particulier, de part sa notoriété.
    turing-snowwhite-rayclid-binaire
    Si Michie et Good ne se sont jamais doutés de l’homosexualité de Turing, c’est à cause de la relation sincère qu’il entretenait avec Joan Clarke. Pour le coup, le personnage est assez fidèle à la réalité. Simplement, Turing ne lui cacha jamais son homosexualité. La nature de leur relation n’est pas particulièrement exceptionnelle pour l’époque. Ce qui l’est, c’est l’honnêteté avec laquelle ils la conduisirent. N’oublions pas que le mariage n’était pas le lieu de la satisfaction sexuelle. Les honnêtes femmes n’étaient d’ailleurs pas supposées prendre du plaisir dans l’acte sexuel. Une telle dépravation était réservée aux prostituées. C’était un « gentlemen agreement » tout-à-fait acceptable, puisqu’ils avaient de nombreuses passions communes, tels que les échecs et la botanique, et qu’ils avaient le même sens de l’humour.

    A la fin du film, Turing est victime d’un cambriolage. Quand la police arrive sur les lieux, appelés par un voisin, Turing refuse de porter plainte. Alors qu’il soupçonne Turing d’être un espion russe, le détective qui le poursuit découvre incidemment son homosexualité. En réalité, dès 1947, Turing parlait ouvertement de sa préférence pour les garçons avec les anciens de Bletchley, puis avec ses collègues du Kings College. Turing était convaincu que l’homosexualité allait très bientôt être dépénalisée (il faudra pourtant attendre 1985). Il appelle lui-même la police après s’être aperçu qu’un de ses amants lui avait volé des documents top-secrets. Il est alors accusé d’indécence. Le problème, pour la justice, ce n’était pas tant son homosexualité, mais plutôt le fait qu’il n’avait pas la décence d’en avoir honte.

    Hollywood aime des gays honteux, malheureux, vivant cachés. On s’indigne ensuite vertueusement du mal qui leur est fait quand, malgré eux, ils sont découverts. Tel est le stéréotype de l’homosexuel susceptible d’être plaint. Alors qu’il est plus difficile de susciter de la compassion pour le gay qu’on persécute parce qu’il s’expose… Le spectateur ne risque-t-il pas de penser que la victime l’a tout de même un peu cherché ?

    Isabelle Collet, Université de Genève

  • Le vote papier est-il réellement plus sûr que l’électronique ?

    Pourquoi donc remettre en cause la supériorité du vote «papier», en matière de garanties de sécurité et transparence ? Le vote électronique suscite à raison de nombreuses craintes, en partie évoquées dans un précédent billet de Véronique Cortier, directrice de recherche au CNRS. Comment s’assurer de la confidentialité des votes ? Comment se convaincre que son bulletin a bien été pris en compte ? Comment assurer la sincérité du scrutin ? Ces questions sont parfaitement légitimes et les systèmes de vote électronique n’y apportent pas encore de réponse claire. Mais les mêmes questions se posent pour les scrutins qui ont recours au « papier ».

    Le cas du vote traditionnel à l’urne

    Le premier système de vote qui vient à l’esprit est le vote traditionnel à l’urne, où chaque électeur dépose son bulletin dans une urne. L’isoloir et l’enveloppe visent à assurer la confidentialité des votes. L’urne transparente et le dépouillement public permettent à tout à chacun de vérifier le décompte des voix. Même si des fraudes peuvent avoir lieu, le vote à l’urne offre un très bon niveau de sécurité, sous réserve que l’urne soit surveillée sans relâche, de l’ouverture du scrutin au dépouillement, par un groupe de personnes représentant si possible chaque partie en lice. La surveillance de l’urne semble une évidence mais n’est pas toujours facile à réaliser pour des élections à enjeux modérés où il est souvent difficile de trouver des volontaires pour tenir l’urne et assister au dépouillement.

    Le vote par correspondance, un faux sentiment de sécurité

    Si le vote traditionnel à l’urne est bien compris et offre de bonnes garanties en matière de confidentialité et de transparence, il en est autrement du vote par correspondance. Comment voter par correspondance ? Le principe le plus simple consiste à mettre son bulletin dans une première enveloppe, glissée dans une deuxième enveloppe signée par l’électeur (pour permettre l’émargement), le tout envoyé dans une troisième enveloppe expédiée au centre gérant l’élection. Comment s’assurer que les trois enveloppes ne seront pas ouvertes en même temps, brisant ainsi la confidentialité du vote ? Comment être certain que des bulletins n’ont pas été ajoutés (ou supprimés) avant le dépouillement ? L’électeur doit faire une entière confiance aux organisateurs de l’élection ainsi qu’à toute la chaîne de traitement. Des fraudes provenant de personnes malveillantes extérieures à l’organisation de l’élection sont également possibles. Il est techniquement facile d’imiter la signature de quelques abstentionnistes pour ajouter des votes de son choix. La participation étant souvent faible, le nombre de bulletins nécessaires pour modifier le résultat de l’élection est en général peu important.

    Des attaques existent aussi sur des systèmes plus complexes

    Des systèmes de vote par correspondance plus complexes ont été mis au point pour permettre un dépouillement mécanisé. Certains systèmes utilisent ainsi des codes à barres, notamment pour identifier (de façon anonyme) l’électeur. Le fait d’utiliser du papier rend le système rassurant mais pas sûr pour autant. Il a été démontré que, pour certains systèmes, il est possible de reconstituer l’ensemble des matériels de vote envoyés aux électeurs, ouvrant ainsi la porte à un « bourrage d’urne ».

    Un bilan nuancé

    À l’heure actuelle, il n’y a pas de raison de penser que le vote électronique puisse remplacer avantageusement le vote traditionnel à l’urne, pour les scrutins où l’urne est correctement surveillée. Non seulement le vote électronique soulève de nouveaux défis techniques en matière de sécurité mais les solutions proposées sont complexes et accessibles uniquement à des spécialistes du sujet. Il semble impossible d’atteindre la simplicité du vote à l’urne.

    La comparaison entre vote électronique et vote papier amène des conclusions plus nuancées en matière de vote par correspondance. Dans les deux cas, l’électeur n’a plus de contrôle direct sur l’urne et le dépouillement. Il s’agit donc d’exercer le même esprit critique sur les systèmes de vote électronique que sur leurs homoloques « papier », en analysant les risques liés aux enjeux du scrutin.

    Véronique Cortier, CNRS – Nancy