Catégorie : Actualité

  • Opération (R)Enseignement

    Comme nombre d’entre nous, OpenClassrooms a assisté au vote de la loi sur le renseignement cette semaine à l’Assemblée. Donnons leur la parole ici, reprenant leur texte car ils ont une explication à partager et … une vraie solution à nous proposer. Serge Abiteboul et toute l’équipe de Binaire.

    Opération (R)EnseignementElle a été largement critiquée dans la presse étrangère et comparée au Patriot Act post-11 septembre des États-Unis. Ce même Patriot Act dont les Américains souhaiteraient aujourd’hui sortir.

    Au-delà de la loi elle-même, deux points ont particulièrement retenu notre attention :

    • les députés ne maîtrisent pas suffisamment les impacts technologiques de cette loi et ses répercussions sur l’écosystème numérique
    • les citoyens ne perçoivent pas les enjeux de cette loi

    les gens ne comprennent pas ce que cette loi implique

    Ces deux sujets ont un point commun : les gens ne comprennent pas ce que cette loi implique. « Pourquoi devrais-je m’en préoccuper ? », « En quoi est-ce que ça me concerne ? », « Quelles peuvent en être les dérives ? »

    Lorsque tant de personnes ne comprennent pas, cela renvoie à la mission de rendre la connaissance accessible à tous, et pas seulement à une élite. Parce que nous croyons fermement que l’éducation est le plus fort levier pour améliorer notre niveau de vie à tous. La solution existe : elle passe par plus de partage, plus de transmission des savoirs. À commencer par celui qui vient d’être le plus violemment attaqué : la protection de notre vie privée.

    Pour tout savoir sur la proposition éducative d’Openclassrooms c’est par ICI.

  • Hacking en noir ou blanc

    À binaire, nous aimons proposer des critiques des films qui parlent d’informatique. Pour Hacker,  nous avons demandé à François Bancilhon (i) parce que c’est un super informaticien, (ii) parce que c’est un critique de film dont nous sommes nombreux à suivre les avis sur twitter (et surtout ceux plus sûrs de son épouse Chantal), (iii) parce que nous apprécions son sens critique en informatique aussi, (iv) parce qu’il a une belle plume, et (v) parce que c’est un copain. OK, ça va faire overkill… D’ailleurs, François est loin d’être parfait. Je lui demande depuis des mois un article sur les données ouvertes – c’est le grand spécialiste français – et nous attendons encore. Serge Abiteboul

    Blackhat poster, Wikipedia
    Blackhat poster, Wikipedia

    Je vais assez souvent au cinéma, en moyenne 2 à 4 fois par semaine. Après chaque séance, je tweete une critique en 140 caractères. L’exercice de concision est intéressant (sachant que j’essaie en général de modérer ma critique par l’opinion de ma femme et que “ma femme a dormi” prend 16 précieux caractères et “ma femme a aimé” en prend autant). Donc je suppose que c’est ce flot de tweets qui m’a valu la demande de Serge Abiteboul de faire ce post de blog. Je suis donc allé voir le film. J’ai mis un peu de temps car il est peu distribué par le réseau Pathé Gaumont auquel je suis abonné. Je n’y serai pas allé normalement, après lecture des critiques (je triangule à partir de 3 sources classiques).

    Le titre américain de “Blackhat” a été traduit par “Hacker”. Les traductions de titres de film restent un sujet de fascination pour moi. Le meilleur de l’année étant le film norvégien dont le titre original était “Force majeure” (en norvégien) et qui a été traduit en Français par “Snow therapy”. Mais revenons à nos moutons (noirs) : blackhat fait référence au méchant black hat hacker qui pénètre dans un système informatique avec des intentions malveillantes, par opposition au white hat hacker qui le fait pour des raisons respectables (par exemple pour tester un système). Cette séparation entre les blancs et les noirs, les gentils et les méchants, sied bien sûr parfaitement à Hollywood qui a une vision binaire du monde (allusion limpide au blog pour lequel j’écris). J’analyse la traduction de blackhat par hacker par le fait que le distributeur pense que le public français ne peut pas comprendre les termes techniques et sophistiqués et doit se contenter de hacker.

    Michael Mann a réalisé plusieurs films de grande qualité : Heat, The last of the Mohicans, Collateral, the insider, tous intelligents et bien mis en scène. Globalement, le film est plutôt mauvais, ce qui est donc une déception, mais mais il n’est pas inintéressant à commenter.

    Le scénario est sans grand intérêt : en Chine, un hacker (méchant) pénètre dans le logiciel d’une centrale nucléaire et fait exploser le réacteur. Le responsable chinois chargé de l’enquête reconnait le logiciel qu’il a co-écrit avec un hacker (gentil) quand il était au MIT avec lui. Lequel gentil hacker est en prison pour diverses bêtises. Les Chinois convainquent alors les Américains de faire libérer le gentil hacker et le responsable Chinois et son ancien copain partent en chasse pour trouver et mettre hors d’état de nuire le hacker méchant avant qu’il ne commette son prochain méfait.

    Le film est directement positionné dans la mondialisation. Deux puissances dominent le monde : les États Unis d’Amérique et la Chine, les autres pays ne comptent pas, ni Europe, ni Russie n’apparaissent. Quelques autres pays apparaissent (Jakarta), mais plutôt au titre d’attraction touristique servant de décor exotique au tribulations de nos héros. USA et Chine sont concurrents et ennemis, mais quand une menace supérieure comme un black hat hacker se manifeste, ils sont assez intelligents pour collaborer, même si de chaque côté les gens raisonnables doivent batailler contre des sectaires (donc contre la NSA du côté américain).

    Un des avantages de la mondialisation est qu’elle permet d’offrir un casting politiquement correct sur le plan ethnique : blanc, black et asiatique (il y a même un Chrétien Libanais, qui est vraiment très méchant). Sur le plan des acteurs, rien à signaler : Chris Hemsworth livre une prestation d’acteur qui confirme qu’il devrait continuer à focaliser sa carrière sur les personnages de super héros et éviter les autres.

    Sur le plan de la parité des sexes, le résultat est plus mitigé. Le test de Bechdel a été conçu pour noter le traitement des deux sexes dans les films. Il pose 3 questions :

    1. Y a-t-il deux femmes au moins dans le film, identifiées par leur nom ?
    2. Y a-t-il une scène où elles parlent entre elles ?
    3. Dans cette scène, parlent elles d’autre chose que d’un homme ?

    Le film est noté 1/3 : il y a deux femmes identifiées (et seulement deux), mais ça s’arrête là.

    La partie la plus intéressante est bien sûr le traitement du hacking donc des pénétrations (blanches et noires) dans les système informatique. Ce traitement cinématographique m’a rappelé les difficultés qu’avaient les chercheurs en système d’exploitation à faire des démos un tant soit peu intéressantes et spectaculaires. C’est dur de visualiser le parcours des octets dans un système et ce n’est pas très folichon. Les ordinateurs sont devenus de plus en plus immobiles, donc durs à filmer. Jusqu’aux années 80 on pouvait encore vaguement faire s’agiter des bandes magnétiques, mais maintenant, plus rien, à peine une lumière qui clignote. Dans l’introduction du film on assiste au parcours d’un réseau informatique, la représentation graphique en 3D est plutôt esthétiquement réussie (bien que j’avoue ne pas savoir exactement comment est fait l’intérieur d’un routeur). Ensuite dans le film un peu de discours technique (mais très modéré) émaille les dialogues : on parle de “memory dump”, de “remote call”, mais le tout de façon assez peu convaincante. On en arrive enfin à “black widow” un programme de la NSA qui peut reconstituer une image mémoire à moitié effacée grâce à un “super computer” : une histoire réaliste d’après certain…

    Cinématographiquement, le film a une écriture très typée : gros plans floutés ou pas sur des détails, caméra saccadée à l’épaule, cadrage avec des angles particuliers (par dessous ou par dessus), plans courts. Le tout soutenu par une bande son très intense soulignant à chaque instant l’action : attention il se passe quelque chose d’important ici. L’effet global est plutôt réussi.

    On appréciera enfin l’absence de course poursuite ou d’explosion spectaculaire (hors le nécessaire traitement de la centrale nucléaire).

    Je termine par la version twitter de cette chronique :

    Vu “Blackhat” (hacker en Français), film d’action relativement efficace et sans grand intérêt. Michael Mann a fait mieux. (Ma femme n’était pas avec moi)

    François Bancilhon, PDG de Data Publica
    twitter.com/fbancilhon

  • Les bonnes propriétés d’un système de vote électronique

    Pour poursuivre la série d’article sur le sujet du vote électronique (Qu’est-ce qu’un bon système de vote ? et la sureté des systèmes) par Véronique Cortier, Directrice de recherche au CNRS à Nancy, nous avons choisi de vous parler du système Helios pour mettre en lumière les bonnes propriétés d’un système de vote électronique et les possibilités offertes par certains algorithmes. Pierre Paradinas

    urne_vérouillée_votant_aussiMettre au point un système de vote électronique sûr est un exercice délicat. En particulier, la vérifiabilité et la résistance à la coercition sont des propriétés antagonistes : il faut à la fois démontrer qu’un certain vote a été inclus dans le résultat et ne pas pouvoir montrer à un tiers comment on a voté.

    Le système Civitas implémente un protocole qui vise à la fois la vérifiabilité et la résistance à la coercition. Les systèmes Helios et « Pretty Good Democracy » assurent la vérifiabilité et l’anonymat. Contrairement à Civitas, ils ne garantissent pas la résistance à la coercition, mais ils sont plus faciles à mettre en œuvre. Le fonctionnement d’Helios est aussi plus simple à exposer.  Pour approfondir le sujet, nous vous conseillons d’aller découvrir sur Interstices deux articles qui explorent plus en détail la partie cryptographie et le système Helios.

    L’exemple d’Helios

    Helios est un protocole développé sous licence libre par des chercheurs de l’Université d’Harvard et de l’Université catholique de Louvain (Ben Adida, Olivier de Marneffe et Olivier Pereira), basé sur une proposition originale de Josh Benaloh. Helios a été retenu pour élire le recteur — équivalent du président — de l’université catholique de Louvain et a également été utilisé à plusieurs reprises dans des élections étudiantes, par exemple à Princeton et Louvain. L’association internationale des chercheurs en cryptographie (IACR) l’a aussi choisi pour élire les membres de son bureau.

    Il s’agit d’un protocole en deux phases, comme le système de vote papier classique : la phase de vote à proprement parler et la phase de dépouillement. Pour simplifier la présentation, le cas présenté est l’exemple d’un référendum où chaque électeur peut voter 0 (pour non) ou 1 (pour oui).

     

    schema-helios2Helios : phase de vote. Illustration © skvoor – Fotolia.com.

    Phase de vote

    Le système Helios utilise un chiffrement à clef publique. C’est un système de chiffrement dit asymétrique : la clef de chiffrement est publique — tout le monde peut chiffrer — alors que la clef de déchiffrement est privée — seules les personnes ayant la clef de déchiffrement peuvent déchiffrer.

    Pour voter, chaque électeur, au travers de son navigateur, chiffre son choix (0 ou 1) avec la clef publique de l’élection. Il fournit également la preuve qu’il a bien chiffré l’une des deux valeurs 0 ou 1 et non une autre valeur. Cela est possible grâce à une technique cryptographique particulière, appelée preuve à divulgation nulle de connaissance, qui permet de prouver que le contenu d’un chiffré vérifie une certaine propriété, sans fournir aucune autre indication sur le contenu du chiffré.

    Le vote chiffré, accompagné de la preuve de validité, forme le bulletin qui est envoyé à une urne. Une des caractéristiques importantes d’Helios est que l’urne affiche sur une page web publique tous les bulletins reçus.

    Ainsi, chaque électeur peut vérifier que son bulletin est présent dans l’urne.

    Phase de dépouillement

    La phase de dépouillement est plus complexe et les explications sont données sur l’article complet Helios sur le site d’Interstices. En résumé, les propriétés mathématiques des algorithmes mis en œuvre empêchent le votant malhonnête de chiffrer autre chose que 0 ou 1 et d’ajouter des bulletins dans l’urne. Elles permettent également à chacun de vérifier le résultat de l’élection, à nouveau à l’aide de preuves à divulgation nulle.

    Les points forts d’Helios

    Helios est un système de vote relativement simple comparativement aux autres systèmes existants. Il est facile à mettre en œuvre et il s’agit d’un logiciel libre, ce qui signifie que le code source est disponible. Helios assure bien sûr la confidentialité des votes mais son principal avantage est d’être entièrement vérifiable et par tous : tout électeur peut suivre son bulletin dans l’urne, calculer le résultat de l’élection sous une forme chiffrée et vérifier les calculs effectués par les autorités de déchiffrement. Il s’agit d’une différence fondamentale par rapport à la plupart des solutions commerciales actuellement déployées : même si les entreprises développant ces solutions font un effort pour que leurs systèmes soient audités par des experts habilités, elles ne permettent pas à tout un chacun de vérifier que le résultat proclamé est conforme.

    20 ans après le vote est révélé !

    Dans Helios, les votes sont affichés de manière chiffrée avec l’identité des électeurs ce qui comporte des risques pour l’anonymat. En effet, des systèmes de chiffrement qui sont sûrs aujourd’hui pourraient ne plus l’être dans 20 ou 30 ans. Les avancées scientifiques et technologiques permettront très probablement de casser ces chiffrés et de connaître ainsi comment chacun des électeurs a voté. D’autre part, en France, la liste d’émargement n’est pas publique en général. Ainsi, les recommandations de la CNIL en matière de vote électronique précisent que : « Les fichiers comportant les éléments d’authentification des électeurs, […] ne doivent pas être accessibles, de même que la liste d’émargement, sauf aux fins de contrôle de l’effectivité de l’émargement des électeurs. » Une solution très simple pour corriger Helios consiste à ne plus afficher l’identité des électeurs. Malheureusement, cela affaiblit également la sécurité du système : dans le cas où l’urne serait attaquée (par exemple si des hacker parviennent à contrôler le système informatique déployé pour l’élection), il serait alors facile d’ajouter quelques bulletins sans se faire remarquer. Le développement d’un système de vote sûr est un sujet de recherche très actif à l’heure actuelle. Ainsi, une évolution d’Helios, appelée Belenios, comporte une protection cryptographique contre le bourrage d’urne.

    Quand (ne pas) choisir d’utiliser Helios ?

    Des systèmes ouverts et vérifiables comme Helios représentent une avancée pour les élections qui ont lieu à distance. Cependant, il est important de souligner qu’Helios, comme tout système de vote en ligne, ne nous semble pas adapté à des élections à forts enjeux, comme des élections politiques (présidentielles, législatives…). En effet, un ordinateur compromis pourrait transmettre la valeur du vote d’un électeur à une tierce personne, et à l’insu de l’électeur. Il pourrait également voter pour une autre personne (même si Helios comporte quelques protections contre cela, non décrites ici). Ces faiblesses ne sont pas dues au système Helios, mais au fait qu’on ne peut tout simplement pas avoir une totale confiance dans la sécurité d’un ordinateur personnel.

    De manière générale, certains problèmes de sécurité sont inhérents au vote par Internet. Ainsi, des logiciels malveillants comme des virus ou un enregistreur de frappe (keyloggers) peuvent enregistrer et divulguer les votes, brisant ainsi l’anonymat. D’autres logiciels peuvent non seulement divulguer les votes mais également changer leur valeur, sans être détectés. En 2012, lors des votes des Français de l’étranger aux élections législatives, Laurent Grégoire, ingénieur français travaillant aux Pays-Bas, en a fait la démonstration en mettant au point un logiciel capable de remplacer le choix de l’électeur pour un parti pirate, au moment où l’électeur votait. En 2007, en Estonie, un étudiant en informatique, Paavo Pihelgas, a également construit un logiciel pour produire des bulletins valides, pour le candidat de son choix. Dans les deux cas, il s’agissait de systèmes de vote dont le fonctionnement et le code source n’étaient pas connus. Ceci démontre que le secret du fonctionnement du système ne garantit pas la sécurité. Au contraire, il est souhaitable que la description du système et le code source soient ouverts pour permettre à un maximum de personnes de procéder à une analyse de sécurité.

    Même pour les systèmes les plus sûrs et les plus vérifiables, les mécanismes de vérification font appel à des théories mathématiques complexes dont la compréhension détaillée est réservée à des experts. Les autres utilisateurs doivent faire confiance à ces experts, contrairement au vote papier où les procédures sont comprises par une vaste majorité des citoyens.

    Election technology
    © The Economist on October 27th 2012, un article qui explique comment le vote à domicile sur Internet pose des problèmes d’acceptabilité, mais change aussi létat d’esprit de l’électeur au moment du vote.

     

    Vote à l’urne/Vote par correspondance/Vote par Internet ?

    Pour toutes ces raisons, il semble prématuré d’utiliser le vote par Internet pour des élections à forts enjeux comme des élections politiques importantes. Par contre, il serait réducteur de penser que le vote par Internet est plus dangereux que les autres systèmes de vote en général. Ainsi, le vote par Internet est souvent utilisé pour remplacer le vote par correspondance, qui lui-même n’est pas un système totalement sûr comme nous en avons discuté dans un précédent billet.

    En conclusion, le choix d’utiliser un système de vote électronique dépend très fortement du système déjà en place et du type d’élection.

    Véronique Cortier, CNRS – Nancy, et Steve Kremer, INRIA Nancy Grand-Est, chercheurs au LORIA.

     

  • L’informatique sur Wikipédia

    WikipédiaBinaire a pris l’initiative d’une série d’actions regroupées sous le nom de code « Cabale Informatique de France ». Il s’agit de contribuer aux pages de Wikipédia sur l’informatique, en français. Cela démarre le samedi 11 avril par un « pizza camp » co-organisé par la Société Informatique de France et Wikimédia France. Serge Abiteboul et Marie-Agnès Enard.

     

    La Société Informatique de France et Wikimedia France s’associent pour enrichir les articles de Wikipedia dédiés à l’informatique, en français. A l’heure où l’école, le collège et le lycée ouvrent plus largement leurs portes à l’informatique, il nous a paru important de participer à l’enrichissement de la première encyclopédie en ligne au monde. Des formateurs seront aux côtés des participants pour les initier à la contribution sur Wikipedia. Cette journée est une occasion unique pour découvrir les rouages de Wikipédia.

    @Maev59
    @Maev59

    Rendez-vous samedi 11 avril de 10h à 18h à l’UPMC, 4 place Jussieu, Paris 5e.
    Salle 105 barre 26-25

    10h-10h30 : Café d’accueil et introduction
    10h30-13h : Session de contribution
    13h-14h : Déjeuner sur place (à la charge des participants)
    14h-17h30 : Session de contribution
    17h30-18h : Conclusion

    Merci d’apporter votre ordinateur portable
    Demande d’inscription : http://tinyurl.com/oghbuaa
    Inscription dans la mesure des places disponibles.

    Une fois votre demande d’inscription acceptée, merci de confirmer votre présence avant le 30 mars par courriel à thierry.vieville@inria.fr. Seul le reçu de cette confirmation vous garantira une place.

    En collaboration avec

  • L’ordinateur imite l’homme imitant la femme…

    L’intelligence artificielle est un vrai sujet, mais c’est aussi une source de fantasmes dont la forme contemporaine est issue de textes d’Alan Turing. Isabelle Collet, Maître d’enseignement et de recherche à la Faculté des sciences de l’éducation de l’université de Genève, nous offre ici un éclairage inattendu et nous aide à dépasser les idées reçues. Elle attire notre attention sur le fait que c’est avant tout une histoire de « mecs ». À déguster donc… Thierry Viéville.

    shapeimage_2Quand je faisais mes études d’informatique, j’avais entendu parler du « test de Turing ». Pour moi, il s’agissait simplement de faire passer un test à un ordinateur pour savoir s’il était intelligent (ou s’il était programmé d’une façon suffisamment maline pour donner cette impression).

     

    Face à un ordinateur, l’humain est-il une femme ou un homme ?

    En faisant des recherches dans le cadre de ma thèse, j’ai lu un peu plus sur le « test de Turing »… et j’ai découvert avec fascination que quand les informaticiens prétendaient le mettre en place, ils en oubliaient la moitié : le jeu ne se met pas en place avec un humain et un ordinateur, mais avec un homme et une femme. Un observateur devra déterminer lequel de ses interlocuteurs est un homme et lequel est une femme. Il devra les interroger sans avoir aucun autre indice que le contenu des réponses que l’homme et la femme formulent. Puis, au bout d’un « certain temps », on remplace l’homme par l’ordinateur. Si l’observateur pense qu’il joue encore à détecter la différence des sexes et ne remarque rien, c’est que l’ordinateur a l’air au moins aussi intelligent que l’homme. À l’époque, je ne voyais pas bien l’intérêt de ce passage par la différence des sexes… Jusqu’à ce que je lise un texte de Jean Lassègue, auteur d’un autre texte sur Turing sur ce blog, et que je l’associe aux recherches de l’anthropologue Françoise Héritier. Je vais parler ici de cette connexion, avec tous mes remerciements à Jean Lassègue pour son excellente analyse du jeu de l’imitation .

    On pourrait considérer que la première partie du jeu (entre un homme et une femme) n’est qu’un prétexte pour permettre ensuite la substitution en aveugle avec l’ordinateur et que Turing aurait pu choisir un autre critère que la différence des sexes pour amorcer le jeu. Pour Jean Lassègue1, le critère de la différence des sexes est tout à fait capital : « il s’agit de passer d’un écart physique maximal entre êtres humains à un écart maximal entre espèces différentes (si on considère l’ordinateur comme une nouvelle espèce) ». Sur cette base, l’observateur est supposé en déduire que : « puisque la différence physique la plus profonde entre les êtres humains (être homme et être femme) n’est pas apparente dans le jeu n°1, la différence physique encore plus profonde entre les êtres humains d’une part et l’ordinateur d’autre part ne sera pas apparente dans le jeu n°2 non plus. ». Évidemment, si le jeu n°1 échoue, il n’est plus question de passer au jeu n°2 qui perd sa capacité démonstrative.

    Lors de la première phase de l’expérience, Turing signale que : « La meilleure stratégie pour [la femme] est sans doute de donner des réponses vraies. Elle peut ajouter à ses réponses des choses comme : ‘‘C’est moi la femme, ne l’écoutez pas’’ mais cela ne mène à rien puisque l’homme peut faire des remarques semblables ».

    Photo @Maev59
    Photo @Maev59

    Pourquoi Turing assigne-t-il ainsi les stratégies de jeu entre l’homme et la femme ? Toujours selon Lassègue, la stratégie de la femme est en fait une absence de stratégie. Dans le jeu de l’imitation, la femme est la seule qui s’imite elle-même, alors que l’homme imite la femme et que l’ordinateur imite l’homme imitant la femme.

    Dans une interview, un de ses anciens collègues, Donald Michie, rapporte ces propos de Turing : « Le problème avec les femmes, c’est qu’il faut leur parler. Quand tu sors avec une fille, tu dois discuter avec elle et trop souvent, quand une femme parle, j’ai l’impression qu’une grenouille jaillit de sa bouche. »1

    L’intelligence artificielle est-elle finalement « gendrée » ?

    Revenons au jeu de l’imitation : les femmes, qui sont supposée être de manière générale à ce point dépourvues d’à-propos dans une conversation, doivent se contenter d’être elles-mêmes dans ce jeu, c’est-à-dire, indiscutablement une femme, un être incapable de faire abstraction de son sexe. L’homme, par contre, va tenter de tromper l’interrogateur, et pour cela, il devrait être capable de se détacher de son sexe, c’est à dire de son corps sexué, pour réussir à imiter la femme. Et en fin de compte, ce que l’ordinateur va devoir réussir, c’est d’imiter l’homme qui imite la femme, ou, plus simplement, d’imiter la femme.

    Finalement, l’homme et l’ordinateur ont des stratégies tout à fait similaires. L’intelligence ainsi imitée par la machine est celle de l’homme et le jeu de l’imitation a pour conséquences, d’une part, d’écarter les femmes dès qu’on parle d’intelligence, et, d’autre part, de placer l’intelligence de l’homme (et non pas de l’humain) à un niveau universel.

    Il est en effet remarquable au début du jeu n°1 que Turing semble signifier que la différence des sexes se traduit clairement par les attributs physiques. Plus particulièrement, il pense qu’il y a une essence féminine (différente de l’essence masculine) et qu’une de ses manifestations fiables est l’apparence de la femme. Dans le premier et seul exemple de l’article proposé pour le jeu n°1, l’observateur pose une question relative à la longueur des cheveux de son interlocuteur-trice. Turing reprend ici, volontairement ou non, le présupposé sexiste largement répandu qui prétend, d’une part, que les femmes sont davantage asservies à leur corps que les hommes et, d’autre part, que leur apparence se superpose à leur personnalité. Rousseau disait déjà que la femme est femme à chaque instant, alors que l’homme n’est homme (c’est-à-dire un être mâle) qu’à des instants précis… le reste du temps, il est universel (c’est à dire un universel masculin, puisque de toute manière, la femme n’y est pas conviée).

    Notons que pour que le jeu puisse fonctionner, il faut bien que la femme soit elle-même, et ne puisse être qu’elle-même. La différence est alors produite par la capacité de l’homme à se détacher de son corps, car son esprit lui permet d’imiter un être pris dans un autre corps, et ainsi de jouer, sur ce plan, jeu égal avec la machine. On en vient à penser que l’intelligence universelle est plutôt du côté de la machine.

    Dans son jeu, Turing se débarrasse de la différence des sexes simplement en se débarrassant des femmes. Si l’intelligence que recherche Turing est universelle, ce n’est pas parce qu’elle a fusionné les sexes, mais parce qu’il n’en reste plus qu’un, auquel peut se comparer l’intelligence artificielle.

    On retrouve ce même fantasme quand il décrit les machines autorisées à participer au jeu : « Nous souhaitons enfin exclure de la catégorie des machines les hommes nés de la manière habituelle. […] On pourrait par exemple requérir que les ingénieurs soient tous du même sexe, mais cela ne serait pas vraiment satisfaisant »2. Cette phrase, qui peut être considérée comme un trait d’humour, possède en fait deux éléments essentiels pour comprendre la vision que Turing a de la machine. Tout d’abord, la machine est considérée comme étant littéralement l’enfant des ingénieurs, puisque s’il était produit par une équipe d’hommes et de femmes ingénieurs, cela jetterait le doute sur un possible engendrement biologique. D’autre part, pour que la machine puisse être éligible au jeu de l’imitation, une condition nécessaire est qu’elle ne soit pas issue de la différence des sexes.
    De plus, l’équipe d’ingénieurs de même sexe qui engendrerait une machine, serait selon toutes probabilités dans l’esprit de Turing, une équipe d’hommes. Sa vision de la création d’une machine de type ordinateur est non seulement un auto-engendrement, mais surtout un auto-engendrement masculin se débarrassant des femmes au moment de la conception sous prétexte, en quelque sorte, de ne pas tricher.

    Un paradis sans altérité !

    Photo @Maev59
    Photo @Maev59

    La cybernétique nous explique que, puisque le niveau supérieur de compréhension de l’univers implique l’étude des relations entre ses objets et non la connaissance de la structure des objets, les matières et les corps ne sont pas vraiment ce qui importe. Piégées dans leur corps, les femmes n’ont pas accès à ce niveau supérieur de compréhension de l’univers que propose le paradigme informationnel. Elles en seront même éventuellement écartées pour permettre à l’intelligence d’atteindre un idéal androgyne débarrassé du féminin. A cet instant, la perspective d’un monde idéal dans lequel l’homme pourrait se reproduire à l’identique devient possible.

    Les fantasmes d’auto-engendrement apportent une solution à ce que Françoise Héritier3 appelle le privilège exorbitant des femmes à pouvoir se reproduire à l’identique mais aussi au différent. Les femmes sont les seules capables de mettre au monde non seulement leurs filles mais aussi les fils des hommes. Selon Françoise Héritier, on retrouve dans de nombreux mythes des groupes non mixtes vivant séparément et pacifiquement, chacun étant capable de se reproduire à l’identique. L’harmonie primitive résidait dans l’absence d’altérité, jusqu’à ce qu’elle soit gâchée par un événement violent (en général : une copulation que (les) dieu(x) ne désirai(en)t pas).

    Philippe Breton estimait dans son livre de 1990 « La tribu informatique » que : « La reproduction au sein de la tribu se fait fantasmatiquement grâce […] à l’union de l’homme et de la machine ». Sur ce point, je ne suis pas d’accord. À mon sens, il n’y a pas d’union avec la machine, mais un auto-engendrement dont la machine est soit le produit (du temps où on fantasmait sur les robots) soit le support (depuis qu’on imagine des IA uniquement logicielle). Or, un auto-engendrement et une reproduction via une « matrice biologique » sont des procédés qui se présentent comme mutuellement exclusifs. C’est pourquoi je suis d’accord quand il ajoute : « Dans ce sens, l’existence même de la tribu informatique est en partie conditionnée par l’exclusion des femmes qui constituent une concurrence non désirée.»

    Le monde scientifique des années 1950 peut être un exemple du paradis sans altérité de Françoise Héritier. Le monde de l’informatique d’aujourd’hui n’en est pas très loin. L’auto-engendrement cybernétique au cours duquel l’homme seul duplique son intelligence dans une machine permettrait de faire fonctionner pleinement ce « paradis », il possède le double avantage de supprimer la différence des sexes en écartant les femmes du processus de reproduction et de permettre aux êtres mâles de se reproduire à l’identique.

    Isabelle Collet.

    1Lee, J. A. N. and Holtzman, G. « 50 Years After Breaking the Codes: Interviews with Two of the Bletchley Park Scientists. » The Annals of the History of Computing vol. 17 n°1 (1995) p. 32-43

    2Alan Turing, Jean-Yves Girard, La machine de Turing, 1995

    3Françoise Héritier, Masculin / Féminin, Dissoudre la hiérarchie. (2002).

    1Jean Lassègue, Turing. 1998.

  • Bonne fête des Meufes !

    FullSizeRenderBinaire essaie de ne pas sombrer dans le monde très masculin des sciences en ouvrant ses articles à un grand nombre d’amies. Nous avons d’abord les « gentilles éditrices » du Blog : Marie-Agnès (Maé quoi!) et Sylvie. Et puis, certaines auteures sont devenues des habituées comme Françoise qui nous raconte l’enseignement de l’informatique dans le monde ou Véronique qui nous parle de sécurité informatique.

    Donc pour nous la Journée de la Femme c’est toute l’année. Nous avons quand même voulu célébrer avec des amies cette journée, mais pendant une semaine. Nous aurons avec Anne-Marie des articles sur les grandes informaticiennes du passé comme Ada ou Grace, ou du présent avec trois Prix Turing. Nous parlerons de l’histoire des rapports entre femmes et informatique avec Valérie. Enfin, Isabelle nous proposera une vision gendrée du jeu de l’imitation d’Alan Turing.

    Voili-voilà ! Les éditeurs de binaire souhaitent

    • Une année prochaine moins machiste à ses lecteurs, et
    • Bonne fête à toutes ses lectrices !

     

     

  • Neutralité du réseau : Et si on faisait comme les ricains ?

    Merci Obama ! 
    On s’attend à ce que La Federal Communications Commission aux États-Unis d’Amérique reconnaisse jeudi les services Internet comme un bien public. C’est un changement majeur pour qu’Internet reste un espace de liberté et pas une jungle trustée par quelques uns. Yes!

    Pour en savoir plus :

    Et, en complément, grâce à l’Isoloir nous apprenons que :

    « La Neutralité de l’Internet est tout simplement le principe de non-discrimination des utilisateurs : un utilisateur, quel qu’il soit – grand média ou petit blog, célébrité ou anonyme -, doit pouvoir accéder et diffuser de la même manière les informations. C’est cette extrême égalité qui a permis que se développent les services ultra-innovants sur Internet.  Cela signifie concrètement plusieurs choses :

    • D’abord, acheminer les données sans en examiner le contenu, sans en altérer le contenu, et sans tenir compte de la source, de la cible et de la façon dont on communique (on parle du protocole de communication). C’est la neutralité au niveau des « tuyaux » de l’information.
    • Mais il faut aussi garantir la visibilité de l’information (c’est-à-dire garantir qu’elle ne sera pas « noyée » dans une masse d’informations davantage mises en valeur.

    C’est pourquoi, au sujet de la neutralité d’Internet, le CNNum (Conseil National du Numérique) recommande que : « la neutralité des réseaux de communication, des infrastructures et des services d’accès et de communication ouverts au public par voie électronique garantisse l’accès à l’information et aux moyens d’expression à des conditions non-discriminatoires, équitables et transparentes ».

    Serge Abiteboul, Thierry Vieville

     

  • Dans la série The Code !

    Après la série américaine Alt and Catch Fire dont nous avions parlé en juin 2014, c’est au tour de l’Australie de nous proposer une mini-série appelée The Code, diffusée sur Arte depuis le 19 février (depuis octobre 2014 en Australie). Un nom évocateur pour la bande d’informaticiens (mais pas que) du comité éditorial de binaire. Il n’en fallait pas plus pour attiser à nouveau la curiosité de Maé sur le sujet !

    Source Wikipedia
    Source Wikipedia

    Un samedi froid et pluvieux, l’idéal pour découvrir une mini-série tournée en Australie qui risque fort d’intéresser mes amis de binaire si j’en crois le pitch :  « Deux frères, l’un journaliste web et l’autre hacker, tentent de déjouer un vaste complot lié aux biotechnologies. »

    Épisode 1, je ne suis pas sûre de bien comprendre où l’on veut m’emmener ! Le code en question se résume à une séance rapide de piratage de site. La mise en place de l’intrigue et des personnages me surprennent. Mais, après tout, j’adore être surprise donc je poursuis avec l’épisode 2. L’essentiel est enfin posé, on va parler corruption, cybercriminalité, journalisme d’investigation, le tout dans un décor assez fabuleux entre désert australien et bureaux feutrés. Même si les raccourcis pour installer les thèmes sont un peu trop visibles, le rythme est soutenu et l’on accroche assez vite à ce thriller politique et numérique. Mis à part le cliché de la directrice de la com blonde, sexy et manipulatrice avec la presse (si, si !), le casting est excellent (je retrouve avec plaisir Aden Young, tout simplement fabuleux dans Rectify).

    Cette série a quand même reçu le Prix du Meilleur scénario au Festival International des Programmes Audiovisuels 2015 (FIPA) !

    Source Arte
    Source Arte

    Si l’on se place côté binaire, la représentation du hacker est encore une fois assortie des clichés habituels. J’en énumère quelques uns, mais si vous en voyez d’autres, n’hésitez pas à les dénoncer dans les commentaires :

    • Non, le vrai hacker ne passe pas son temps à pirater des sites.
    • Non, on ne s’introduit pas en moins d’une minute sur n’importe quel site et cela en tapant deux lignes de code à deux doigts ! (Ou à 10 d’ailleurs, enfin je crois).
    • Mais pourquoi faut-il absolument que les touches du clavier fassent un bruit terrible ? Le code ça doit s’entendre ?
    • Non, le hacker n’est pas forcément « mauvais ». (Ses compétences peuvent même être  précieuses pour notre société. Ici c’est plutôt en la faveur de la série de montrer que les secrets d’états ne sont finalement pas si bien gardés… L’actualité ne nous contredira pas.)
    • Le hacker n’est pas forcément malheureux, voire désespéré… (Même s’il peut l’être – une pensée pour Aaron Swartz.)

    Il ne me reste plus qu’à attendre la suite des épisodes parce que j’ai vraiment accroché. Et puis j’aime quand même bien sourire au bruit des touches du clavier.

    Les images sur les as du code, l’informatique, le numérique envahissent nos écrans. On ne peut que s’en féliciter car cela peut avoir un réel impact pour démontrer (et cela est encore nécessaire) combien l’apprentissage de l’informatique pour les générations à venir est importante. Mais essayez quand même de discerner la fiction de la réalité !

    Marie-Agnès Enard

    PS : Pour rentrer plus en détail sur les rouages de cette série, je vous invite à lire l’article très complet de Pierre Langrais  « La série The Code montre deux visages opposés de l’Australie » sur Télérama.

  • Façonner l’imaginaire

    Marie-Paule Cani, Professeure à Grenoble INP et responsable d’une équipe commune au Laboratoire Jean Kuntzmann et à Inria, est la toute nouvelle titulaire de la Chaire «Informatique et sciences numériques» du Collège de France où elle présente un cours intitulé « Façonner l’imaginaire : de la création numérique 3D aux mondes virtuels animés » (leçon inaugurale le 12 février 2015). Nous nous sommes émerveillés devant les images de synthèse en 3D, dans des films, des jeux vidéo ou des œuvres d’art. Marie-Paule nous explique comment l’informatique graphique va continuer à nous faire rêver. Serge Abiteboul.

    Marie-Paule Cani @ Collège de FranceMarie-Paule Cani – Photo Collège de France 

    De la création numérique 3D aux mondes virtuels animés

    Le monde numérique est un espace artificiel où l’être humain règne en maitre, créant les contenus ou orchestrant leur génération à partir de données ou d’algorithmes. Mais il est parfois frustrant de ne créer que de l’immatériel – que l’on peut difficilement voir et encore moins toucher. C’est sans doute pour cela que la création numérique 3D fait tant rêver. Elle permet d’ébaucher des formes en quelques gestes, puis de les observer sous tous les angles et de les manipuler virtuellement. Elle ouvre la voie vers la fabrication automatique de prototypes physiques à partir de ces formes – par exemple via l’impression 3D, nous offrant ainsi la faculté unique de matérialiser l’immatériel. Enfin, elle permet de donner vie à d’autres mondes – des mondes virtuels peuplés et animés – puis de les explorer en s’y immergeant de tous nos sens grâce à la réalité virtuelle.

    Tout en étant capables, dans une certaine mesure, de reconstruire ou d’imiter le monde réel, les contenus 3D constituent un moyen privilégié pour exprimer notre imaginaire. Au-delà d’une dimension ludique et artistique qui s’exprime largement au travers des jeux vidéo, du cinéma et de l’art numérique, la création graphique 3D offre un outil formidable aux chercheurs et ingénieurs de tous domaines. Elle permet à l’ingénieur de créer virtuellement son objet d’étude puis de le tester pour l’améliorer avant même qu’il ne soit fabriqué dans le monde physique. Le scientifique (du biologiste à l’archéologue) pourra pour sa part exprimer ses hypothèses sous forme visuelle, puis explorer les contenus ainsi créés pour affiner sa compréhension de son objet d’étude. L’interaction avec un support visuel permet en effet au créateur de raffiner progressivement sa vision, bien mieux que ne le ferait une simple image mentale. Léonard de Vinci en avait eu l’intuition. Des recherches récentes en psychologie cognitive ont démontré que l’interaction visuelle avec une ébauche permet d’éveiller des parties de la mémoire ignorées par une description analytique, d’imaginer et d’explorer mentalement un espace de solutions possibles, permettant ainsi de compléter progressivement sa création.

    Marie-Paule Cani illustration-1Créations numériques © Grenoble-INP, Inria, Lyon 1

    À quand remonte ce goût pour la création 3D ? De tout temps, l’être humain a cherché à maîtriser la création de formes et même de mouvements, qu’ils soient inspirés par le réel ou simplement imaginés. Contrairement au son que nous pouvons produire directement sans l’aide d’instruments, l’être humain ne dispose pas de moyens physiques pour exprimer et communiquer des formes tridimensionnelles : il a besoin d’un support et d’outils pour les représenter. Ce support a pu être le sable, le rocher, l’argile … et les premiers outils ont probablement été les doigts ou un silex. Se sont développés le dessin et la peinture, qui ne peuvent représenter que des projections planes des formes, mais qui s’avèrent parfois précieux pour évoquer l’incertitude ou pour exprimer une action (pensons à la bande dessinée) ; et la sculpture, qui permet de représenter précisément des formes statiques en 3D mais ne sait évoquer le mouvement qu’à travers des situations de déséquilibre.

    Aujourd’hui, de plus en plus d’êtres humains disposent du média numérique et le manipulent plus quotidiennement qu’une boule de pâte à modeler, ou même, pour certains, qu’un papier et un crayon. L’outil numérique pourrait-il devenir à terme le média ultime, offrant à chacun cette capacité que nous recherchons depuis toujours, à savoir celle d’ébaucher en temps-réel puis raffiner progressivement les formes et des mouvements que nous imaginons, grâce à cette interaction visuelle si propice à la création ? De manière immédiate, des qualités du support numérique le rendant supérieur à tout support physique viennent à l’esprit : il peut permettre de dessiner dans le plan mais aussi en volume (en « 3D »); d’ébaucher non seulement des formes statiques, mais aussi des formes en mouvement ; de stocker et de visualiser ces créations à différents niveaux de détails ; de revenir en arrière au besoin, de copier, dupliquer et coller des détails. Plus encore, le numérique pourra apporter de l’aide à ceux qui n’arrivent pas à exprimer leurs imaginaire dans le monde réel, pensant qu’ils « ne savent pas dessiner ». Cependant, un long chemin reste à parcourir pour mettre ce média numérique à la portée de tous. Une série de recherches récentes ouvrent la voie.

    La création numérique 3D

    Les travaux que nous allons présenter ici correspondent au champ disciplinaire de l’Informatique Graphique, dont la communauté scientifique s’est structurée en France dès la fin des années 80. A l’opposé des technologies qui prennent des images en entrée, comme le traitement d’images, la vision par ordinateur ou l’imagerie médicale, l’informatique graphique s’intéresse aux méthodes pour produire des images en sortie. Ces images artificielles sont appelées images de synthèse.

    Si elles sont visuelles et parlent à tous, les images de synthèse cachent des modèles mathématiques et des algorithmes de simulation de phénomènes physiques, dont l’efficacité est essentielle. Les chercheurs en informatique graphique développent des représentations mathématiques dédiées aux formes 3D ainsi que des méthodes pour les façonner virtuellement : il s’agit de la « modélisation géométrique. Ils proposent des méthodes pour décrire ou générer les mouvements et les déformations de ces formes au cours du temps : il s’agit de « l’animation ». Enfin, ils explorent les chaînes de traitement permettant de passer du monde numériques 3D qui en résulte à une image ou à un film, semblables à ceux qu’auraient pu saisir une caméra : il s’agit du « rendu ».

    Au cours des dix dernières années, l’accroissement des capacités mémoire et de la puissance de calcul des ordinateurs ont permis de stocker, de traiter et d’afficher des données 3D massives (plusieurs millions de polygones), produisant des images de synthèse parfois difficiles à différencier du réel : on parle de « réalisme visuel ». En parallèle, les utilisateurs attendent des mondes virtuels un contenu toujours plus impressionnant, riche et détaillé. Mais comment créer ces contenus ?

    Deux approches ont été développées jusqu’ici pour accélérer la création de contenus 3D : la capture de données réelles et la génération automatique. Cependant, même s’il était possible de capturer un à un chaque élément de notre monde, l’utilisation massive d’objets capturés briderait la créativité. Et pour sa part, la génération automatique n’offre qu’un contrôle indirect et assez limité du résultat. De ce fait, la création graphique passe encore principalement par la modélisation interactive, via des logiciels dédiés. Des centaines d’artistes infographistes, ayant reçu plusieurs années de formation dans des écoles spécialisées, s’attellent à la création des éléments de chaque nouvel univers virtuel. Par exemple, la création du film « La reine des neiges » de Disney, sorti en novembre 2013, a demandé le travail de 650 personnes pendant deux ans. Pour accélérer le processus de création, des supports physiques (papier, argile) sont utilisés aux premiers stades de la conception. Recréer et améliorer chaque forme et chaque mouvement sous forme numérique demande des mois d’un travail minutieux et souvent fastidieux (pensons à un décor naturel dont la végétation est agitée par le vent, ou aux nombreux éléments animés d’une scène urbaine). De plus, la complexité des logiciels demande aux utilisateurs de rester concentrés sur la maitrise de l’outil pour naviguer dans un dédale de menus et sous-menus, au lieu de penser uniquement à la forme créée. Ainsi, Rob Cook, directeur scientifique de Pixar, a affirmé en 2009 que le grand défi en informatique graphique est de “rendre les outils aussi invisibles aux artistes que les effets spéciaux ont été rendus invisibles au grand public!” En effet, un spectateur ne se demande plus ce qui est réel ou virtuel lorsqu’il est plongé dans un film comme « Avatar » : il est emporté par l’histoire… De même, les créateurs de contenus 3D devraient pouvoir créer sans se soucier de l’outil, comme s’il s’agissait d’un simple prolongement de leurs doigts.

    Comment mettre la création 3D à la portée de tous, permettant à tout un chacun de « façonner l’imaginaire », au fur et à mesure qu’il lui vient en tête, et plus facilement qu’avec un papier et un crayon ? C’est l’objet d’un nouveau courant de recherche en informatique graphique, que j’appellerai la « modélisation expressive »1.

    Vers une modélisation expressive

    Des recherches récentes en informatique graphique s’attachent à développer des méthodes de création 3D mariant simplicité et rapidité d’utilisation avec la qualité visuelle et le contrôle des résultats. L’objectif est que l’utilisateur puisse littéralement « façonner » les formes et les mouvements qu’il imagine tout en s’appuyant sur l’outil numérique pour compléter automatiquement les détails et pour maintenir les contraintes qu’il souhaite en matière de réalisme. Pour cela, nous assistons à l’émergence de trois principes méthodologiques :

    • Tout d’abord, une création par gestes est proposée. Ces derniers peuvent être des gestes de dessin pour ébaucher une nouvelle forme, des gestes de sculpture ou de modelage pour l’améliorer ou lui ajouter des détails, ou encore des gestes de mime pour indiquer un mouvement. A ces métaphores d’interaction inspirées du monde réel sont ajoutées certaines actions simples qui ont déjà révolutionné les environnements numériques comme le fait de copier-coller pour reproduire et transférer certains éléments.
    • Deuxièmement, les modèles graphiques sont revisités de manière à ce qu’ils réagissent comme l’attendrait un utilisateur humain, sous ces gestes d’interaction. Pour cela, il s’agit d‘intégrer des connaissances adéquates dans les modèles, leur permettant de répondre à la sémantique qu’un utilisateur humain associe, presque involontairement, à ses actions.
    • Enfin, différentes méthodologies de passage à l’échelle sont développées, pour permettre à l’utilisateur d’orchestrer la création d’un monde virtuel complexes, constitué de hiérarchies d’éléments éventuellement animés, sans avoir à les manipuler un à un.

    Pour mieux décrire ces principes, prenons un exemple : la création d’un arbre virtuel.

    Un arbre inclue une multitude d’éléments de différentes dimensions, structurés en distributions aux propriétés statistiques spécifiques du fait des lois biologiques qui le régissent. Il s’agit d’offrir à l’utilisateur la capacité de créer rapidement un arbre 3D particulier dans sa forme, mais plausible, alors même que modéliser les milliers de branches qui le composent demanderait des connaissances spécifiques et serait extrêmement fastidieux.

    Plutôt que d’aborder une telle tâche directement en 3D, l’utilisation d’une métaphore de dessin 2D, inspirée de la manière dont un artiste ébauche rapidement un arbre puis précise progressivement son dessin, peut permettre d’accélérer considérablement cette tâche : l’utilisateur dessine en un seul geste le contour de l’arbre ; le système s’appuie sur des lois géométriques et biologiques pour en déduire la structure interne de premier niveau, c’est-à-dire la position des plus grosses branches, que l’utilisateur peut corriger manuellement s’il le souhaite. Cette idée de passer par un seul trait – une silhouette – est un exemple de méthode de passage à l’échelle : tandis que l’utilisateur garde un contrôle global sur la forme, la machine gère les détails, et ce de manière probablement plus réaliste qu’il ne l’aurait fait. A l’aide d’un gros plan sur l’une des sous-structures associées, l’utilisateur peut alors raffiner localement son dessin, et ainsi de suite sur plusieurs niveaux, jusqu’à aboutir au dessin d’une ou plusieurs feuilles. Tandis qu’il revient vers une vue d’ensemble, les structures dessinées sont automatiquement complétées par la génération de distributions aléatoires de sous-branches sur les branches voisines de même niveau, tout en vérifiant les mêmes propriétés statistiques que les parties dessinées. Chaque élément est également plongé en 3D de manière plausible, grâce encore une fois au respect de certaines lois biologiques. Enfin, des branches venant vers l’avant et partant vers l’arrière sont ajoutées. Ainsi, un arbre complet peut-être créé en quelques gestes.

    Marie-Paule Cani illustration-2Création d’un arbre 3D par dessin multi-résolution.
    À chaque niveau d’échelle, la structure est déduite
    d’un trait de silhouette (en vert) dessiné par l’utilisateur.
    Les détails sont générés, dupliqués et passés en 3D
    en utilisant des lois biologiques © Grenoble-INP, Inria, Cirad 

    Supposons maintenant que l’utilisateur veuille étirer son modèle, pour rendre cet arbre, disons, moitié plus haut : ici, le geste intuitif associé consiste probablement en un geste d’écartement de deux doigts posés sur l’arbre, dans la direction verticale, comme pour zoomer sur un texte. Un tel geste peut facilement être reconnu et associé à un étirement. Cependant, si des représentations graphiques classiques sont utilisées, chaque branche de l’arbre va alors s’épaissir verticalement, et les feuilles qu’elles portent vont s’étirer dans la même direction, rendant l’ensemble totalement irréaliste… Est-ce que l’utilisateur ne s’attendrait pas plutôt à ce que le tronc s’étire, mais à ce que les branches qui en partent se dupliquent et que de nouvelles sous-branches et feuilles similaires aux précédentes y soient placées ? Comme le montre cet exemple, l’incorporation de connaissances a priori (comme le fait que certains éléments répétitifs doivent être dupliqués et non étirés) est indispensable à la conception de modèles graphiques répondant de manière intuitive aux gestes de création.

    Conclusion

    La modélisation expressive est un nouveau courant de recherche en informatique graphique, visant à faire du média numérique un support de création 3D accessible à tous, et permettant aussi bien de façonner des formes isolées pouvant être imprimées, que de concevoir et animer en quelques gestes des mondes virtuels complexes. De nombreux défis restent à relever pour atteindre ces objectifs. Parmi eux, l’extension des méthodes proposées à des assemblages de formes animées, combinant contrôle des mouvements par l’utilisateur et réalisme visuel, n’est pas la moindre des difficultés.

    Le support idéal, permettant d’observer des objets à peine entrevus mentalement, d’ébaucher leur mouvement avant même que les formes ne soient vraiment précises, puis de raffiner progressivement ces contenus jusqu’à une œuvre aboutie, n’existe pas encore. Mais les avancées actuelles permettent d’énoncer un certain nombre de principes qui permettront d’atteindre ce but, comme l’alchimie créée par l’injection de connaissances dans les modèles, mariée à des gestes de création intuitifs. Comme dans le monde réel, tout l’art consiste à cacher à l’utilisateur la complexité de ce qu’il manipule : déchargé des tâches répétitives et de la gestion de contraintes difficiles à maintenir, l’être humain augmenté par l’outil numérique pourra lâcher plus largement la bride à son imagination. Les progrès sont rapides, et tout laisse présager que cette révolution de la création numérique changera durablement l’activité humaine.

    Marie-Paule Cani, Professeure à Grenoble INP

    1Du nom du symposium international EXPRESSIVE créé depuis quatre ans pour rassembler les recherches sur les nouveaux média de création, dont l’art numérique, la modélisation 3D par esquisses, l’animation et le rendu non photo-réalistes.

  • Gay pride des informaticiens

    Binaire accompagne la sortie d’Imitation game. Après  Jean Lassègue et son analyse du Jeu de l’imitation, Isabelle Collet nous parle de Turing avec cette fois un éclairage du point de vue du genre.

    800px-Sackville_Park_Turing_plaquePlaque à la mémoire d’Alan Turing à Sackville Park, Manchester

    Turing, l’homosexualité et les biopics hollywoodiens

    Ces jours-ci est sorti sur les écrans français un film d’espionnage se déroulant pendant la seconde guerre mondiale. De bons acteurs sont à l’affiche, tels que Benedict Cumberbatch ou Keira Knightley. Ils y jouent vraiment très bien et le film est sympathique. Malheureusement, le scénario est supposé raconter la vie d’Alan Turing. Si la trame générale est juste, à peu près aucun détail scénaristique n’est vrai.

    Benedict_Cumberbatch_2013_TIFF_(headshot) Benedict Cumberatch portrayed Turing
    in the film The Imitation Game (2014), Wikipedia

    À côté de la vie incroyable de Turing, nous avons un film bien léché répondant aux attentes hollywodiennes, avec des anecdotes qui tombent bien, un climax où il faut, des militaires bornés, un héros maudit, un mathématicien génial donc limite Syndrome d’Asperger, du sur-mesure pour les oscars mais historiquement erroné… Avec 11 nominations, le pari est réussi. Je ne vais pas me mettre à jouer au jeu des 1024 erreurs, les Turingophiles s’étant déjà déchainés, je vous propose plutôt une analyse sur la manière dont l’homosexualité de Turing a été traitée.

    Turing était gay, à une époque où il n’était pas conseillé d’en faire état, d’autant plus que l’homosexualité masculine était illégale au Royaume-Uni.

    En note : Le lecteur attentif pourrait se demander pourquoi  seule l’homosexualité masculine était illégale. Tout d’abord, seul l’acte homosexuel était réprimé et non le sentiment amoureux. Or à cette époque, on considérait qu’il n’y avait rapport sexuel qu’à condition qu’un pénis soit impliqué. Dans les rapports lesbiens, de fait, il n’y a pas de pénis (en tout cas, pas en vrai).

    Toutefois, Turing n’a jamais vraiment caché son homosexualité. Au lycée, il tomba amoureux d’un camarade de classe, Christopher qui mourra peu de temps plus tard. Selon Turing, Christopher savait très bien quels sentiments Alan avait pour lui, même s’ils n’étaient visiblement pas payés en retour. Le film montre un jeune Alan très désireux de tenir secrète sa relation avec Christopher, également amoureux. Or, les amitiés très fortes entre jeunes garçons étaient tout-à-fait banales et encouragées dans ces écoles privées non-mixtes. L’homo-socialité était de mise et n’était pas suspectée d’être en réalité de homosexualité : les angoisses d’Alan présentée dans le film sont en réalité anachroniques. Or, tel est le fil rouge du récit : Turing aurait vécu toute sa vie dans le drame d’être découvert.

    Le film prétend que lorsque Turing était à Bletchley, où était situé le Governement code & cypher school britannique, il aurait découvert qu’un de ses collègues, John Cairncross, était en réalité un espion russe. Cairncross fait alors chanter Turing : « Tu révèles mon secret, je révèle le tiens et tu seras viré de Bletchley, tu ne pourras plus jamais travailler, etc. ».

    Or, une interview très intéressante d’anciens de Bletchley, Donald Michie et Jack Good rendent cette histoire tout-à-fait invraisemblable. Certes, pendant la guerre, Turing ne vivait pas ouvertement son homosexualité. Néanmoins, Michie signale que : « Bletchley avait des homosexuels flamboyants » tel qu’Angus Wilson qui se baladait ouvertement avec son petit ami Beverley. Il ajoute que c’était un non-sens de dire que si le Royaume-Uni avait su que Turing était gay, les Alliés auraient perdu la guerre. En les lisant, on a plutôt le sentiment qu’à Bletchley, les mathématiciens pouvaient tout se permettre, pour peu qu’ils travaillent à ce pourquoi ils étaient là. Ce n’était pas pour rien que Turing disait que Bletchley était un camp de vacances pour mathématiciens : ils jouissaient là-bas d’une grande liberté, Turing en particulier, de part sa notoriété.
    turing-snowwhite-rayclid-binaire
    Si Michie et Good ne se sont jamais doutés de l’homosexualité de Turing, c’est à cause de la relation sincère qu’il entretenait avec Joan Clarke. Pour le coup, le personnage est assez fidèle à la réalité. Simplement, Turing ne lui cacha jamais son homosexualité. La nature de leur relation n’est pas particulièrement exceptionnelle pour l’époque. Ce qui l’est, c’est l’honnêteté avec laquelle ils la conduisirent. N’oublions pas que le mariage n’était pas le lieu de la satisfaction sexuelle. Les honnêtes femmes n’étaient d’ailleurs pas supposées prendre du plaisir dans l’acte sexuel. Une telle dépravation était réservée aux prostituées. C’était un « gentlemen agreement » tout-à-fait acceptable, puisqu’ils avaient de nombreuses passions communes, tels que les échecs et la botanique, et qu’ils avaient le même sens de l’humour.

    A la fin du film, Turing est victime d’un cambriolage. Quand la police arrive sur les lieux, appelés par un voisin, Turing refuse de porter plainte. Alors qu’il soupçonne Turing d’être un espion russe, le détective qui le poursuit découvre incidemment son homosexualité. En réalité, dès 1947, Turing parlait ouvertement de sa préférence pour les garçons avec les anciens de Bletchley, puis avec ses collègues du Kings College. Turing était convaincu que l’homosexualité allait très bientôt être dépénalisée (il faudra pourtant attendre 1985). Il appelle lui-même la police après s’être aperçu qu’un de ses amants lui avait volé des documents top-secrets. Il est alors accusé d’indécence. Le problème, pour la justice, ce n’était pas tant son homosexualité, mais plutôt le fait qu’il n’avait pas la décence d’en avoir honte.

    Hollywood aime des gays honteux, malheureux, vivant cachés. On s’indigne ensuite vertueusement du mal qui leur est fait quand, malgré eux, ils sont découverts. Tel est le stéréotype de l’homosexuel susceptible d’être plaint. Alors qu’il est plus difficile de susciter de la compassion pour le gay qu’on persécute parce qu’il s’expose… Le spectateur ne risque-t-il pas de penser que la victime l’a tout de même un peu cherché ?

    Isabelle Collet, Université de Genève

  • Le vote papier est-il réellement plus sûr que l’électronique ?

    Pourquoi donc remettre en cause la supériorité du vote «papier», en matière de garanties de sécurité et transparence ? Le vote électronique suscite à raison de nombreuses craintes, en partie évoquées dans un précédent billet de Véronique Cortier, directrice de recherche au CNRS. Comment s’assurer de la confidentialité des votes ? Comment se convaincre que son bulletin a bien été pris en compte ? Comment assurer la sincérité du scrutin ? Ces questions sont parfaitement légitimes et les systèmes de vote électronique n’y apportent pas encore de réponse claire. Mais les mêmes questions se posent pour les scrutins qui ont recours au « papier ».

    Le cas du vote traditionnel à l’urne

    Le premier système de vote qui vient à l’esprit est le vote traditionnel à l’urne, où chaque électeur dépose son bulletin dans une urne. L’isoloir et l’enveloppe visent à assurer la confidentialité des votes. L’urne transparente et le dépouillement public permettent à tout à chacun de vérifier le décompte des voix. Même si des fraudes peuvent avoir lieu, le vote à l’urne offre un très bon niveau de sécurité, sous réserve que l’urne soit surveillée sans relâche, de l’ouverture du scrutin au dépouillement, par un groupe de personnes représentant si possible chaque partie en lice. La surveillance de l’urne semble une évidence mais n’est pas toujours facile à réaliser pour des élections à enjeux modérés où il est souvent difficile de trouver des volontaires pour tenir l’urne et assister au dépouillement.

    Le vote par correspondance, un faux sentiment de sécurité

    Si le vote traditionnel à l’urne est bien compris et offre de bonnes garanties en matière de confidentialité et de transparence, il en est autrement du vote par correspondance. Comment voter par correspondance ? Le principe le plus simple consiste à mettre son bulletin dans une première enveloppe, glissée dans une deuxième enveloppe signée par l’électeur (pour permettre l’émargement), le tout envoyé dans une troisième enveloppe expédiée au centre gérant l’élection. Comment s’assurer que les trois enveloppes ne seront pas ouvertes en même temps, brisant ainsi la confidentialité du vote ? Comment être certain que des bulletins n’ont pas été ajoutés (ou supprimés) avant le dépouillement ? L’électeur doit faire une entière confiance aux organisateurs de l’élection ainsi qu’à toute la chaîne de traitement. Des fraudes provenant de personnes malveillantes extérieures à l’organisation de l’élection sont également possibles. Il est techniquement facile d’imiter la signature de quelques abstentionnistes pour ajouter des votes de son choix. La participation étant souvent faible, le nombre de bulletins nécessaires pour modifier le résultat de l’élection est en général peu important.

    Des attaques existent aussi sur des systèmes plus complexes

    Des systèmes de vote par correspondance plus complexes ont été mis au point pour permettre un dépouillement mécanisé. Certains systèmes utilisent ainsi des codes à barres, notamment pour identifier (de façon anonyme) l’électeur. Le fait d’utiliser du papier rend le système rassurant mais pas sûr pour autant. Il a été démontré que, pour certains systèmes, il est possible de reconstituer l’ensemble des matériels de vote envoyés aux électeurs, ouvrant ainsi la porte à un « bourrage d’urne ».

    Un bilan nuancé

    À l’heure actuelle, il n’y a pas de raison de penser que le vote électronique puisse remplacer avantageusement le vote traditionnel à l’urne, pour les scrutins où l’urne est correctement surveillée. Non seulement le vote électronique soulève de nouveaux défis techniques en matière de sécurité mais les solutions proposées sont complexes et accessibles uniquement à des spécialistes du sujet. Il semble impossible d’atteindre la simplicité du vote à l’urne.

    La comparaison entre vote électronique et vote papier amène des conclusions plus nuancées en matière de vote par correspondance. Dans les deux cas, l’électeur n’a plus de contrôle direct sur l’urne et le dépouillement. Il s’agit donc d’exercer le même esprit critique sur les systèmes de vote électronique que sur leurs homoloques « papier », en analysant les risques liés aux enjeux du scrutin.

    Véronique Cortier, CNRS – Nancy

  • Qu’est-ce qu’un bon système de vote ?

    C’est la question que Binaire a posée à Véronique Cortier, Directrice de recherche au CNRS à Nancy. Cette spécialiste de la sécurité informatique nous répond.

    De nombreux scrutins se font désormais par voie électronique. L’actualité est très riche en la matière avec les élections au sein de l’UMP (qui finalement seront faites en version papier) ou les élections professionnelles au sein du Ministère de l’Éducation Nationale. Le vote électronique concerne également de nombreux scrutins dont le nombre d’électeurs est plus limité comme l’élection de conseils (conseil d’administration, conseil scientifique, ou simplement conseil de collège ou de lycée). L’irruption des scrutins par voie numérique (on parle de « vote électronique ») soulève de nouveaux enjeux en termes de garanties de bon fonctionnement et de sécurité informatique : comment m’assurer que mon vote sera bien pris en compte ? Est-ce qu’un tiers peut savoir comment j’ai voté ? Puis-je faire confiance au résultat annoncé ? Nous faisons ici un tour d’horizon des propriétés souhaitables pour le vote électronique en nous appuyant sur l’exemple du vote traditionnel à l’urne tel qu’il est organisé en France lors des élections municipales par exemple.

    Vote à New-York vers 1900Salle de vote à New-York en 1900 (E. Benjamin Andrews – Source Wikimedia)

    1. Confidentialité : le maître mot !

    Nul ne doit connaître le vote d’un électeur. Dans le cas d’un vote à l’urne, on parle alors d’un vote à bulletins secrets : l’électeur glisse son bulletin dans une enveloppe, à l’abri des regards dans l’isoloir. Pour des élections à enjeux importants, la confidentialité stricte ne suffit pas : un électeur ne doit pas pouvoir révéler comment il a voté, même s’il le souhaite. Pourquoi donc ? Tout simplement pour se protéger contre l’achat de vote ou la coercition. Si je peux prouver comment j’ai voté, alors il m’est possible de vendre mon vote : contre une certaine somme d’argent (ou sous la menace), je peux donner une preuve que j’ai bien voté comme un tiers l’aurait souhaité. C’est pour cette raison que, lors d’un vote à l’urne, ni l’enveloppe ni le bulletin ne doivent porter un quelconque signe permettant d’identifier l’électeur, sous peine d’être considérés comme nuls. Notons au passage que le vote traditionnel à l’urne permet donc l’abstention forcée : il est possible de forcer un électeur à voter « nul » en lui demandant d’apposer sur son bulletin un signe particulier, convenu à l’avance. La présence de signe peut être vérifiée lors du dépouillement public.

    2. Sincérité et transparence du scrutin : un contrat de confiance

    Le principe même d’une élection est que les électeurs dans leur ensemble acceptent de se conformer au résultat de l’élection. Encore faut-il avoir confiance en la sincérité du scrutin, c’est-à-dire pouvoir se convaincre que le résultat de l’élection correspond bien aux votes exprimés par les électeurs. On parle alors de vérifiabilité. Toujours dans le cas d’un vote traditionnel à l’urne, et quitte à surveiller l’urne toute la journée, il est possible de s’assurer que son bulletin est bien présent dans l’urne (vérifiabilité individuelle) et que les bulletins proviennent tous bien d’électeurs légitimes (vérifiabilité de la légitimité). Puis lors du dépouillement public, chacun peut se convaincre que le décompte des voix correspond bien aux bulletins déposés par les électeurs (vérifiabilité universelle).

    3. Disponibilité et accessibilité : le vote pour tous !

    Tous les électeurs doivent pouvoir voter. Voter ne doit pas demander de compétence technique particulière et doit rester accessible à des personnes en situation de handicap. D’autre part, il doit être possible de voter à tout moment pendant la durée du scrutin. Dans le cas du vote à l’urne, il est ainsi important que les bureaux de vote soient accessibles, en nombre suffisant et suffisamment longtemps pour éviter de longues files d’attente.

    Qu’en est-il dans le cas du vote électronique ?

    Si chaque électeur peut juger de la disponibilité et de l’accessibilité d’un système de vote, force est de constater qu’il est difficile de juger de la confidentialité et de la transparence en matière de vote électronique puisque le fonctionnement de ces systèmes est inconnu dans la grande majorité des cas. Par exemple, le fonctionnement du système mis en œuvre lors des précédentes élections au sein de l’UMP n’est pas public. On peut alors se tourner vers les recommandations de la CNIL (Commission Nationale de l’Informatique et des Libertés) en matière de vote électronique. La CNIL insiste notamment sur le fait que le bulletin doit être chiffré avant d’être envoyé : « Le bulletin de vote doit être chiffré par un algorithme public réputé « fort » dès son émission sur le poste de l’électeur et être stocké dans l’urne, en vue du dépouillement, sans avoir été déchiffré à aucun moment, même de manière transitoire. » Lors du dépouillement, il doit être impossible de faire le lien entre un bulletin et l’électeur correspondant. Ces recommandations visent à empêcher des personnes malveillantes d’avoir accès aux votes des électeurs lors du déroulé du scrutin ou du dépouillement, même s’il reste difficile de se prémunir contre des attaques menées directement sur l’ordinateur de l’électeur (un ordinateur infecté par un virus pourrait modifier le choix de l’électeur ou tout simplement l’envoyer à une personne tierce).

    La transparence, grande oubliée des systèmes électroniques actuels.

    Si la confidentialité des votes semble être au centre des préoccupations des sociétés commercialisant des systèmes de vote électronique (d’après leurs brochures commerciales), la transparence du scrutin est actuellement le parent pauvre du vote électronique. Point d’urne visible, point de dépouillement public ! Et bien sûr, toujours pas d’information sur les méthodes utilisées. Même si des précautions sont prises et que des « experts en informatique » ont pu avoir accès au système, l’électeur, lui, n’a a priori aucun moyen de s’assurer que son bulletin a bien été déposé dans l’urne, ni que le résultat annoncé correspond aux bulletins reçus. Les électeurs n’ont actuellement pas d’autre choix que de faire confiance aux autorités de l’élection et aux éventuels experts indépendants qui ont analysé le système.

    De « nouvelles » solutions existent (depuis 20 ans déjà !)

    La recherche en informatique a réalisé des progrès importants dans les 20 dernières années en matière de vote et de cryptographie. Il est désormais possible de mettre en œuvre des systèmes de vote qui ont une urne publique, sur une page web par exemple. Tout électeur peut vérifier que son bulletin est présent dans l’urne et peut vérifier le décompte des voix, sans remettre en cause la confidentialité des votes. Les lecteurs curieux pourront lire l’article « Vote par Internet » sur Interstices pour en apprendre un peu plus sur cette nouvelle génération de systèmes de vote électronique. Bien sûr, ces systèmes sont eux-mêmes loin de résoudre tous les problèmes du vote électronique, mais il est certainement possible de faire mieux que ce qui est proposé par les dispositifs actuellement déployés.

    Je vous donne rendez-vous dans un prochain article pour tenter de répondre à la question suivante : le vote papier est-il réellement plus sûr que le vote électronique ?

    Véronique Cortier CNRS – Nancy

  • Binaire, un an

    Binaire, le blog du Monde sur l’informatique, fête son premier anniversaire. Son mot d’ordre : parler d’informatique… à tous. Cet entretien avec Serge Abiteboul, créateur du blog, a été réalisé par Mathilde de Vos. Il est publié conjointement sur le site de la SIF et sur inria.fr.

    L’informatique participe aux changements profonds du monde et a joué un rôle essentiel dans les grandes innovations des dernières décennies. Pourtant bien des gens ignorent cette science et les technologies associées, de ses aspects les plus formels aux enjeux de société qui lui correspondent. Qu’est-ce que l’informatique ? Quel sont ses progrès, ses dangers, ses impacts, ses enjeux ? Quels métiers ? Comment l’enseigner ? Voilà quelques questions auxquelles le blog Binaire tente de répondre et de sensibiliser ses lecteurs. Lancé sous l’égide de la Société informatique de France (SIF) ce blog hébergé par lemonde.fr est animé par des scientifiques et des professionnels du monde de la recherche (Inria, ENS Cachan, universités), en première ligne desquels Serge Abiteboul.

    Serge Abiteboul

    « J’étais président du Conseil scientifique de la SIF, et je me demandais à quoi nous pouvions servir. Je me suis rendu compte que le grand public ne connaissait rien de l’informatique. Quand on découvre trois bouts d’os en Afrique, les journaux en parlent immédiatement. Mais quand il y a une grande découverte en informatique, comme la conception de PageRank, l’algorithme qui classe les pages web avec un impact sur la vie de chacun, vous ne verrez pas une ligne dans les médias.

    Aucune science n’a évolué autant que l’informatique durant les 50 dernières années. Les informaticiens n’ont pas l’habitude d’expliquer ce qu’ils font. Ils doivent donc apprendre, ce qu’ont appris à faire les scientifiques des autres sciences depuis plus longtemps, à raconter leurs travaux. L’objectif de Binaire, c’est de répondre à ce besoin : expliquer cette science qu’est l’informatique, répondre aux questions sur ce sujet omniprésent dans la société.

    Quand Le Monde m’a invité à ouvrir ce blog, ma seule demande a été de le faire avec une petite équipe. Il fallait publier environ 2 ou 3 articles par semaine, et je ne pouvais pas y arriver seul si je voulais continuer à faire de la recherche. La première surprise de cette expérience, c’est le plaisir que j’ai pris à travailler avec l’équipe, dans une ambiance extraordinaire. Nous publions plus d’articles que prévu en ne mettant en ligne que ce que nous avons envie. Notre seule règle : nous faire plaisir en parlant d’informatique. Nous nous amusons !

    La deuxième excellente surprise a été de nous apercevoir que quand on demande à quelqu’un d’écrire, on a presque toujours des retours positifs. Écrire un article, ça demande beaucoup de temps, c’est un vrai travail. Mais nous avons collectivement envie de parler de nos métiers, nous avons envie de raconter l’informatique. Et je trouve que d’ailleurs les contributeurs en parlent plutôt bien ! J’ai été passionné par de nombreux articles, par exemple cet entretien avec Henri Maitre, professeur à ParisTech, sur les images, ou celui avec Françoise Combes, qui est astronome.

    Nos projets pour 2015 ? Continuer à développer des rubriques récurrentes. Nous allons poursuivre une série d’entretiens avec de grands témoins, pour essayer de définir ce qu’est l’informatique. Françoise Tort, maître de conférences à l’ENS Cachan, a commencé un panorama de l’enseignement de l’informatique, pour montrer ce qui se fait en dehors de la France. Et puis il va y avoir une série d’articles sur Alan Turing, pour accompagner la sortie du film « The Imitation Game », une autre pour parler du vote électronique, une autre est à l’étude sur l’art numérique…

    Nous sommes d’ailleurs preneurs d’idées et de demandes. Des lecteurs nous proposent des articles, des informaticiens qui ont envie d’écrire ; nous pouvons leur donner cette opportunité. Un de nos buts est de faire éclore des talents de raconteurs de l’informatique. »

  • The Imitation Game : et si vous préfériez l’original ?

    2012 a été l’année du centenaire de la naissance d’Alan Turing. Cette icône de l’informatique a été célébrée dignement. A la fin du mois, sort un film biographique sur Turing, un blockbuster, « The Imitation Game ». Binaire se devait d’accompagner l’événement et a donc demandé leurs réactions à plusieurs amis. Nous démarrons avec Jean Lassègue, philosophe des sciences. Il remet en jeu quelques idées reçues. Serge Abiteboul.

    alan-turing-rayclid-binaire-blog

    J’avais eu l’occasion de passer un an à Oxford il y a presque trente ans. J’étais alors tombé par hasard sur la biographie de Turing écrite par le mathématicien Andrew Hodges, Alan Turing, The Enigma. Je fus immédiatement subjugué par ses qualités littéraires : la beauté de cette prose, les exergues du poète Walt Witman, mais aussi la culture britannique – des rites propres aux écoles secondaires à la campagne anglaise – me parlaient d’un monde que je connaissais bien mieux que la logique mathématique que j’avais commencé à étudier cette année-là. Je lus le livre d’une traite et le relus un certain nombre de fois dans les années qui suivirent, pendant lesquelles Turing fut pour moi tout à la fois une sorte d’interlocuteur, une grille d’interprétation et une source d’interrogation sur la façon dont la science s’inscrit dans le siècle.

    Me voici de retour à Oxford. Entre temps, Turing est devenu l’une des figures les plus célèbres de l’histoire de l’informatique et, ce 18 décembre, on joue, au cinéma de Walton Street où j’allais de temps en temps à l’époque, le film de Morten Tyldum « The Imitation Game » qui porte sur la biographie de Turing et qui sortira en France le 28 janvier 2015. Quoi de plus normal, vingt-huit ans après avoir quitté Oxford, que d’aller voir ce film, et de renouer, sur le mode d’une fiction, avec ce qui allait devenir l’un des thèmes majeurs de mes préoccupations pendant les années qui suivirent ? Le film allait me rappeler encore une fois, s’il le fallait, combien il est difficile de parler d’un scientifique sans tomber dans l’hagiographie ou le grand spectacle, et ce, même quand le film est basé sur le livre si réussi d’Andrew Hodges.

    TheImitationGameJe ne compte pas faire une critique détaillée du film, décidément trop « théâtral » pour moi, même s’il m’a paru bien servi par les acteurs et qu’il peut sans doute permettre à un spectateur qui ignorerait tout de la vie de Turing de se faire une première idée du rôle capital qu’il joua pendant la guerre quand, en décryptant les messages codés envoyés aux sous-marins allemands faisant le blocus de l’Angleterre, il réussit à déjouer le blocus et raccourcit de ce fait la guerre de deux ans en sauvant des milliers de vies humaines. Cependant, réussir à faire tourner l’intrigue autour du couple Alan Turing / Joan Clarke, mathématicienne avec qui il fut fiancé à l’époque où ils faisaient tous les deux partie de l’équipe de décryptage, tient pour moi d’un véritable prodige quand on sait, comme le montre d’ailleurs le film, que Turing était homosexuel et que son homosexualité lui valut condamnation pénale et contribua à son suicide. D’autres films récents, relevant plus du genre « documentaire » (voir en fin de blog) me paraissent plus proches de la vérité historique.

    Je m’en tiendrai à un aspect particulier du film de Tyldum parce qu’il témoigne d’une attitude générale : sa fidélité stricte à l’interprétation de la biographie écrite par Andrew Hodges. Or il se trouve que, malgré les qualités éminentes que je reconnais volontiers au livre de Hodges dans lequel j’ai tant appris, je suis devenu, au fil du temps, fondamentalement en désaccord avec son interprétation. Le film « The Imitation Game », par fidélité à Hodges, me semble donc fondamentalement infidèle à Turing et c’est de cela dont je voudrais parler. Il ne s’agit pas seulement d’un débat entre spécialistes sur quelques vagues points de détail de l’histoire intellectuelle de Turing qui n’intéressent qu’eux et qui n’ont aucune portée. Il s’agit au contraire d’un point fondamental qui distingue deux façons radicalement différentes de concevoir la nature de l’informatique en général et le cadre philosophique et épistémologique de ses résultats.

    L’interprétation canonique du parcours intellectuel de Turing

    Voilà comment je vois la façon dont Hodges interprète la vie et l’œuvre de Turing, appuyée en cela par toute une tradition dérivée de l’empirisme logique dont l’audience est aujourd’hui mondiale, comme les cérémonies, hommages, colloques et événements pour le centenaire de Turing l’ont montré de par le monde en 2012. La notion fondamentale à étudier serait celle d’« intelligence » et la question pertinente à se poser serait celle de savoir si elle peut être conçue de façon mécanique ou pas. La réponse de Turing à cette question serait alors conçue comme le travail consistant à faire évoluer la mécanisation du renseignement (‘intelligence’ pris au sens anglais de collecte des données par les services secrets, ce qui renvoie au travail de Turing sur le décryptage au moyen de la machine Enigma des codes allemands pendant la guerre) à l’intelligence artificielle (‘intelligence’ pris au sens de l’esprit, ce qui renvoie à la construction du premier ordinateur et l’idée que le fonctionnement du cerveau est analogue à celui d’un ordinateur) : l’originalité – immense – de Turing serait ainsi d’avoir accompli ce passage du « renseignement » à l’« esprit » en s’en tenant strictement au paradigme mécanique tel qu’il a été pleinement réalisé par l’ordinateur. Dans cette optique, le « jeu de l’imitation », rebaptisé « Test de Turing » pour les besoins de la cause, deviendrait capital parce qu’il serait un « test » – entendez un algorithme mécanisable – qui prouverait que la notion d’intelligence peut se concevoir comme détachée du support biologique de l’humanité et peut dès lors se transférer à un ordinateur, à peu près comme un logiciel peut tourner sur n’importe quel type de machine, pourvu qu’il s’agisse d’un ordinateur digital.

    C’est à cette interprétation que je m’oppose parce qu’elle reconduit la différence logiciel et matériel (en reproduisant ce faisant un dualisme de l’âme et du corps) au lieu de tenter de penser cette différence et de la concevoir comme rendant possible une dynamique de leur rapport.

    Un indice devrait tout d’abord nous mettre immédiatement la puce à l’oreille : qu’en est-il, dans cette interprétation désormais canonique, du travail de Turing en biologie théorique ? Il passe à la trappe, purement et simplement. Or je rappelle d’une part que les recherches de Turing en biologie théorique ont occupé toutes les dernières années de sa vie entre 1950 et 1954 une fois qu’il eut définitivement abandonné toute recherche fondamentale en informatique et d’autre part qu’il considérait ses résultats dans ce domaine comme aussi fondamentaux que ceux de son article de 1936 fondant la théorie de la calculabilité. S’agit-il donc seulement d’un passe-temps secondaire que l’on pourrait oublier, le temps d’un film grand public, ou minorer, comme dans l’interprétation canonique du parcours intellectuel de Turing ? C’est impossible si l’on veut rendre justice à ce que Turing disait de son propre travail en biologie théorique. Il faut donc reprendre complètement le cadre interprétatif proposé par Andrew Hodges et revenir à ce qui fait le nerf de la preuve de son argumentation, le jeu de l’imitation.

    Le jeu de l’imitation

    Contrairement à la façon dont il est présenté dans le film de Tyldum, suivant en cela la majorité des interprètes puisqu’une entrée « Turing test » se trouve depuis longtemps dans le dictionnaire anglais Collins(*), le « jeu de l’imitation » ne consiste pas à montrer qu’il n’est pas possible de distinguer les réponses d’un homme des réponses d’un ordinateur convenablement programmé à qui on poserait des questions pendant une durée de jeu de cinq minutes et en cachant à l’interrogateur tout indice tenant à l’apparence physique des joueurs, c’est-à-dire en se limitant à des réponses imprimées. Le jeu est plus complexe car il est constitué de deux étapes distinctes, indispensables pour tenter d’obtenir le résultat escompté : l’indifférence entre les réponses humaines et les réponses de la machine et, partant, la « preuve » que l’intelligence mécanique est possible. Dans la formulation du jeu décrite par Turing dans son seul article de philosophie publié en 1950 dans la revue Mind, trois joueurs participent au jeu. L’un, appelé l’interrogateur, est séparé des deux autres, un homme et une femme, et doit tenter de deviner qui est l’homme et qui est la femme – bref doit tenter de déterminer quelle est la différence physique maximale entre deux êtres humains. Une fois en position d’échec pendant un certain temps, relativement court, la seconde étape du jeu consiste à remplacer le joueur masculin par un ordinateur convenablement programmé sans prévenir l’interrogateur et à se demander si celui-ci sera capable de déceler qu’il n’a plus affaire au même joueur mais que celui-ci a été remplacé par un ordinateur, bref que la différence entre humains et ordinateurs dans la deuxième étape du jeu ne sera pas plus décelable que la différence des sexes entre les humains dans la première.

    Je soutiens que le jeu tel qu’il est décrit par Turing ne peut pas parvenir au résultat escompté pour une raison très simple : pour réussir à monter une partie du jeu, il faudrait à la fois prendre en compte la différence physique entre homme et femme dans la première étape et la différence physique entre un être humain et un ordinateur dans la seconde – car il faut avoir la capacité de choisir deux joueurs physiquement les plus opposés – et ne pas prendre en compte cette différence physique – puisqu’il s’agit de parvenir à la conclusion que la mise en échec de l’interrogateur a une portée universelle qui rend toute différence physique entre les joueurs indifférente. Bref, la conclusion à laquelle le jeu doit parvenir détruit les conditions de possibilité de sa propre construction. Autrement dit, pour que tout lecteur de l’article puisse parvenir à faire sienne la mise en échec de l’interrogateur et la conclusion que l’intelligence artificielle est bien réelle, il faudrait que tout lecteur puisse à la fois se dire que, s’il était à la place de l’interrogateur dans le jeu, il serait lui aussi mis en échec dans les deux étapes du jeu tout en se disant aussi qu’il doit cependant être toujours capable de faire physiquement la différence entre les deux joueurs (masculin et féminin dans la première étape, féminin et mécanique dans la seconde) pour monter une partie. Bref, la différence physique entre les joueurs doit en même temps être à tout jamais indécelable tout en étant pour toujours présupposée pour que le jeu puisse fonctionner. La position exigée de la part du lecteur quant à la détermination du rapport d’identité ou de différence entre humain et ordinateur est donc un indécidable au sens technique que ce terme revêt depuis l’article de Turing de 1936 puisque les condition d’accès à cette information rendent impossibles l’accès à l’information en question.

    Déterminisme prédictif ou pas

    Comment concevoir alors le jeu de l’imitation et plus globalement l’article de Turing de 1950 ? En remarquant qu’il y a une toute autre superposition dans cet article que celle existant entre les deux sens de la notion d’intelligence dont j’ai parlé plus haut. Turing remarque en effet que l’ordinateur en tant que machine physique est une machine « laplacienne » (relevant du déterminisme prédictif) mais que le monde physique ne l’est généralement pas pour des raisons ayant trait à la nature même de la matière, susceptible de comportements chaotiques (relevant du déterminisme non-prédictif). C’est donc la superposition de ces deux sens du déterminisme qui fait le fond de l’article de Turing et il faut le lire à ces deux niveaux : le niveau « grand public » (celui du film de Tyldum) dans lequel on débat (littéralement : à n’en plus finir pour des raisons ayant trait à l’indécidabilité dont j’ai parlé plus haut) pour savoir si et comment une machine peut être considérée comme « intelligente » et le niveau « de l’indécidable » dans lequel on sait pertinemment que la véritable question n’est pas là mais qu’elle se situe dans le rapport entre le calculable et l’incalculable et que ce rapport est précisément celui que Turing a exploré tout au long de sa vie et ce, jusqu’en biologie où les formes vivantes persistent – pour le temps de leur vie – à la frange du chaos qui mettra un terme à leur cohérence interne, comme l’a si profondément montré Giuseppe Longo (cf. F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007 et G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014).

    Il y a donc une continuité théorique totale dans le parcours de Turing, que l’on pourrait résumer dans cet aphorisme quasi-mallarméen dans son aspect paradoxal : jamais un surcroît de programmation n’abolira le non-programmé, comme le prouve la théorie de la programmation. Turing est en effet parvenu à montrer les limitations internes à la théorie de la programmation à partir de cette théorie même. Un problème capital se pose alors : comment réussir à manifester et à explorer plus avant ce non-programmable si c’est seulement dans son rapport au programmable qu’il devient pensable ?

    Où se situe le non-programmable ?

    Turing passera le reste de sa vie, après son article de 1936, à essayer de répondre à cette question et la réponse qu’il a élaborée continue d’occuper le champ de la recherche aujourd’hui. Celle-ci me paraît être la suivante : la production de formes cohérentes que ce soit dans la pensée (l’invention du concept de machine de Turing, par exemple) ou dans la nature (l’apparition des formes vivantes, par exemple) est une manifestation de ce non-programmable.

    Je soutiens que l’article de 1950 dans lequel Turing propose à la sagacité de son lecteur le « jeu de l’imitation » est une méditation sur les deux notions de la « pensée » et de la « nature » et plus encore sur leurs rapports. Or, pour avancer plus avant sur cette question difficile, on ne peut pas envisager la « pensée » ou la « nature » comme des notions fixées une fois pour toutes dont on pourrait étudier les produits complètement constitués (telle pensée, telle forme vivante) : il faut au contraire envisager la « pensée » et la « nature » comme des processus d’individuation progressive de formes. Or Turing a proposé, dans les dernières années de sa vie, un modèle de développement des formes vivantes à partir de brisures de symétrie dans la matière physique et c’est, à mon sens, en poursuivant une idée analogue sur le mode du désir qu’il construit le jeu de l’imitation quand il s’agit de rendre compte de l’invention du concept de « machine de Turing » : il s’agit de savoir si on peut remplacer la pensée d’un homme par un ordinateur à partir d’une brisure de symétrie dans la matière, c’est-à-dire d’une différence physique.

    Vu sous cet angle, le jeu de l’imitation prend une tout autre tournure que celle de savoir si la « pensée » est un concept universel, indifféremment incarné dans l’être humain ou l’ordinateur : il consiste en la description d’un processus d’individuation d’une forme de la pensée (l’invention du concept de « machine de Turing » chez l’individu Turing) et du rapport ambivalent que cette forme entretient avec les deux modalités (programmable et non-programmable) de son incarnation possible ­– le jeu devenant alors typique d’un « double entendre » (comme on dit en anglais !). De ce point de vue, la différence physique entre les joueurs et, en tout premier lieu, comme Turing n’a pas manqué de le voir, la différence des sexes, joue un rôle capital dans la dynamique du jeu puisque c’est son possible dépassement, pour les formes vivantes que nous sommes, qui en fait le moteur. L’aphorisme quasi-mallarméen dont je parlais plus haut prend alors la forme suivante : jamais un surcroît de programmation n’abolira la différence des sexes, comme le suggère le jeu de l’imitation.

    Aussi peut-on dire que si le jeu parvenait à ses fins, la différence des sexes serait effectivement dépassée et la sexualité personnelle de Turing définitivement cachée. Turing apprit, à ses dépens, que ce n’était pas le cas et il y a presque de la prophétie dans le jeu de l’imitation, comme le film de Tyldum le laisse d’ailleurs entendre, lui qui finit par avouer la nature de sa sexualité après un interrogatoire de police et qui fut condamné à une castration chimique.

    La signification générale du parcours de Turing ne se situe donc pas, selon moi, dans le passage d’un sens de la notion d’intelligence à un autre (on en resterait à une perspective algorithmique visant à étendre indéfiniment le périmètre du calculable, ce que l’informatique n’a pas manqué de faire depuis qu’elle existe) mais dans le passage de la forme au sens du formalisme et de ses limitations internes à la forme au sens de la production des formes, idéales comme celles de la machine de Turing ou naturelles comme celles des formes biologiques, en se plaçant d’emblée du point de vue du rapport programmable / non-programmable. Et c’est évidemment dans cette production que se situe l’énigme de l’invention des formes que ce soit celle produite par Turing dans le concept de machine de Turing ou que ce soit celle produite par la nature. Il reste encore un film à faire sur le sujet, et il n’y a aucune raison de ne pas espérer le voir réalisé un jour.

    Jean Lassègue, CNRS – Institut Marcel Mauss, École des Hautes Études en Sciences Sociales.

    (*) Test de Turing : test visant la capacité de l’ordinateur à penser, requérant que la substitution cachée d’un participant par un ordinateur dans un dialogue par télétype soit indétectable pour le participant humain qui reste. » On va voir combien cette description est trompeuse.

    Filmographie

    • Le modèle Turing, de Catherine Bernstein, produit par CNRS Images
    • La drôle de guerre d’Alan Turing, de Denis van Waerebeck, récemment passé sur Arte
    • The strange Life and Death of Dr Turing, de Christopher Sykes, produit par la BBC (en ligne sur YouTube).

    Bibliographie

    • F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007
    • G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014
  • Des fourmis et des chercheurs

    Aux confins de notre monde, une armée pacifique d’hommes et de femmes explorent l’inconnu. Cette exploration est déterminante pour notre société. Elle fournit à chaque instant la matière sur laquelle sera construit le monde de demain, et constitue par l’accumulation de connaissances notre réserve de progrès et d’adaptation.
    Le texte que nous propose Christophe Godin, Directeur de Recherche chez Inria, dépasse le cadre de l’informatique, même si les images sur lesquelles il s’appuie sont bien de ce domaine.

    Ray-Clid 2014@Rayclid 2014

    Note à l’attention des décideurs pour un système de recherche efficace qui tire la croissance puissamment vers le haut.

    « Ah vous êtes chercheur ? … mais la société a besoin de trouveurs pas de chercheurs ! »

    Dans ma vie extra-professionnelle, j’ai comme beaucoup de collègues chercheurs, souvent été confronté a cette boutade en demi teinte, un soupçon ironique, lancée à l’occasion d’une soirée ou d’une réunion de famille. Un peu dans l’embarras, et touché certainement dans mon amour-propre, j’essaie le plus souvent de répondre en montrant en quoi mon domaine de recherche, mes recherches sont tellement importantes pour la société. En vain… la distance est trop grande, le temps trop court, le vocabulaire trop étriqué, l’expérience trop différente, et finalement le lien trop ténu… Une évidence qui finalement n’en est pas une.

    Pourtant, cette boutade, dont la paternité est souvent attribuée à tort semble-t-il au Général De Gaulle (voir l’article de Pierre-Carl Langlais du 18/10/2014), pose trois questions essentielles sur la fonction du chercheur dans la société. Premièrement, la recherche est-elle utile à notre société ? Après tout la grande masse des individus de la société ne sont pas chercheurs. Ne pourrait-on pas tout simplement se passer de cette activité dont on n’a pas toujours l’impression qu’elle est essentielle, ici et maintenant ? Deuxièmement, en admettant tout de même que la société ait besoin de chercheurs, a-t-elle besoin d’une telle masse de chercheurs (dont une grande partie sont en France des fonctionnaires) pour progresser dans la connaissance et faire des découvertes ? Les chercheurs qui cherchent et ne trouvent pas ne sont ils pas inutiles ? Ne pourrait-on pas faire beaucoup d’économies en appointant uniquement des chercheurs qui trouvent ? Ne pourrait-on plus efficacement utiliser l’argent du contribuable en formant des trouveurs plutôt que des chercheurs, des sortes de super-chercheurs qui, en plus de chercher, trouveraient ?

    Et finalement, la recherche est-elle un bien ou un mal ? C’est la recherche qui permet de trouver de nouveaux vaccins, de construire des avions plus rapides, de rester en contact malgré les distances. Mais c’est également la recherche qui engendre des applications dont le risque mal évalué conduit à des accidents comme ceux de Tchernobyl ou de Fukushima, à l’accumulation de pollutions (gaz à effet de serre, déchets dangereux ou massifs) dont l’impact est maintenant mondial. En arrêtant de financer la recherche, ne supprimerions nous pas bien des maux dont souffre aujourd’hui notre société ? Ces questions sont tout à fait légitimes, et il faut y répondre. Cependant, je me suis progressivement rendu compte qu’elles ne posent pas le problème correctement (d’où mon embarras à y répondre), et que l’apparent bon sens derrière ces questions est en réalité lié à un malentendu commun mais, à terme, dangereux sur la fonction de chercheur dans la société.

    Formica_rufa_a1
    Source Wikimedia Adam Opiola

    Pour le comprendre, observons le comportement des fourmis. Vous vous êtes sans doute comme moi étonné au printemps de la terrible efficacité des fourmis pour repérer toute trace de nourriture : le moindre insecte mort, de morceau de sucre ou de pain tombé sur le sol est après quelques minutes seulement envahi de fourmis et acheminé vers la fourmilière dans un convoi ininterrompu. Cette efficacité n’est bien sur pas un hasard. C’est le fruit d’un processus comportemental sélectionné par la nature pour son efficacité redoutable. Pour explorer le territoire autour de la fourmilière, des fourmis spécialisées dans l’exploration se déplacent selon une trajectoire un peu aléatoire. L’ensemble des trajectoires de ces exploratrices réalise en permanence un maillage assez fin de la surface entière du territoire, de sorte qu’une source de nourriture sera vite repérée où qu’elle soit. En revenant à la fourmilière, une fourmi ayant fait une telle découverte, indique par l’odeur qu’elle dépose sur le chemin aux autres fourmis le lieu de sa découverte, attirant ainsi vers la source de nourriture très rapidement ses congénères qui intensifient alors l’exploitation du filon.

    Il est intéressant de s’arrêter un instant sur ce sur quoi repose une stratégie aussi efficace :

    1. les acteurs (les fourmis) sont nombreux et autonomes ;
    2. ils se déplacent en partie aléatoirement ;
    3. tous travaillent simultanément ;
    4. une fois une source de nourriture trouvée, un mécanisme collaboratif se met en œuvre afin de permettre aux fourmis d’exploiter cette source rapidement.

    En réalité, cette stratégie affinée par la nature pour explorer et exploiter une espace donné avec efficacité a une nature universelle. Elle peut être mise en œuvre par bien d’autres systèmes que celui des fourmis dès qu’il s’agit d’explorer un espace vaste et de découvrir en un temps raisonnable des éléments d’intérêt dans celui-ci. C’est en particulier en partie comme cela que la recherche procède chez les hommes.

    Pour les hommes, l’espace à explorer est le monde physique et biologique ainsi que le monde conceptuel que l’on peut construire par abstraction et déduction (monde économique, sociologique, mathématique, numérique). Cet espace est gigantesque, bien plus vaste que ce que nous pouvons imaginer. Pourtant, à travers l’histoire des sciences et des technologies, nous savons qu’il recèle une quantité formidable de sources de nouvelles connaissances et de propriétés à découvrir. Pour explorer cet espace, nous avons petit à petit mis en place une stratégie implacable, comparable à celle des fourmis : des individus spécialisés (les chercheurs) explorent cet espace et développent des trajectoires (travaux de recherche) qui ensemble couvrent à tout moment une grande partie de l’espace à explorer. Lorsqu’ils font une découverte, ils laissent une trace pour leurs collègues (publication) qui permet à toute la communauté de repérer et d’exploiter la nouvelle mine de savoir ainsi dévoilée. Il existe bien sûr une disparité dans la capacité de recherche, les compétences, l’intuition et l’efficacité de chacun des acteurs (comme chez les fourmis sans doute). Mais c’est bien l’ensemble de ces trajectoires et leur nombre qui garantit la terrible efficacité de notre système de recherche dans son ensemble. Et c’est là le point essentiel !

    fourmiliere
    Source : ElPadawan

    Comme toutes les métaphores, celle de l’organisation distribuée des fourmis explorant leur espace dans un mouvement essentiellement aléatoire a des limites lorsqu’on la compare à l’activité de recherche humaine. La plus importante est sans doute que les fourmis sont des acteurs doués de facultés de raisonnement limitées. Pour autant, elle nous fournit une grille de lecture très utile pour penser l’efficacité de notre système de recherche actuel et sa gouvernance. C’est ce point que j’aimerais maintenant discuter. Cette grille fait apparaitre 4 principes fondamentaux sous-tendant un système de recherche efficace :

    • Principe des moyens exploratoires
      Le premier principe est qu’il faut laisser les chercheurs faire ce pour quoi ils sont formés et payés : explorer systématiquement l’espace inconnu autour de nous tous. La condition principale d’une telle recherche est le temps : il faut laisser aux chercheurs l’essentiel de leur temps pour chercher. C’est un point d’une importance capitale, mais dont la fragilité tient en ce que, s’il n’est pas assuré, il est très difficile pour le système de détecter immédiatement qu’il y a un problème ; les effets se feront ressentir des années plus tard. Si on ne laisse pas suffisamment de temps d’exploration aux chercheurs, l’espace inconnu parcouru par l’ensemble de la communauté sera de faible étendue et le risque de passer à côté des découvertes clés largement accru. Ainsi, si on estime que l’efficacité d’un chercheur pour la communauté croit en proportion du temps qu’il met dans son exploration du monde, alors on voit bien que l’accumulation de tâches secondaires, non directement liées à ses capacités de chercheur (tâches administratives, tâches d’évaluation, rapports, rédaction de projets, tronçonnage excessif des publications pour faire « du chiffre », etc.) va nécessairement se faire au détriment de son travail d’exploration. Voir à ce sujet le témoignage de Marco Zito, physicien au Commissariat à l’Énergie Atomique : « Pris dans l’engrenage« . Il est essentiel pour bien prendre la mesure de l’ampleur du problème de rappeler les deux processus majeurs qui amputent aujourd’hui régulièrement des pans entiers au temps que les chercheurs peuvent consacrer à leur exploration.

      1. La surenchère de création de structures qui a sévi dans la dernière quinzaine d’années a eu des conséquences dévastatrices sur notre capacité de recherche. On a vu foisonner dans les dernières années un nombre incalculable de structures liées à l’organisation de la recherche UMR, UPR, IFR, FDR, USR, COMUE, PRES, Pôles d’excellence, Instituts Carnot, Alliances, LABEX, IDEX, EQUIPEX, Fondations, pôles de compétitivité, projets d’avenir, etc. La liste est longue.  Toutes ces structures s’empilent en un écheveau émergent d’une grande complexité où se multiplient à l’infini les tâches administratives des chercheurs qui appartiennent souvent à nombre d’entre elles. Le système s’étouffe de lui même, au point que l’académie des science a adressé à la sphère politique  des recommandations d’urgence pour simplifier du système et qui sont pour le moment pour l’essentiel restées lettre morte. (Voir son rapport.)
      2. Depuis une vingtaine d’années, les chercheurs consacrent de plus en plus de leur temps dans des processus compétitifs à l’échelle nationale et européenne pour obtenir des moyens de recherche. Cette stratégie peut inciter les collaborations entre équipes de recherche et fournir des compléments de moyens pour réaliser des projets innovants. Pourtant, poussée trop loin, elle est simplement naïve et dangereuse pour l’ensemble du système car elle détourne de façon significative les chercheurs de leur travail d’exploration (voir par exemple l’article de John Ionnadis dans la revue Nature).
    • Principe de complétude exploratoire
      Il est essentiel d’encourager les chercheurs à explorer tous les compartiments de l’espace inconnu qui nous entoure (et non seulement une partie de celui-ci). C’est cette complétude du balayage de l’espace de recherche qui peut garantir la meilleure efficience des découvertes (comme pour les fourmis). Ce mouvement d’exploration systématique prend sa source à l’échelle des équipes de recherche : il est l’équivalent du déplacement aléatoire des fourmis. Il n’est pas dirigé par une instance supérieure qui prétendrait savoir où chercher. C’est lui qui garantit la performance de découverte de l’ensemble du système. L’alternative est de laisser un individu ou un groupe décider pour la nation de ce qui est le plus prometteur en matière de retombées sociétales. Or, il est extrêmement difficile à quiconque de prédire dans quel domaine vont être faites les prochaines découvertes les plus significatives pour la société. Un exemple célèbre est celui de la vaccin contre la rage, ou celui de la découverte de pénicilline en médecine, d’autres sont ceux des découvertes de la radioactivité en physique, de l’invention des transistors en électronique, ou plus récemment celle du Web par exemple dans les sciences du numérique.
    • Principe de compétence des acteurs
      La nature de l’espace à explorer même exige que les chercheurs aient reçu une formation très spécifique. Il s’agit d’être capable de se déplacer dans ce monde des idées et de l’expérimentation. Ce type de « déplacement » exige une formation pointue, qui permette de reconnaitre les endroits où d’autres sont déjà passés, de trouver de nouvelles pistes (idées ou expériences) et de les mettre en œuvre. L’étape ultime de cet apprentissage est celle du doctorat. L’idée est qu’un jeune chercheur travaille pendant plusieurs années sur un sujet de recherche, et mette pour la première fois à l’épreuve du réel les compétences acquises au cours de sa formation théorique. Aujourd’hui, le temps de cet apprentissage a été réduit uniformément quelques soient les universités et les matières à 3 ans. Tous les financements sont obtenus pour cette durée. Les écoles doctorales au sein des universités sont évaluées sur leur capacité à faire respecter ces délais. Ceci est absurde.  Il est intéressant de noter qu’il en va tout autrement outre-Atlantique et que la durée d’une thèse peut être largement variable en fonction des cas. En revanche, il est essentiel de considérer ces jeunes chercheurs pendant toute leur période d’apprentissage comme des chercheurs à part entière et de les rémunérer en conséquence.
    • Principe de masse critique
      Le nombre de chercheurs doit être suffisant pour explorer l’espace accessible à la découverte. Ce point est également une pierre angulaire de tout le dispositif. Il se heurte aujourd’hui à deux difficultés. Il s’agit tout d’abord d’une crise des vocations et d’attractivité. Devant la grisaille des horizons qu’offre notre société, les jeunes sont de moins en moins attirés par un métier dont on ne sait plus bien ce qu’il constitue comme repère. Pour vouloir devenir un explorateur, il faut avoir envie de rêver le monde, d’inventer de nouveaux chemins, d’être convaincu que l’inconnu recèle un passage, une beauté cachés. Ce rêve est aujourd’hui comme un drapeau en berne. Il faut le raviver, susciter l’intérêt des plus jeunes pour le métier de chercheur, les faire rêver de leurs rêves. La recherche doit venir à leur contact, leur parler, les émerveiller, leur montrer la valeur intrinsèque de la connaissance et le plaisir de chercher. Il faut, au-delà encore, que notre espace de recherche national attire les esprits scientifiques étrangers, ou favorise le retour de chercheurs français un temps expatriés, et que tous aient l’ambition de faire ou de poursuivre leur parcours exploratoire sur un territoire fertile et stimulant. A l’attractivité scientifique, il faut adjoindre une attractivité financière. Si en général les chercheurs ne travaillent pas pour devenir riches, ils sont en revanche très sensibles à la reconnaissance que leurs collègues ou que la société pour laquelle ils travaillent leur témoignent. Le salaire est l’une des formes importante de cette reconnaissance. Enfin, pour atteindre une masse critique à la fertilité des découvertes, jouer sur les leviers des vocations ou de l’attractivité ne suffit pas. Il faut également qu’en fonction de sa taille la société se dote d’une densité d’explorateurs suffisamment importante pour répondre à ses attendus en matière de progrès, d’innovation, de compétition et d’adaptation.

    La recherche n’est bien sûr ni un bien ni un mal. Elle est la condition même de l’évolution de notre société. Il est essentiel que la société civile et les hommes et femmes politiques perçoivent cette réalité au delà des formes. Ainsi, l’exemple de l’organisation de l’exploration d’un territoire par les fourmis nous permet de prendre du recul sur la nature même et la fonction de l’activité de recherche dans nos sociétés. La comparaison de chercheurs à des fourmis, si elle est flatteuse pour les fourmis, n’en est pas moins utile pour analyser les enjeux derrière cette activité humaine très particulière, et finalement vitale à l’échelle de notre civilisation. C’est en reconnaissant la composante collective du travail de recherche que nous pourrons prendre les décisions adaptées à la manipulation de cet instrument complexe, mais tellement puissant si l’on s’en sert avec intelligence. Certains chercheurs, talentueux, audacieux et parfois chanceux (ou tout à la fois), vont être sous le feu des projecteurs. Et c’est très bien, car la société peut à travers eux prendre connaissance des fruits de l’immense effort consenti par tous : les contribuables, les entreprises qui investissent dans la recherche et les chercheurs eux-mêmes. Ils sont portés derrière eux par l’ensemble de la fourmilière des éclaireurs. Si la société a retenu le mot « chercheur » plutôt que celui de « trouveur », c’est bien qu’elle reconnait profondément la valeur essentielle de l’acte de chercher en soi ! Il ne nous reste qu’à accompagner dignement cette sagesse collective.

    … Vous rêviez de trouver ? J’en suis fort aise :
    Et bien ! Cherchez maintenant.

    Christophe Godin, Inria

    Pour aller plus loin

    • Quelques chiffres utiles sur la recherche française: « La dépense intérieure de recherche et développement s’élève à 45 milliards d’euros en 2011. Au total, 543 000 personnes participent à une activité de recherche en France dont 249 100 chercheurs (en équivalent temps plein). On compte 148 300 chercheurs dans les entreprises et 100 800 dans le publicEn 2012, la dépense intérieure de recherche et développement (DIRD) s’établit à 46,5 milliards d’euros, en hausse de 1,9 % en volume par rapport à 2011. »  rapport du Ministère de l’enseignement et de la recherche.
      Si l’on passait au même chiffre que l’Allemagne par exemple cela correspondrait à 60 milliards d’euros au lieu de 46.5 milliards d’euros en France, et 73 milliards d’euros si nous avions une politique similaire à la Finlande (soit 26 milliards d’euros en plus des 46.5 milliards d’euros du budget français R&D 2012).
      Comment déterminer alors la masse critique de chercheurs efficace pour une nation ? Il y aurait une étude complète à développer sur ce thème. Une solution pragmatique consiste à se reposer sur l’expérience comparée des différents pays. Par exemple, les chiffres donnant le pourcentage du PIB national utilisé pour la recherche et le développement par différents pays nous permet de faire une première estimation de cette densité. Par exemple, l’Espagne consacre 1.30% de son PIB à la recherche et au développement, l’Irlande 1.72, Royaume Uni 1.72, Pays-Bas 2.16, France: 2.26,  Etats Unis: 2.79, Allemagne: 2.92  Danemark: 2.98, Japon 3.39, Suède 3.41, Finlande: 3.55,  Israël: 3.93, Corée 4.05, Moyenne mondiale: 2.21 (ref  Banque Mondiale – dépenses en recherche et développement en % du PIB données 2012– ). Pour un pays comme la France, ce chiffre correspond actuellement à environ 100 000 chercheurs dans le secteur public. Un point supplémentaire (ce qui nous positionnerait à peu près au niveau du Japon) correspondrait à un investissement supplémentaire d’environ 20 milliards d’euros dans la recherche et le développement et 43 000 chercheurs supplémentaires (en supposant par exemple simplement que le nombre de chercheurs du public croit proportionnellement au PIB investi dans la recherche).
  • La nuit de l’info 2014

    Et voilà, la 7ème édition de la nuit de l’info s’est terminée le vendredi 5 décembre 2014 à 8h04 sur un nouveau record de participation avec plus de 2900 étudiants.

    Cette année, en lien avec l’actualité, les étudiants avaient à leur disposition toute une nuit pour inventer un système d’information a vocation humanitaire. C’était pour eux l’occasion de mettre leurs compétences au service des autres, dans un monde en crise où l’informatique pourrait être utilisée pour aider des populations en péril. Les scénarios sur lesquels ils ont travaillé permettraient d’aider les zones victimes d’épidémies ou de crise sanitaire, des réfugiés de guerre à la recherche de leurs proches, ou encore les ONG en charge des campagnes de prévention dans les zones à risques.

    Et cette année encore, les organisateurs de la nuit ont su répondre présent avec probablement l’un des plus beaux thèmes depuis le début de l’évènement : « UNE NUIT POUR INVENTER LES SYSTÈMES D’INFORMATION HUMANITAIRES DE DEMAIN »

    Les équipes, au nombre de 337, se sont affrontées dans ce challenge festif autour de l’informatique. Pendant toute la nuit, ils pouvaient répondre aux défis lancés par les nombreux partenaires industriels, pour tenter de décrocher les cadeaux associés. Défi du projet le plus surprenant, défi de la meilleure modélisation, il y en avait pour tous les gouts ! Chaque partenaire industriel, porteur de défi, amène dans la Nuit son cœur de métier, et défie les participants sur des problématiques qui lui sont chères, comme l’ergonomie ou encore la prise en compte du handicap.

    Mais la Nuit c’est plus que ça.  C’est avant tout un lieu de rencontres, d’échanges, de discussions où les entreprises partenaires viennent conseiller et soutenir les étudiants tout au long de la nuit. C’est l’occasion pour chacun de se faire remarquer, dans une ambiance festive : difficile d’imaginer dans un autre contexte de pouvoir discuter de développement logiciel avec un directeur d’agence alors que l’on est déguisé en panda ! La Nuit est aussi une formidable opportunité pour décrocher un stage ou un emploi auprès des entreprises soucieuses de faire connaitre leur nom mais aussi de repérer les petits génies de demain.  C’est une occasion unique où les étudiants de tous niveaux (DUT, Licence Pro, Master ou Ingénieur) éprouvent leurs compétences et sont confrontés à des exigences professionnelles sur une période inhabituelle.

    N’hésitez pas à consulter le site de la Nuit de l’info pour plus d’information. Qui sait, peut-être participerez-vous à l’édition 2015 ?

    Gaëtan Rey et Sébastien Mosser

  • Osons les cours d’informatique à l’école

    Tout le monde s’accorde (ou presque) pour dire que l’informatique est indispensable. En revanche, il y a un point qui fait frémir : quels cours supprimeriez-vous pour l’enseigner ? Retrouvez la tribune sur Slate.fr datée du 8 décembre 2014 de Colin de la Higuera, président de la Société Informatique de France (SIF) et Gilles Dowek, président du conseil du scientifique de cet espace de réflexion, de concertation sur les enjeux de l’informatique qu’est la SIF.

     

  • Barbie est moins conne qu’on le dit

    Barbie est moins conne* qu’on le dit.
    Barbie is ultimately not that a dummy**.

    Lorsque Casey Fiesler, Doctorante en Sciences Informatiques, a vu les fils de ces média sociaux déborder d’indignation à propos de l’incommensurable maladresse de la bande dessinée « Barbie: I Can Be a Computer Engineer » elle a fait une chose tout à fait constructive et utile pour toutes et tous nos enfants. Elle a réécrit ce qu’aurait du être une telle histoire. Et met en partage « Barbie, remixed : je peux (vraiment !) être ingénieure en informatique ». Un auteur du blog voisin bigbrowser.blog.lemonde.fr nous explique sa démarche.

    À notre tour*** d’aider parents et enfants à ne pas être victimes de tels poncifs. À réaliser que nous avons besoin des deux moitiés de l’humanité à égalité pour avancer au mieux sur tous les sujets. Voici la version française, à lire, offrir et partager sans modération ! Même la Mère ou le Père Noël pourrait glisser ces huit feuillets au pied du sapin.

    Barbie revisitée : « Je peux être ... ingénieure en informatique »

    Colin, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.


    (*) Ici dans le sens de femme sotte, manquant d’intelligence et éventuellement prétentieuse.

    (**) [english traduction of this text] When Casey Fiesler, PhD student in Computer Science, discovered that her social media feeds have been full of outrage over the unboudned awkwardness of the comic « Barbie I Can Be a Computer Engineer » she simply did the constructive and useful think to do. For all small girls and boys: She rewrote what should have been such a story, i.e., « Barbie, remixed: I (really!) can be computer engineer« , as explained on bigbrowser.blog.lemonde.fr.
    It is our turn to contribute, helping parents and children not to be victims of such cliches. To help realizing that we need the two halves of humanity equaly treated to get the best on all subjects. Here is the French version of Casey’s work, to read, offer and share without moderation! Even Mother or Father Christmas can put some of them under the Christmas tree !

    (***) La traduction du travail de Casey Fiesler a été faite par Provence Traduction avec le soutien d’Inria .

  • Interstices fait peau neuve !

    Vous ne connaissez pas )i(nterstices ? C’est une revue de culture scientifique en ligne, qui vient d’avoir 10 ans ! Vous trouverez des podcasts, des jeux, des idées reçues et des articles de tous niveaux sur les sciences du numérique. Bref, des ressources pour les scolaires et pour les autres, écrites par des chercheurs pour vous !

    Vous connaissez )i(nterstices ? Eh bien, il faut y retourner car le site d’interstices vient de changer ! Pour ses 10 ans, le nouveau site est plus moderne et fait la part belle aux témoignages des lecteurs. Et en plus, les super contenus sont toujours là !

    Logo Interstices

    Mes préférés ? L’abécédaire et les podcasts. Et puis les jeux et les animations, et puis la nouvelle rubrique L’informatique – ou presque – dans les films, et puis…

    Bref, interstices nouveau est arrivé. Binaire salue sa re-naissance en lui souhaitant autant de succès pour les 10 prochaines années !

    Sylvie Boldo

  • Pixees, le monde numérique à portée de clic

    Vous en avez marre qu’on vous rabâche les oreilles avec des notions d’informatique ou de numérique, que l’on vous dise « Ah oui, mais c’est hyper important pour le monde d’aujourd’hui », alors que vous ne comprenez même pas pourquoi ? Et bien voici un moyen efficace et intéressant de comprendre ces notions.

    pixees-4Pixees, un site Inria, de la SIF (Société Informatique de France) et de Pasc@line (Association des Professionnels du Numérique) avec plus d’une vingtaine de partenaires, dédié à la médiation scientifique…

    Pixees, une solution pour décoder le monde du numérique

    La médiation… ?! D’accord ! On part déjà trop loin ? Et bien disons simplement que ce site regroupe toute sorte de supports pour nous initier aux notions d’algorithmes, à la représentation de l’information, à l’histoire de l’informatique, etc. C’est à travers des conférences, des vidéos, des interviews, des documentaires, des jeux, et on en passe, que nous pouvons nous documenter, et même apprendre à apprendre aux autres.

    pixees-2En effet ce site a été réalisé pour toute personne du niveau le plus sobre au plus élevé. Que nous soyons parent, élève ou étudiant, professeur, ou bien simplement curieux, ce site est fait pour nous. Des méthodes sont là pour vous accompagner pas à pas, par exemple pour expliquer à l’enfant comment utiliser et s’approprier ces machines omniprésentes au quotidien dans notre société : ordinateur, tablette ou smartphone… et au-delà de l’usage,apprendre également à créer grâce à elles.

    Peur de ne pas être à la hauteur ? De ne pas comprendre les articles ? Pas d’inquiétude, ils sont indexés et de multiples définitions sont là pour nous secourir en cas de problème.

    Spécial profs : profitez de la culture numérique en live.

    Cela tombe à pic, au moment où l’enseignement des fondements du numérique entre au collège et en primaire (on parle parfois de « codage », mais au delà de l’apprentissage de la programmation, il y a la construction d’une culture scientifique indispensable à la maîtrise du numérique).

    pixees-3Selon le lieu où on se trouve en France, il y a la possibilité de faire venir dans son établissement une ou un chercheur. Pixees propose différents types d’interventions, telles que des animations et/ou des conférences, consultables sur le site et répertoriées géographiquement sur la carte de France de tous les partenaires du projet.

    Vous préférez un contact direct de visu ? Cela tombe bien, car notre bureau en ligne est ouvert à partir du 8 septembre les mercredis et jeudis de 14h00 à 17h00. Vous n’aurez ensuite plus qu’à lancer la connexion en cliquant sur l’image affichée. Nous contacter par mail, téléphone, Twitter ou en remplissant un formulaire numérique est aussi possible.

    Le partage et la co-construction avant tout

    Pixees n’est évidemment pas réservé qu’aux enseignants, animateurs d’activité extra-scolaire ou parents. Le bureau en ligne est destiné à tous les futurs et bienvenus inconditionnels du site qui souhaiteront participer à cette aventure.

    En plus, Pixees peut vous répondre en anglais, espagnol, italien, allemand et en d’autres langues, grâce à notre bureau en ligne international. Certaines ressources sont mêmes déjà traduites.

    Pixees ou le mouvement perpétuel

    pixees-1Ça y est, mordu de Pixees ? N’oubliez alors pas de suivre son actualité et ses évolutions de publications et d’interventions. N’hésitez surtout pas à faire part de vos idées et remarques, afin que ce site évolue selon vos besoins.

    Un dernier argument pour vous montrer que ce site est celui de toutes et tous ? L’une de nous est une jeune prof de langues, l’autre une étudiante en communication. Aider à construire et nourrir Pixees a été notre job d’été. On en a profité pour découvrir plein de choses bien utiles dans notre vie quotidienne, dans le monde numérique. Et aussi des choses «inutiles» mais passionnantes pour avoir une meilleure vision de cet univers-là.

    Alice Viéville et Juliette Calvi