• 69, année informatique

    Retour vers le passé. On situe parfois les premières expériences de l’enseignement de l’informatique dans l’Éducation Nationale  dans les années 1970 ou 80. Une enseignante de classe préparatoire raconte à Binaire qu’elle a rencontré ses premiers algorithmes en 1969, alors qu’elle était en 5ème, au lycée  Paul Bert, à Paris. Un beau moment nostalgie. Serge Abiteboul et Colin de la Higuera.

    Depuis 1968, notre classe expérimentait les nouveaux programmes de « mathématiques modernes », sous la houlette de notre professeur, Mme Juliette Berry. Notre lycée comportait une classe équipée pour des cours de cuisine – normal pour un lycée de filles, à l’époque … – et c’est là qu’un jour nous avons eu notre premier contact avec la machine «  Curta ». Ce calculateur, dont je me souviens particulièrement du cliquetis assez bruyant, fonctionnait avec un système de codage assez primitif …

    exercices_berry
    Extrait du cahier de cinquième, des feuilles reproduites avec des machines à alcool (d’où l’encre violette) que distribuait le professeur.

    et bien sûr, pas d’écran, pas de souris : uniquement un gros rouleau de papier, et l’allure de ces anciennes machines de caisses dans les magasins. Personne ne prévoyait à ce moment-là l’essor de l’informatique !

    Pour ma part, j’ai passé quatre années merveilleuses (tout le collège) dans la classe de Mme Berry. (Je profite de l’occasion pour rendre hommage à cette enseignante charismatique et si inspirée !) Nous travaillions sur des thèmes qui ne sont maintenant abordés qu’en classes préparatoires aux grandes écoles, hélas ! Les raisonnements rigoureux à l’époque ne nous faisaient pas peur, même si ce n’était pas toujours facile, et cinquante ans après, je bénéficie toujours de cette formation de qualité.

    Après la découverte des Sciences Physiques au Lycée, dans la classe de Mme Charue, je me suis orientée vers cette discipline. Après un passage par les classes prépa de Louis le Grand, et l’ENS de Fontenay, puis l’agrégation,  j’enseigne depuis 1988 en classes préparatoires.

    A priori, j’aurais pu ne jamais repenser à ce premier contact avec l’informatique. C’était sans compter sur l’Éducation Nationale, qui a demandé il y a deux ans aux enseignants de nos classes de prendre en charge un nouvel enseignement d’informatique. Aucun enseignant spécialisé n’ayant été prévu, je me suis donc retrouvée embarquée dans cette nouvelle aventure. J’ai découvert sur des livres d’informatique le nom de Gérard Berry, un des enfants de Juliette : Il était devenu un grand spécialiste de la discipline. Les souvenirs sont revenus, et en fouillant dans des cartons, j’ai  retrouvé mes cahiers de l’époque. La boucle était bouclée… J’y ai retrouvé des algorigrammes(*), dont j’avais oublié le détail, à vrai dire. Quel choc de constater que la forme était si proche de ce qui se fait d’aujourd’hui !

    J’ai souvenir d’avoir alors travaillé  – déjà – à ces classiques de l’informatique : comment savoir si un nombre est premier ? Comment chercher un pgcd, ou un ppcm ? Des expériences équivalentes ont-elles eu lieu dans des lycées de garçons ? C’est probable, mais je n’ai aucune information sur le sujet.

    Alors, en ce début de l’année 2015, destinée à promouvoir les femmes en informatique, il faut le dire haut et fort : oui, les filles ont été des pionnières en ce domaine !

    Catherine Leiser

    (*) Organigramme de programmation, c’est-à-dire une représentation graphique de l’enchaînement des opérations et des décisions effectuées par un programme d’ordinateur.

    organigramme_Berry_2
    Extrait du cahier de cinquième, des feuilles reproduites avec des machines à alcool (d’où l’encre violette) que nous distribuait notre professeur, et que nous devions coller dans le cahier.
    Berry_Organigramme
    Algorigramme. Les coloriages sont garantis d’époque.

    Et pour finir, deux poèmes écrits à Mme Berry par ses élèves. Ils ont été lus par Madame la Ministre Najat Vallaud-Belkacem lors de la remise de la médaille d’or du CNRS à Gérard Berry.


    PoèmeClasse-1PoèmeClasse-2

  • Le climat dans un programme informatique ?

    Entretien autour de l’informatique : Olivier Marti, climatologue

    Selon l’Agence américaine océanique et atmosphérique et la Nasa, l’année 2014 a été la plus chaude sur le globe depuis le début des relevés de températures en 1880. (Voir l’article de l’Obs). Depuis les débuts de l’informatique, la climatologie se nourrit des progrès de l’informatique et du calcul scientifique, et en même temps leur propose sans cesse de nouveaux défis. Dans un entretien réalisé par Christine Froidevaux et Claire Mathieu, Olivier Marti, climatologue au Laboratoire des  Sciences du Climat et de l’Environnement, explique ses recherches en calcul scientifique et développement de modèles pour la climatologie, un domaine exigeant et passionnant.

    Cet entretien parait simultanément en version longue sur le blog Binaire et en raccourcie sur 01Business.

    OlivierMarti_3Olivier Marti

    Le métier de climatologue

    B : Qu’est-ce qui vous a amené à travailler en climatologie ?
    OM : Dans ma jeunesse, j’ai fait de la voile. J’avais une curiosité pour la mer et un goût pour la géographie. J’ai choisi de faire l’ENSTA pour faire de l’architecture navale. Là, j’ai choisi l’environnement marin (aspect physique, pas biologie), et j’ai fait une thèse en modélisation, sur les premiers modèles dynamiques de  l’océan ; au début, on ne parlait pas beaucoup de climatologie, ça s’est développé plus tard. Il y a un aspect pluridisciplinaire important, ma spécialité étant la physique de l’océan. J’ai ensuite été embauché au CEA et ai travaillé sur les climats anciens. Par exemple, l’étude du climat du quaternaire amène à étudier l’influence des paramètres orbitaux sur le climat.

    B : En quoi consiste votre métier ?
    OM : Je fais du développement de modèle. Il faut assembler des composants : un modèle d’océan, un modèle d’atmosphère etc. pour faire un modèle du climat. Mais quand on couple des modèles, c’est-à-dire, quand on les fait évoluer ensemble, on rajoute des degrés de liberté et il peut y avoir des surprises. Il faut qu’informatiquement ces objets puissent échanger des quantités physiques. C’est surtout un travail empirique. On réalise beaucoup d’expériences en faisant varier les paramètres des modèles. C’est vrai aussi que depuis 25 ans, on se dit qu’il faudrait pousser plus loin les mathématiques (convergence numérique, stabilité, etc.), marier calcul scientifique et schémas numériques. En climatologie, on n’a pas accès à l’expérience, c’est mauvais, du point de vue de la philosophie des sciences. On peut faire quelques expériences en laboratoire, mettre une plante sous cloche avec du CO2, mais on n’a pas d’expérience pour le système complet. La démarche du laboratoire est donc de documenter l’histoire du climat. Il y a d’abord un travail de récolte et d’analyse de données, puis une phase de modélisation : peut-on mettre le “système Terre” en équations ?

    B : Allez-vous sur le terrain?
    OM : J’y suis allé deux fois. En général, on fait en sorte que les gens qui manipulent les données sur l’ordinateur aient une idée de comment on récolte ces données, pour qu’ils se rendent compte, par exemple, qu’avoir 15 décimales de précision sur la température, c’est douteux. J’ai fait une campagne en mer, de prélèvement de mesure d’eau de mer et d’éléments de biologie marine. Lors des campagnes en mer, la plupart des analyses se font en surface sur le bateau : on a des laboratoires embarqués sur lesquels on calibre le salinomètre, etc. J’ai aussi fait une campagne dans le désert du Hoggar, pendant une semaine, pour récolter les sédiments lacustres (il y a 6000 ans, là-bas, il y avait des lacs). Récolter les pollens qui sont dans les sédiments, ça exige des procédés chimiques un peu lourds, donc on ne le fait pas sur place.

    Hoggar-Grenier-230Collecte de données dans le Hoggar

    B : Qu’est-ce qui motive les chercheurs en climatologie ?
    OM : Il n’y a pas un seul profil, car c’est pluridisciplinaire. Chez nous, il y a des gens qui viennent de la dynamique des fluides et d’autres de l’agronomie. Ce n’est pas forcément facile de travailler ensemble ! Les gens qui font du calcul scientifique, quand ils arrivent, n’ont pas de compétences en climatologie, mais en travaillant sur les climats, ils ont l’impression d’être plus utiles à la société que s’ils développaient un logiciel pour faire du marketing par exemple. Ils participent à un projet d’ensemble qui a un rôle dans la société qui est positif, et c’est motivant.

    B : Quels sont les liens de votre domaine avec l’informatique ?
    OM : On évite d’utiliser le mot « informatique », car cela regroupe des métiers tellement différents. L’informatique en tant que discipline scientifique est bien sûr clairement définie, mais assez différemment de son acception par l’homme de la rue. Nous parlons de calcul scientifique. L’équipe que je dirigeais s’appelle d’ailleurs CalculS. Dans ma génération, si des personnes telles que moi disaient qu’elles faisaient de « l’informatique », elles voyaient débarquer dans leur bureau des collègues qui leur demandaient de “débugger » les appareils. Il y avait une confusion symptomatique et j’aurais préféré que le mot «informatique» n’existe pas. La Direction Informatique du CEA regroupait bureautique et calcul scientifique. Maintenant au contraire, le calcul scientifique ne dépend plus de la direction informatique. Les interlocuteurs comprennent mieux notre métier. Notre compétence n’est pas le microcode, et nous ne savons pas enlever les virus des ordinateurs.

    Développer des modèles

    B : Utilisez-vous des modèles continus ou discrets ?
    OM : Les zones géographiques sont représentées par une grille de maille 200 km (l’océan a une grille plus fine). Le temps, qui est la plus grande dimension, est discret, et on fait évoluer le système pas à pas. Il faut entre 1 et 3 mois pour simuler entre 100 et 1000 ans de climat. On ne cherche pas à trouver un point de convergence mais à étudier l’évolution… On s’intéresse à des évolutions sur 100 000 ans ! Il y a des gens qui travaillent sur le passé d’il y a 500 millions d’années, et d’autres sur le passé plus récent. Nous, on essaie de travailler sur le même modèle pour le passé et pour le futur. Donc, par rapport aux autres équipes de recherche, cela implique qu’on n’ait pas un modèle à plus basse résolution pour le futur et un autre à plus haute résolution pour le passé. L’adéquation des modèles sur le passé est une validation du modèle pour le futur, mais on a une seule trajectoire du système – une seule planète dont l’existence se déroule une seule fois au cours du temps. Nos modèles peuvent éventuellement donner d’autres climats que celui observé, et cela ne veut pas forcément dire qu’ils sont faux, mais simplement qu’ils partent d’autres conditions initiales. On peut faire de la prévision climatique, mais on ne peut pas travailler sur des simulations individuelles, il faut étudier des ensembles. En particulier, les effets de seuil sont difficiles à prédire. On a besoin de puissance de calcul.

    B : Dans votre domaine, y a-t-il des verrous qui ont été levés ?
    OM : Cette évolution a eu lieu par raffinements successifs. Maintenant on sait que ce sont plutôt les paramètres orbitaux qui démarrent une glaciation, mais que le CO2 joue un rôle amplificateur, et on ne comprend pas complètement pourquoi. On se doute qu’aujourd’hui le climat glaciaire s’explique en partie parce que l’océan est capable de piéger plus de CO2 en profondeur, et je travaille en ce moment pour savoir si au bord du continent antarctique, où l’océan est très stratifié, on peut modéliser les rejets de saumure par la glace de mer ; on essaie de faire cette modélisation dans une hiérarchie de modèles pour voir s’il y a une convergence, ou pour quantifier tel phénomène qu’on n’avait pas identifié il y a 30 ans et qui joue un rôle majeur. L’effet  de la saumure est variable selon qu’elle tombe sur le plateau continental ou non. Pour modéliser ces effets, il faut représenter la topographie du fond marin de façon fine, mais là on tombe sur un verrou, parce qu’on ne sait pas modéliser le fond de l’océan. On alterne les simulations longues à basse résolution simplifiée des rejets de sel, avec les modèles à plus haute résolution. Il y a des verrous qui sont levés parce qu’on sait faire des mesures plus fines au spectromètre et parce que la puissance de calcul augmente.

    B : Dans dix ou vingt ans, qu’est-ce que vous aimeriez voir résolu?
    OM : D’une part, en tant qu’océanographe, j’aimerais comprendre toute la circulation au fond de l’océan – c’est quelque chose de très inerte, de très lent, sauf quelques courants un peu plus rapides sur les bords. Il y a des endroits de l’océan qui sont très isolés à cause du relief. Je voudrais des simulations fines de l’océan pour comprendre son évolution très lente. On progresse, et un jour ce sera traité à des échelles pertinentes pour le climat.
    D’autre part, dans l’atmosphère, on tombe sur d’autres problèmes – ainsi, les grands cumulo-nimbus tropicaux, ce sont des systèmes convectifs. Quand on a une maille à 100 km, on essaie d’en avoir une idée statistique. Quand on a une maille à 100 m, on résout ces systèmes explicitement. Mais entre les deux, il y a une espèce de zone grise, trop petite pour faire des statistiques mais trop grande pour faire de la résolution explicite. Dans 50 ans, on pourra résoudre des systèmes convectifs dans des modèles du climat. On commence à avoir la puissance de calcul pour s’en rapprocher.
    Plus généralement c’est un exercice assez riche que de prendre des phénomènes à petite échelle et d’essayer de les intégrer aux phénomènes à grande échelle géographique, pour voir leur effet. L’écoulement atmosphérique est décrit par les équations de Navier-Stokes mais on ne peut pas résoudre toute la cascade d’effets vers les petites échelles, alors on fait de la modélisation. On se dit : il doit y avoir une certaine turbulence qui produit l’effet observé sur l’écoulement moyen. On observe les changements de phase, et il y a tout un travail pour essayer de modéliser cela correctement.
    Mais c’est très difficile, dans les articles scientifiques, quand quelqu’un a fait un progrès en modélisation, de le reproduire à partir de l’article – d’une certaine façon, cette nouvelle connaissance est implicite. L’auteur vous donne ses hypothèses physiques, ses équations continues, mais ne va pas jusqu’à l’équation discrète et à la façon dont il a codé les choses, ce qui peut être une grosse partie du travail. On commence désormais à exiger que le code soit publié, et il y a des revues dont l’objectif est de documenter les codes, et dont la démarche est de rendre les données brutes et les codes disponibles. Sans le code de l’autre chercheur, vous ne pouvez pas reproduire son expérience. Mais ce sont là des difficultés qui sont en voie de résolution en ce moment.

     compterUn supercalculateur

    Les super-calculateurs sont de plus en plus complexes à utiliser.

    Dans mon travail, je suis plutôt du côté des producteurs de données. Il y a des climatologues qui vont prendre les données de tout le monde et faire des analyses, donc vous avez un retour sur vos propres simulations, ce qui est extrêmement riche. C’est très intéressant pour nous de rendre les données disponibles, car on bénéficie alors de l’expertise des autres équipes. Cela nous donne un regard autre sur nos données. D’ailleurs, il y a  une contrainte dans notre domaine : pour les articles référencés dans le rapport du GIEC, les données doivent obligatoirement être disponibles et mises sous format standard. C’est une contrainte de garantie de qualité scientifique.

    B : Y a-t-il libre accès aux données à l’international ?
    OM : Tous les 6 ou 7 ans, le rapport du GIEC structure les expériences et organise le travail à l’international. Il y a eu une phase, il y a 10 ans, où on  voulait rassembler toutes les données dans un lieu commun, mais ce n’est pas fiable, il y a trop de données. Maintenant on a un portail web (ESGF) qui permet d’accéder aux données là où elles sont. Les gens peuvent rapatrier les données chez eux pour les analyser mais quand il y a un trop gros volume, pour certaines analyses, ils sont obligés de faire le travail à distance.

    B : Parlons du « déluge de données, du big data. Vous accumulez depuis des années une masse considérable de données. Il y a aussi des problèmes pour les stocker, etc.
    OM : Le big data, pour nous, c’est très relatif, car il y a plusieurs ordres de grandeur entre les données que nous avons et ce qu’ont Google ou Youtube par exemple. 80% du stockage des grands centres de la Recherche publique est le fait de la communauté climat-environnement. Notre communauté scientifique étudie la trajectoire du système, pas l’état à un seul instant. Il y a des phénomènes étudiés sur 1000 ans pour lesquels on met les données à jour toutes les 6 heures (les gens qui étudient les tempêtes par exemple). Mais c’est vrai que le stockage devient un problème majeur pour nous. GENCI finance les calculateurs, mais ce sont les hébergeurs de machines, le CNRS etc., qui financent les infrastructures des centres.

    B : Qu’est-ce que les progrès de l’informatique ont changé dans votre domaine, et qu’est-ce que vous pouvez attendre des informaticiens ?
    OM : Il y a une plus grande spécialisation. Lorsque j’étais en thèse, un jeune doctorant avait les bases en physique, mathématiques et informatique pour écrire un code qui tournait à 50% de la puissance de la machine. On n’avait pas besoin de spécialiste en informatique. Les physiciens apprenaient sur le tas. Maintenant l’évolution des machines fait qu’elles sont plus difficiles à programmer en programmation parallèle pour avoir un code pertinent et performant, et du coup  les physiciens doivent collaborer avec des informaticiens. Les super-calculateurs sont de moins en moins faciles à utiliser.  En ce qui concerne la formation, les jeunes qui veulent faire de la physique, et arrivent en thèse pour faire de la climatologie ne sont pas du tout préparés à utiliser un super-calculateur. Ils commencent à être formés à Matlab et à savoir passer des équations à des programmes, mais quand on met entre leurs mains un code massivement parallèle en leur disant de modifier un paramètre physique, on a vite fait de retrouver du code dont la performance est divisée par 10, voire par 100 ! On a besoin de gens  qui comprennent bien l’aspect matériel des calculateurs, (comprendre où sont les goulots d’étranglement pour faire du code rapide), et qui sachent faire des outils pour analyser les endroits où ça ralentit. En informatique, les langages de programmation ont pris du retard sur le matériel. Il y a un travail qui est très en retard, à savoir, essayer de faire des langages et compilateurs qui transforment le langage du physicien en code performant. Il faut beaucoup d’intelligence pour masquer cette complexité à l’utilisateur. Aujourd’hui c’est plus difficile qu’il y a vingt ans.

    B : Votre travail a-t-il des retombées sociétales ou économiques ?
    OM : Nos docteurs sont embauchés chez les assureurs, cela doit vouloir dire que notre travail a des retombées pour eux ! Il y a aussi EDF qui s’intéresse à avoir une vision raisonnable de ce que sera le climat pour l’évolution des barrages, l’enfouissement des déchets nucléaires, etc. Mais, la « prévision du climat », on en a horreur : nous, on fait des scénarios, mais on ne peut pas maîtriser, en particulier, la quantité de gaz à effet de serre qui seront rejetés dans l’atmosphère par l’homme. On fait des scénarios et on essaie d’explorer les climats possibles, mais on évite de parler de prévisions. On participe vraiment à la collaboration internationale pour essayer de faire des scénarios climatiques. Il y a une partie validation – la partie historique, instrumentale, bien documentée, qui permet de voir quels sont les modèles qui marchent bien – et une partie où on essaie de comprendre ce qui ne marche pas. Il y a toute une problématique de mathématiques et statistiques pour l’évolution dans le futur.

    B : Y a-t-il beaucoup de femmes chercheurs dans votre domaine?
    OM : Cela dépend de ce qu’on appelle « mon domaine ». Dans le laboratoire, il y a un bon tiers de femmes. Mais c’est qu’on est dans les sciences de la Terre. En biologie, il y en a plus de la moitié. Dans les sciences dures, en physique, il y en a moins. Dans les réunions de climatologues, il y a environ un tiers de femmes. Mais dès qu’on est dans une réunion d’informaticiens la proportion chute à moins de 10%. C’est extrêmement frappant. Il y a plus de femmes, mais dans la partie informatique et calcul scientifique, cela ne s’améliore pas beaucoup.

    B : Y a-t-il autre chose que vous aimeriez ajouter?
    OM : Il faut faire attention de distinguer modélisation et simulation. Nous, on fait de la modélisation : on commence par faire un modèle physique, puis on discrétise pour faire un modèle numérique, puis on fait du code. La simulation c’est ce que vous faites une fois que vous avez le code, le modèle informatique.

    Olivier Marti, CEA, Laboratoire des Sciences du Climat et de l’Environnement

    DemarcheSimulationLa démarche itérative de la simulation

  • Qu’est-ce qu’un bon système de vote ?

    C’est la question que Binaire a posée à Véronique Cortier, Directrice de recherche au CNRS à Nancy. Cette spécialiste de la sécurité informatique nous répond.

    De nombreux scrutins se font désormais par voie électronique. L’actualité est très riche en la matière avec les élections au sein de l’UMP (qui finalement seront faites en version papier) ou les élections professionnelles au sein du Ministère de l’Éducation Nationale. Le vote électronique concerne également de nombreux scrutins dont le nombre d’électeurs est plus limité comme l’élection de conseils (conseil d’administration, conseil scientifique, ou simplement conseil de collège ou de lycée). L’irruption des scrutins par voie numérique (on parle de « vote électronique ») soulève de nouveaux enjeux en termes de garanties de bon fonctionnement et de sécurité informatique : comment m’assurer que mon vote sera bien pris en compte ? Est-ce qu’un tiers peut savoir comment j’ai voté ? Puis-je faire confiance au résultat annoncé ? Nous faisons ici un tour d’horizon des propriétés souhaitables pour le vote électronique en nous appuyant sur l’exemple du vote traditionnel à l’urne tel qu’il est organisé en France lors des élections municipales par exemple.

    Vote à New-York vers 1900Salle de vote à New-York en 1900 (E. Benjamin Andrews – Source Wikimedia)

    1. Confidentialité : le maître mot !

    Nul ne doit connaître le vote d’un électeur. Dans le cas d’un vote à l’urne, on parle alors d’un vote à bulletins secrets : l’électeur glisse son bulletin dans une enveloppe, à l’abri des regards dans l’isoloir. Pour des élections à enjeux importants, la confidentialité stricte ne suffit pas : un électeur ne doit pas pouvoir révéler comment il a voté, même s’il le souhaite. Pourquoi donc ? Tout simplement pour se protéger contre l’achat de vote ou la coercition. Si je peux prouver comment j’ai voté, alors il m’est possible de vendre mon vote : contre une certaine somme d’argent (ou sous la menace), je peux donner une preuve que j’ai bien voté comme un tiers l’aurait souhaité. C’est pour cette raison que, lors d’un vote à l’urne, ni l’enveloppe ni le bulletin ne doivent porter un quelconque signe permettant d’identifier l’électeur, sous peine d’être considérés comme nuls. Notons au passage que le vote traditionnel à l’urne permet donc l’abstention forcée : il est possible de forcer un électeur à voter « nul » en lui demandant d’apposer sur son bulletin un signe particulier, convenu à l’avance. La présence de signe peut être vérifiée lors du dépouillement public.

    2. Sincérité et transparence du scrutin : un contrat de confiance

    Le principe même d’une élection est que les électeurs dans leur ensemble acceptent de se conformer au résultat de l’élection. Encore faut-il avoir confiance en la sincérité du scrutin, c’est-à-dire pouvoir se convaincre que le résultat de l’élection correspond bien aux votes exprimés par les électeurs. On parle alors de vérifiabilité. Toujours dans le cas d’un vote traditionnel à l’urne, et quitte à surveiller l’urne toute la journée, il est possible de s’assurer que son bulletin est bien présent dans l’urne (vérifiabilité individuelle) et que les bulletins proviennent tous bien d’électeurs légitimes (vérifiabilité de la légitimité). Puis lors du dépouillement public, chacun peut se convaincre que le décompte des voix correspond bien aux bulletins déposés par les électeurs (vérifiabilité universelle).

    3. Disponibilité et accessibilité : le vote pour tous !

    Tous les électeurs doivent pouvoir voter. Voter ne doit pas demander de compétence technique particulière et doit rester accessible à des personnes en situation de handicap. D’autre part, il doit être possible de voter à tout moment pendant la durée du scrutin. Dans le cas du vote à l’urne, il est ainsi important que les bureaux de vote soient accessibles, en nombre suffisant et suffisamment longtemps pour éviter de longues files d’attente.

    Qu’en est-il dans le cas du vote électronique ?

    Si chaque électeur peut juger de la disponibilité et de l’accessibilité d’un système de vote, force est de constater qu’il est difficile de juger de la confidentialité et de la transparence en matière de vote électronique puisque le fonctionnement de ces systèmes est inconnu dans la grande majorité des cas. Par exemple, le fonctionnement du système mis en œuvre lors des précédentes élections au sein de l’UMP n’est pas public. On peut alors se tourner vers les recommandations de la CNIL (Commission Nationale de l’Informatique et des Libertés) en matière de vote électronique. La CNIL insiste notamment sur le fait que le bulletin doit être chiffré avant d’être envoyé : « Le bulletin de vote doit être chiffré par un algorithme public réputé « fort » dès son émission sur le poste de l’électeur et être stocké dans l’urne, en vue du dépouillement, sans avoir été déchiffré à aucun moment, même de manière transitoire. » Lors du dépouillement, il doit être impossible de faire le lien entre un bulletin et l’électeur correspondant. Ces recommandations visent à empêcher des personnes malveillantes d’avoir accès aux votes des électeurs lors du déroulé du scrutin ou du dépouillement, même s’il reste difficile de se prémunir contre des attaques menées directement sur l’ordinateur de l’électeur (un ordinateur infecté par un virus pourrait modifier le choix de l’électeur ou tout simplement l’envoyer à une personne tierce).

    La transparence, grande oubliée des systèmes électroniques actuels.

    Si la confidentialité des votes semble être au centre des préoccupations des sociétés commercialisant des systèmes de vote électronique (d’après leurs brochures commerciales), la transparence du scrutin est actuellement le parent pauvre du vote électronique. Point d’urne visible, point de dépouillement public ! Et bien sûr, toujours pas d’information sur les méthodes utilisées. Même si des précautions sont prises et que des « experts en informatique » ont pu avoir accès au système, l’électeur, lui, n’a a priori aucun moyen de s’assurer que son bulletin a bien été déposé dans l’urne, ni que le résultat annoncé correspond aux bulletins reçus. Les électeurs n’ont actuellement pas d’autre choix que de faire confiance aux autorités de l’élection et aux éventuels experts indépendants qui ont analysé le système.

    De « nouvelles » solutions existent (depuis 20 ans déjà !)

    La recherche en informatique a réalisé des progrès importants dans les 20 dernières années en matière de vote et de cryptographie. Il est désormais possible de mettre en œuvre des systèmes de vote qui ont une urne publique, sur une page web par exemple. Tout électeur peut vérifier que son bulletin est présent dans l’urne et peut vérifier le décompte des voix, sans remettre en cause la confidentialité des votes. Les lecteurs curieux pourront lire l’article « Vote par Internet » sur Interstices pour en apprendre un peu plus sur cette nouvelle génération de systèmes de vote électronique. Bien sûr, ces systèmes sont eux-mêmes loin de résoudre tous les problèmes du vote électronique, mais il est certainement possible de faire mieux que ce qui est proposé par les dispositifs actuellement déployés.

    Je vous donne rendez-vous dans un prochain article pour tenter de répondre à la question suivante : le vote papier est-il réellement plus sûr que le vote électronique ?

    Véronique Cortier CNRS – Nancy

  • Binaire, un an

    Binaire, le blog du Monde sur l’informatique, fête son premier anniversaire. Son mot d’ordre : parler d’informatique… à tous. Cet entretien avec Serge Abiteboul, créateur du blog, a été réalisé par Mathilde de Vos. Il est publié conjointement sur le site de la SIF et sur inria.fr.

    L’informatique participe aux changements profonds du monde et a joué un rôle essentiel dans les grandes innovations des dernières décennies. Pourtant bien des gens ignorent cette science et les technologies associées, de ses aspects les plus formels aux enjeux de société qui lui correspondent. Qu’est-ce que l’informatique ? Quel sont ses progrès, ses dangers, ses impacts, ses enjeux ? Quels métiers ? Comment l’enseigner ? Voilà quelques questions auxquelles le blog Binaire tente de répondre et de sensibiliser ses lecteurs. Lancé sous l’égide de la Société informatique de France (SIF) ce blog hébergé par lemonde.fr est animé par des scientifiques et des professionnels du monde de la recherche (Inria, ENS Cachan, universités), en première ligne desquels Serge Abiteboul.

    Serge Abiteboul

    « J’étais président du Conseil scientifique de la SIF, et je me demandais à quoi nous pouvions servir. Je me suis rendu compte que le grand public ne connaissait rien de l’informatique. Quand on découvre trois bouts d’os en Afrique, les journaux en parlent immédiatement. Mais quand il y a une grande découverte en informatique, comme la conception de PageRank, l’algorithme qui classe les pages web avec un impact sur la vie de chacun, vous ne verrez pas une ligne dans les médias.

    Aucune science n’a évolué autant que l’informatique durant les 50 dernières années. Les informaticiens n’ont pas l’habitude d’expliquer ce qu’ils font. Ils doivent donc apprendre, ce qu’ont appris à faire les scientifiques des autres sciences depuis plus longtemps, à raconter leurs travaux. L’objectif de Binaire, c’est de répondre à ce besoin : expliquer cette science qu’est l’informatique, répondre aux questions sur ce sujet omniprésent dans la société.

    Quand Le Monde m’a invité à ouvrir ce blog, ma seule demande a été de le faire avec une petite équipe. Il fallait publier environ 2 ou 3 articles par semaine, et je ne pouvais pas y arriver seul si je voulais continuer à faire de la recherche. La première surprise de cette expérience, c’est le plaisir que j’ai pris à travailler avec l’équipe, dans une ambiance extraordinaire. Nous publions plus d’articles que prévu en ne mettant en ligne que ce que nous avons envie. Notre seule règle : nous faire plaisir en parlant d’informatique. Nous nous amusons !

    La deuxième excellente surprise a été de nous apercevoir que quand on demande à quelqu’un d’écrire, on a presque toujours des retours positifs. Écrire un article, ça demande beaucoup de temps, c’est un vrai travail. Mais nous avons collectivement envie de parler de nos métiers, nous avons envie de raconter l’informatique. Et je trouve que d’ailleurs les contributeurs en parlent plutôt bien ! J’ai été passionné par de nombreux articles, par exemple cet entretien avec Henri Maitre, professeur à ParisTech, sur les images, ou celui avec Françoise Combes, qui est astronome.

    Nos projets pour 2015 ? Continuer à développer des rubriques récurrentes. Nous allons poursuivre une série d’entretiens avec de grands témoins, pour essayer de définir ce qu’est l’informatique. Françoise Tort, maître de conférences à l’ENS Cachan, a commencé un panorama de l’enseignement de l’informatique, pour montrer ce qui se fait en dehors de la France. Et puis il va y avoir une série d’articles sur Alan Turing, pour accompagner la sortie du film « The Imitation Game », une autre pour parler du vote électronique, une autre est à l’étude sur l’art numérique…

    Nous sommes d’ailleurs preneurs d’idées et de demandes. Des lecteurs nous proposent des articles, des informaticiens qui ont envie d’écrire ; nous pouvons leur donner cette opportunité. Un de nos buts est de faire éclore des talents de raconteurs de l’informatique. »

  • The Imitation Game : et si vous préfériez l’original ?

    2012 a été l’année du centenaire de la naissance d’Alan Turing. Cette icône de l’informatique a été célébrée dignement. A la fin du mois, sort un film biographique sur Turing, un blockbuster, « The Imitation Game ». Binaire se devait d’accompagner l’événement et a donc demandé leurs réactions à plusieurs amis. Nous démarrons avec Jean Lassègue, philosophe des sciences. Il remet en jeu quelques idées reçues. Serge Abiteboul.

    alan-turing-rayclid-binaire-blog

    J’avais eu l’occasion de passer un an à Oxford il y a presque trente ans. J’étais alors tombé par hasard sur la biographie de Turing écrite par le mathématicien Andrew Hodges, Alan Turing, The Enigma. Je fus immédiatement subjugué par ses qualités littéraires : la beauté de cette prose, les exergues du poète Walt Witman, mais aussi la culture britannique – des rites propres aux écoles secondaires à la campagne anglaise – me parlaient d’un monde que je connaissais bien mieux que la logique mathématique que j’avais commencé à étudier cette année-là. Je lus le livre d’une traite et le relus un certain nombre de fois dans les années qui suivirent, pendant lesquelles Turing fut pour moi tout à la fois une sorte d’interlocuteur, une grille d’interprétation et une source d’interrogation sur la façon dont la science s’inscrit dans le siècle.

    Me voici de retour à Oxford. Entre temps, Turing est devenu l’une des figures les plus célèbres de l’histoire de l’informatique et, ce 18 décembre, on joue, au cinéma de Walton Street où j’allais de temps en temps à l’époque, le film de Morten Tyldum « The Imitation Game » qui porte sur la biographie de Turing et qui sortira en France le 28 janvier 2015. Quoi de plus normal, vingt-huit ans après avoir quitté Oxford, que d’aller voir ce film, et de renouer, sur le mode d’une fiction, avec ce qui allait devenir l’un des thèmes majeurs de mes préoccupations pendant les années qui suivirent ? Le film allait me rappeler encore une fois, s’il le fallait, combien il est difficile de parler d’un scientifique sans tomber dans l’hagiographie ou le grand spectacle, et ce, même quand le film est basé sur le livre si réussi d’Andrew Hodges.

    TheImitationGameJe ne compte pas faire une critique détaillée du film, décidément trop « théâtral » pour moi, même s’il m’a paru bien servi par les acteurs et qu’il peut sans doute permettre à un spectateur qui ignorerait tout de la vie de Turing de se faire une première idée du rôle capital qu’il joua pendant la guerre quand, en décryptant les messages codés envoyés aux sous-marins allemands faisant le blocus de l’Angleterre, il réussit à déjouer le blocus et raccourcit de ce fait la guerre de deux ans en sauvant des milliers de vies humaines. Cependant, réussir à faire tourner l’intrigue autour du couple Alan Turing / Joan Clarke, mathématicienne avec qui il fut fiancé à l’époque où ils faisaient tous les deux partie de l’équipe de décryptage, tient pour moi d’un véritable prodige quand on sait, comme le montre d’ailleurs le film, que Turing était homosexuel et que son homosexualité lui valut condamnation pénale et contribua à son suicide. D’autres films récents, relevant plus du genre « documentaire » (voir en fin de blog) me paraissent plus proches de la vérité historique.

    Je m’en tiendrai à un aspect particulier du film de Tyldum parce qu’il témoigne d’une attitude générale : sa fidélité stricte à l’interprétation de la biographie écrite par Andrew Hodges. Or il se trouve que, malgré les qualités éminentes que je reconnais volontiers au livre de Hodges dans lequel j’ai tant appris, je suis devenu, au fil du temps, fondamentalement en désaccord avec son interprétation. Le film « The Imitation Game », par fidélité à Hodges, me semble donc fondamentalement infidèle à Turing et c’est de cela dont je voudrais parler. Il ne s’agit pas seulement d’un débat entre spécialistes sur quelques vagues points de détail de l’histoire intellectuelle de Turing qui n’intéressent qu’eux et qui n’ont aucune portée. Il s’agit au contraire d’un point fondamental qui distingue deux façons radicalement différentes de concevoir la nature de l’informatique en général et le cadre philosophique et épistémologique de ses résultats.

    L’interprétation canonique du parcours intellectuel de Turing

    Voilà comment je vois la façon dont Hodges interprète la vie et l’œuvre de Turing, appuyée en cela par toute une tradition dérivée de l’empirisme logique dont l’audience est aujourd’hui mondiale, comme les cérémonies, hommages, colloques et événements pour le centenaire de Turing l’ont montré de par le monde en 2012. La notion fondamentale à étudier serait celle d’« intelligence » et la question pertinente à se poser serait celle de savoir si elle peut être conçue de façon mécanique ou pas. La réponse de Turing à cette question serait alors conçue comme le travail consistant à faire évoluer la mécanisation du renseignement (‘intelligence’ pris au sens anglais de collecte des données par les services secrets, ce qui renvoie au travail de Turing sur le décryptage au moyen de la machine Enigma des codes allemands pendant la guerre) à l’intelligence artificielle (‘intelligence’ pris au sens de l’esprit, ce qui renvoie à la construction du premier ordinateur et l’idée que le fonctionnement du cerveau est analogue à celui d’un ordinateur) : l’originalité – immense – de Turing serait ainsi d’avoir accompli ce passage du « renseignement » à l’« esprit » en s’en tenant strictement au paradigme mécanique tel qu’il a été pleinement réalisé par l’ordinateur. Dans cette optique, le « jeu de l’imitation », rebaptisé « Test de Turing » pour les besoins de la cause, deviendrait capital parce qu’il serait un « test » – entendez un algorithme mécanisable – qui prouverait que la notion d’intelligence peut se concevoir comme détachée du support biologique de l’humanité et peut dès lors se transférer à un ordinateur, à peu près comme un logiciel peut tourner sur n’importe quel type de machine, pourvu qu’il s’agisse d’un ordinateur digital.

    C’est à cette interprétation que je m’oppose parce qu’elle reconduit la différence logiciel et matériel (en reproduisant ce faisant un dualisme de l’âme et du corps) au lieu de tenter de penser cette différence et de la concevoir comme rendant possible une dynamique de leur rapport.

    Un indice devrait tout d’abord nous mettre immédiatement la puce à l’oreille : qu’en est-il, dans cette interprétation désormais canonique, du travail de Turing en biologie théorique ? Il passe à la trappe, purement et simplement. Or je rappelle d’une part que les recherches de Turing en biologie théorique ont occupé toutes les dernières années de sa vie entre 1950 et 1954 une fois qu’il eut définitivement abandonné toute recherche fondamentale en informatique et d’autre part qu’il considérait ses résultats dans ce domaine comme aussi fondamentaux que ceux de son article de 1936 fondant la théorie de la calculabilité. S’agit-il donc seulement d’un passe-temps secondaire que l’on pourrait oublier, le temps d’un film grand public, ou minorer, comme dans l’interprétation canonique du parcours intellectuel de Turing ? C’est impossible si l’on veut rendre justice à ce que Turing disait de son propre travail en biologie théorique. Il faut donc reprendre complètement le cadre interprétatif proposé par Andrew Hodges et revenir à ce qui fait le nerf de la preuve de son argumentation, le jeu de l’imitation.

    Le jeu de l’imitation

    Contrairement à la façon dont il est présenté dans le film de Tyldum, suivant en cela la majorité des interprètes puisqu’une entrée « Turing test » se trouve depuis longtemps dans le dictionnaire anglais Collins(*), le « jeu de l’imitation » ne consiste pas à montrer qu’il n’est pas possible de distinguer les réponses d’un homme des réponses d’un ordinateur convenablement programmé à qui on poserait des questions pendant une durée de jeu de cinq minutes et en cachant à l’interrogateur tout indice tenant à l’apparence physique des joueurs, c’est-à-dire en se limitant à des réponses imprimées. Le jeu est plus complexe car il est constitué de deux étapes distinctes, indispensables pour tenter d’obtenir le résultat escompté : l’indifférence entre les réponses humaines et les réponses de la machine et, partant, la « preuve » que l’intelligence mécanique est possible. Dans la formulation du jeu décrite par Turing dans son seul article de philosophie publié en 1950 dans la revue Mind, trois joueurs participent au jeu. L’un, appelé l’interrogateur, est séparé des deux autres, un homme et une femme, et doit tenter de deviner qui est l’homme et qui est la femme – bref doit tenter de déterminer quelle est la différence physique maximale entre deux êtres humains. Une fois en position d’échec pendant un certain temps, relativement court, la seconde étape du jeu consiste à remplacer le joueur masculin par un ordinateur convenablement programmé sans prévenir l’interrogateur et à se demander si celui-ci sera capable de déceler qu’il n’a plus affaire au même joueur mais que celui-ci a été remplacé par un ordinateur, bref que la différence entre humains et ordinateurs dans la deuxième étape du jeu ne sera pas plus décelable que la différence des sexes entre les humains dans la première.

    Je soutiens que le jeu tel qu’il est décrit par Turing ne peut pas parvenir au résultat escompté pour une raison très simple : pour réussir à monter une partie du jeu, il faudrait à la fois prendre en compte la différence physique entre homme et femme dans la première étape et la différence physique entre un être humain et un ordinateur dans la seconde – car il faut avoir la capacité de choisir deux joueurs physiquement les plus opposés – et ne pas prendre en compte cette différence physique – puisqu’il s’agit de parvenir à la conclusion que la mise en échec de l’interrogateur a une portée universelle qui rend toute différence physique entre les joueurs indifférente. Bref, la conclusion à laquelle le jeu doit parvenir détruit les conditions de possibilité de sa propre construction. Autrement dit, pour que tout lecteur de l’article puisse parvenir à faire sienne la mise en échec de l’interrogateur et la conclusion que l’intelligence artificielle est bien réelle, il faudrait que tout lecteur puisse à la fois se dire que, s’il était à la place de l’interrogateur dans le jeu, il serait lui aussi mis en échec dans les deux étapes du jeu tout en se disant aussi qu’il doit cependant être toujours capable de faire physiquement la différence entre les deux joueurs (masculin et féminin dans la première étape, féminin et mécanique dans la seconde) pour monter une partie. Bref, la différence physique entre les joueurs doit en même temps être à tout jamais indécelable tout en étant pour toujours présupposée pour que le jeu puisse fonctionner. La position exigée de la part du lecteur quant à la détermination du rapport d’identité ou de différence entre humain et ordinateur est donc un indécidable au sens technique que ce terme revêt depuis l’article de Turing de 1936 puisque les condition d’accès à cette information rendent impossibles l’accès à l’information en question.

    Déterminisme prédictif ou pas

    Comment concevoir alors le jeu de l’imitation et plus globalement l’article de Turing de 1950 ? En remarquant qu’il y a une toute autre superposition dans cet article que celle existant entre les deux sens de la notion d’intelligence dont j’ai parlé plus haut. Turing remarque en effet que l’ordinateur en tant que machine physique est une machine « laplacienne » (relevant du déterminisme prédictif) mais que le monde physique ne l’est généralement pas pour des raisons ayant trait à la nature même de la matière, susceptible de comportements chaotiques (relevant du déterminisme non-prédictif). C’est donc la superposition de ces deux sens du déterminisme qui fait le fond de l’article de Turing et il faut le lire à ces deux niveaux : le niveau « grand public » (celui du film de Tyldum) dans lequel on débat (littéralement : à n’en plus finir pour des raisons ayant trait à l’indécidabilité dont j’ai parlé plus haut) pour savoir si et comment une machine peut être considérée comme « intelligente » et le niveau « de l’indécidable » dans lequel on sait pertinemment que la véritable question n’est pas là mais qu’elle se situe dans le rapport entre le calculable et l’incalculable et que ce rapport est précisément celui que Turing a exploré tout au long de sa vie et ce, jusqu’en biologie où les formes vivantes persistent – pour le temps de leur vie – à la frange du chaos qui mettra un terme à leur cohérence interne, comme l’a si profondément montré Giuseppe Longo (cf. F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007 et G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014).

    Il y a donc une continuité théorique totale dans le parcours de Turing, que l’on pourrait résumer dans cet aphorisme quasi-mallarméen dans son aspect paradoxal : jamais un surcroît de programmation n’abolira le non-programmé, comme le prouve la théorie de la programmation. Turing est en effet parvenu à montrer les limitations internes à la théorie de la programmation à partir de cette théorie même. Un problème capital se pose alors : comment réussir à manifester et à explorer plus avant ce non-programmable si c’est seulement dans son rapport au programmable qu’il devient pensable ?

    Où se situe le non-programmable ?

    Turing passera le reste de sa vie, après son article de 1936, à essayer de répondre à cette question et la réponse qu’il a élaborée continue d’occuper le champ de la recherche aujourd’hui. Celle-ci me paraît être la suivante : la production de formes cohérentes que ce soit dans la pensée (l’invention du concept de machine de Turing, par exemple) ou dans la nature (l’apparition des formes vivantes, par exemple) est une manifestation de ce non-programmable.

    Je soutiens que l’article de 1950 dans lequel Turing propose à la sagacité de son lecteur le « jeu de l’imitation » est une méditation sur les deux notions de la « pensée » et de la « nature » et plus encore sur leurs rapports. Or, pour avancer plus avant sur cette question difficile, on ne peut pas envisager la « pensée » ou la « nature » comme des notions fixées une fois pour toutes dont on pourrait étudier les produits complètement constitués (telle pensée, telle forme vivante) : il faut au contraire envisager la « pensée » et la « nature » comme des processus d’individuation progressive de formes. Or Turing a proposé, dans les dernières années de sa vie, un modèle de développement des formes vivantes à partir de brisures de symétrie dans la matière physique et c’est, à mon sens, en poursuivant une idée analogue sur le mode du désir qu’il construit le jeu de l’imitation quand il s’agit de rendre compte de l’invention du concept de « machine de Turing » : il s’agit de savoir si on peut remplacer la pensée d’un homme par un ordinateur à partir d’une brisure de symétrie dans la matière, c’est-à-dire d’une différence physique.

    Vu sous cet angle, le jeu de l’imitation prend une tout autre tournure que celle de savoir si la « pensée » est un concept universel, indifféremment incarné dans l’être humain ou l’ordinateur : il consiste en la description d’un processus d’individuation d’une forme de la pensée (l’invention du concept de « machine de Turing » chez l’individu Turing) et du rapport ambivalent que cette forme entretient avec les deux modalités (programmable et non-programmable) de son incarnation possible ­– le jeu devenant alors typique d’un « double entendre » (comme on dit en anglais !). De ce point de vue, la différence physique entre les joueurs et, en tout premier lieu, comme Turing n’a pas manqué de le voir, la différence des sexes, joue un rôle capital dans la dynamique du jeu puisque c’est son possible dépassement, pour les formes vivantes que nous sommes, qui en fait le moteur. L’aphorisme quasi-mallarméen dont je parlais plus haut prend alors la forme suivante : jamais un surcroît de programmation n’abolira la différence des sexes, comme le suggère le jeu de l’imitation.

    Aussi peut-on dire que si le jeu parvenait à ses fins, la différence des sexes serait effectivement dépassée et la sexualité personnelle de Turing définitivement cachée. Turing apprit, à ses dépens, que ce n’était pas le cas et il y a presque de la prophétie dans le jeu de l’imitation, comme le film de Tyldum le laisse d’ailleurs entendre, lui qui finit par avouer la nature de sa sexualité après un interrogatoire de police et qui fut condamné à une castration chimique.

    La signification générale du parcours de Turing ne se situe donc pas, selon moi, dans le passage d’un sens de la notion d’intelligence à un autre (on en resterait à une perspective algorithmique visant à étendre indéfiniment le périmètre du calculable, ce que l’informatique n’a pas manqué de faire depuis qu’elle existe) mais dans le passage de la forme au sens du formalisme et de ses limitations internes à la forme au sens de la production des formes, idéales comme celles de la machine de Turing ou naturelles comme celles des formes biologiques, en se plaçant d’emblée du point de vue du rapport programmable / non-programmable. Et c’est évidemment dans cette production que se situe l’énigme de l’invention des formes que ce soit celle produite par Turing dans le concept de machine de Turing ou que ce soit celle produite par la nature. Il reste encore un film à faire sur le sujet, et il n’y a aucune raison de ne pas espérer le voir réalisé un jour.

    Jean Lassègue, CNRS – Institut Marcel Mauss, École des Hautes Études en Sciences Sociales.

    (*) Test de Turing : test visant la capacité de l’ordinateur à penser, requérant que la substitution cachée d’un participant par un ordinateur dans un dialogue par télétype soit indétectable pour le participant humain qui reste. » On va voir combien cette description est trompeuse.

    Filmographie

    • Le modèle Turing, de Catherine Bernstein, produit par CNRS Images
    • La drôle de guerre d’Alan Turing, de Denis van Waerebeck, récemment passé sur Arte
    • The strange Life and Death of Dr Turing, de Christopher Sykes, produit par la BBC (en ligne sur YouTube).

    Bibliographie

    • F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007
    • G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014
  • Des ordinateurs au-dessus des attaques

    On l’a déjà raconté dans Binaire, le monnaie cryptographique bitcoin est une révolution. Ce qu’on mesure moins c’est que les principes utilisés pour la faire fonctionner ont introduit des idées qui vont bien au-delà de l’intérêt qu’il y a à disposer d’un système de paiement sécurisé ne s’appuyant sur aucune autorité centrale. C’est ce que nous raconte Jean-Paul Delahaye.

    Le fonctionnement du bitcoin a fait entrevoir la possibilité d’une nouvelle classe d’ordinateurs aux propriétés étonnantes : ils ne pourront être compromis par aucune attaque, leurs calculs seront fiables à un degré bien supérieur à tout ce qu’on connaît, et toute personne disposant d’un accès à Internet pourra les utiliser. Le seul inconvénient de ces nouvelles machines sera leur lenteur et leur mémoire réduite comparée à celle de nos machines de bureau ou même de nos smartphones. Cependant, si sacrifier un peu de la vivacité de nos machines et réduire leurs fantastiques capacités de stockage d’information conduit ces nouvelles venues à être bien plus robustes, alors des champs d’applications innombrables leur seront ouverts.

    Ces machines que nous appellerons — on va voir plus loin pourquoi — « machines à blockchain » ne sont localisées nulle part et n’existent que dans le réseau. Elles s’appuient sur des protocoles d’échanges de messages entre ordinateurs usuels fonctionnant sur des schémas de réseaux pair à pair (c’est-à-dire sans nœud central détenteur de droits particuliers). Leur force vient du consensus nécessaire à chaque opération qu’elles exécutent. Leur mémoire, la blockchain, se construit page par page — block par block — sans jamais que rien n’y soit effacé, et c’est un fichier numérique qui existe en milliers d’exemplaires identiques… comme notre génome qui se trouve présent dans chacune de nos cellules. Les pages de la blockchain sont liées les unes autres par un procédé numérique qui les solidarise aussi fermement que les anneaux d’une chaîne (d’où le nom blockchain). La multiplication du fichier des données centrales de la machine la rend incorruptible : si l’une des copies de la blockchain est perdue, il reste toutes les autres. Les calculs de cet ordinateur sont eux aussi faits des milliers de fois sur des milliers de machines (ordinaires) différentes qui se contrôlent les unes les autres et qui sont disséminées sur la terre entière, travaillant prudemment et sans hâte car se coordonnant sans cesse et n’avançant que lorsqu’il y a consensus. La redondance de l’information et du calcul interdit toute erreur, ou plutôt la rend si improbable qu’on peut confier à ces machines à blockchain multiples et auto contrôlées des tâches inconcevables sur une machine isolée toujours susceptible d’être attaquée, défaillante ou isolée du réseau.

    Blockchain.info_logo_2014-01-27blockchain.info

    La première de ces tâches à l’origine de leur conception a été la création d’une sorte de monnaie, entièrement numérique qui vaut aujourd’hui environ 3 milliards d’euros, le bitcoin. Les volontaires qui donnent une partie de la puissance de leur machine pour participer à ces ordinateurs collectifs, redondants et disséminés se nomment des mineurs dans le cas de la machine à blockchain du bitcoin et c’est sans doute le nom qui leur sera appliqué pour toutes les machines de cette nouvelle classe, dont on commence à comprendre le potentiel général.

    Parmi les disciplines qui ont rendu possible cette nouvelle génération de calculateurs, n’oublions pas de mentionner les mathématiques de la complexité.  En effet, la gestion coordonnée des opérations de ces machines sécurisées et la préservation de leur mémoire sont fondées sur des primitives cryptographiques qui interdisent toute corruption du fichier principal (la blockchain), toute manipulation frauduleuse de ce qu’elles font, mais aussi tout oubli de ce qu’elles ont déjà fait. Ces ordinateurs ne peuvent pas effacer leur mémoire qui témoignera sans limitation de temps de tout ce qu’ils auront fait depuis le premier jour de leur fonctionnement — le 3 janvier 2009 pour la machine du bitcoin. La conception théorique de ces machines s’appuie de manière essentielle sur les progrès de la cryptographie mathématique qui se fonde elle-même sur la théorie de la complexité de l’informatique. Ces deux théories ont depuis 40 ans, mis à la disposition de tous, des fonctions sûres réalisant parfois ce qu’on considérait impossible. Parmi ces opérations, il y a :

    • la signature des messages : pas d’usurpation possible de l’identité de celui qui écrit sur la blockchain ;
    • le chiffrage des données quand il est nécessaire : le bitcoin n’utilise pas ce type de secret, mais d’autres ordinateurs à blockchain en ont besoin ;
    • le calcul d’empreintes ; c’est ce qui permet d’avoir la certitude qu’on ne change aucun bit d’information dans un fichier, et on utilise cette fonction pour attacher les pages d’une blockchain comme les anneaux d’une chaîne ; et
    • les « preuves de travail » qui assurent qu’un contenu en calcul (un long travail impossible à accélérer)  est déposé dans un fichier ; ce contenu rend impossible la contrefaçon d’une blockchain.

    Ces calculateurs décentralisés et redondants se multiplient aujourd’hui : il en existe déjà plusieurs centaines, pour l’instant presque tous inspirés de près de celui du bitcoin et utilisés pour gérer des crypto-monnaies concurrentes. Cependant on en étend les possibilités — projet Ethereum —, on apprend à les faire interagir entre eux par la méthode des sidechains  qui autorisent la circulation de l’un à l’autre des informations et des devises numériques. On imagine toutes sortes de nouvelles applications : système de messagerie ; votes sécurisés sans aucune possibilité de tricherie ; contrats sans tiers de confiance ; systèmes de séquestre permettant de déposer de l’argent sur la blockchain par exemple en attendant qu’un engagement soit tenu ; dépôt de messages chiffrés ; systèmes d’horodatage pour déposer des brevets ou des preuves d’antériorité  infalsifiables sans avoir à faire appel à une autorité centralisée,  etc.

    Comme nous l’indiquions au début, la redondance a comme prix une moindre vitesse de calcul et une plus faible capacité de stockage d’information. Nick Szabo (le concepteur probable du bitcoin ; il ne le reconnaît pas, mais de nombreux indices convergent vers l’idée qu’il est Satoshi Nakamoto le signataire du document à l’origine du bitcoin) a évalué cette perte à un facteur 10 000, ce qui paraît énorme. Cependant, n’oublions pas que la loi de Moore énonce une multiplication par 10 des performances moyennes des dispositifs informatiques tous les cinq ans. Elle a été vérifiée en gros depuis 40 ans produisant un gain de performance supérieur au million. La perte de performance des machines a blockchain leur laisse donc une capacité comparable à nos machines de 1990… que nous ne trouvions pas ridicules à l’époque ! Pour de nombreux problèmes, on acceptera de faire un sacrifice sur la virtuosité computationnelle et informationnelle d’un ordinateur en échange d’une sécurité améliorée et rendue presque parfaite. Les calculateurs classiques resteront dominants bien évidemment, mais les nouveaux venus dans les domaines où la confiance est centrale seront peut-être les seuls à pouvoir faire face.

    Gageons que ces machines à blockchain vont changer quelques habitudes et forcer à revoir le train-train de l’informatique contemporaine — particulièrement dans le monde bancaire et financier. Car personne ne peut nier que ce qui est proposé aujourd’hui est incapable de garantir la sécurité que chacun attend, comme la récente affaire Sony l’a montrée, une affaire parmi cent autres.

    Jean-Paul Delahaye, Professeur, Université de Lille 1

    Pour aller plus loin

  • Pour un joint…

    Serge et Colin nous parlent d’une opération très importante dans notre vie quotidienne, « la jointure », et nous expliquent même un algorithme pour la réaliser. Vous verrez que vous utilisez des jointures souvent sans le savoir et que si une bonne jointure peut toujours servir, une mauvaise peut porter atteinte à votre liberté.

    Prenons cette question hypothétique posée à un concours de la fonction publique. Peut-on lier par une jointure les bases de données de l’éducation nationale et de l’immigration ?

    1. Oui. Cela permet de détecter des personnes en situation irrégulière.
    2. Non. Cela pourrait décourager les personnes en situation irrégulière d’envoyer leurs enfants à l’école.

    Le choix entre (1) et (2) est un choix de société. Pour nous, c’est une obligation humaniste de décider (2). Aujourd’hui la plupart des élèves qui sortent de l’éducation nationale ne savent pas, peut-être vous ne savez pas, ce que c’est qu’une jointure. Nous pensons qu’il n’est pas possible de comprendre le monde numérique qui nous entoure sans comprendre ce que c’est que la jointure. Nous pensons qu’il n’est pas possible de faire de manière éclairée certains choix de société si on ne comprend pas ce que c’est que la jointure ? C’est pourquoi nous allons vous expliquer cette fameuse jointure…

    Vous utilisez quotidiennement des jointures

    Imaginez que vous voulez aller au cinéma ce soir. Vous demandez à Allociné « où puis-je voir Mommy ce soir près de chez moi ». L’information est probablement structurée chez Allociné dans une base de donnée de la manière suivante (très simplifiée) :

    joinL’information est répartie entre deux tables. La première dit quel cinéma passe quel film à quelle heure. La seconde donne le nom et l’adresse du cinéma. Observez l’utilisation d’identifiant pour chaque cinéma. C’est ce qui permet de faire une « jointure » (comprenez un pont) entre les deux tables et de trouver par exemple que « Imitation game » passe à 17:00 au Gaumont Opéra ».  Pour donner un autre exemple, quand vous cherchez les contacts de votre amie Alice sur Facebook, que faites vous ? Vous allez dans votre liste d’amis (une première table). Vous sélectionnez Alice et allez chercher ses contacts – dans une autre table. Une jointure ! Quand vous regardez les tweets que Twitter vous propose, que l’un d’entre eux, par exemple vient d’Inria et que vous cliquez pour voir les tweets récents d’Inria, une autre jointure ! On pourrait multiplier les exemples. Mais vous avez saisi l’importance de cette opération.

    Imaginez maintenant que la première table soit les services de l’immigration et la seconde, une base de données de l’éducation nationale. Oups ! Wikipédia nous raconte : « Le 21 mars 1974, la révélation par le quotidien Le Monde d’un projet gouvernemental tendant à identifier chaque citoyen par un numéro et d’interconnecter, via ce numéro, tous les fichiers de l’administration créa une vive émotion dans l’opinion publique. » C’est cette émotion qui a conduit à la création de la CNIL. Des jointures entre les tables de l’administration risquaient de mettre en cause des libertés fondamentales. Cet identifiant aurait joué le rôle de l’identifiant de salle de cinémas de l’exemple précédant. C’est donc bien une histoire de jointure.

    Pour conclure, nous allons vous présenter, en nous appuyant sur l’exemple du cinéma, l’algorithme le plus standard pour réaliser la jointure. Comme cela, nous espérons démystifier un peu pour vous cette opération.

    Un algorithme simple pour réaliser des jointures

    C’est peut-être ce que vous choisiriez si on vous demandait de réaliser manuellement la jointure.

    L’algorithme Tri-fusion 

    1. Tri : Vous commencez par trier la première table par ID-ciné croissant. Vous faites de même de la seconde table. Dans cet algorithme, ce qui prend le plus de temps c’est d’ailleurs typiquement ce tri des deux tables. Pour faire ce tri, vous utilisez votre algorithme de tri préféré. Voir plus loin un exemple d’algorithme de tri.
    2. Fusion : Vous inspectez ensuite les identifiants de ID-ciné par ordre croissant et pour chacun vous construisez (si c’est le cas) des résultats. C’est la partie la plus simple.

    Maintenant nous allons vous proposer un algorithme de tri – il en existe des tonnes. Interstices nous en propose une synthèse. Et on peut même le découvrir en dansant:

    Nous en donnons un qui est d’une simplicité effrayante :

    Algorithme Tri par diviser pour conquérir

    1. Coupez la relation en deux.
    2. Triez chaque morceau
      1. Si le morceau n’a qu’un élément, il est trié.
      2. Sinon réutilisez Tri par diviser pour conquérir
    3. Fusionnez les deux relations triées.

    Maintenant, heureusement que ce n’est pas l’algorithme qui est utilisé quand vous demandez un film. Le système utilise un « index » – qui ressemble dans l’idée à l’index à la fin d’un livre. On donne à l’index un identifiant de salle et il trouve directement l’enregistrement correspondant à ce cinéma en quelques millisecondes quand Tri-fusion pourrait prendre quelques secondes voire plus pour de grosses tables.

     

    La jointure n’est qu’une des opérations de l’algèbre relationnelle. Pour découvrir les autres, consultez ce Wandida.

    Voilà. Maintenant vous savez ce que c’est qu’une jointure. Et vous pouvez comprendre la question : Peut-on lier par une jointure les bases de données de l’éducation nationale et de l’immigration ? Ou pas.

    Serge Abiteboul et Colin de la Higuera

     

  • Des fourmis et des chercheurs

    Aux confins de notre monde, une armée pacifique d’hommes et de femmes explorent l’inconnu. Cette exploration est déterminante pour notre société. Elle fournit à chaque instant la matière sur laquelle sera construit le monde de demain, et constitue par l’accumulation de connaissances notre réserve de progrès et d’adaptation.
    Le texte que nous propose Christophe Godin, Directeur de Recherche chez Inria, dépasse le cadre de l’informatique, même si les images sur lesquelles il s’appuie sont bien de ce domaine.

    Ray-Clid 2014@Rayclid 2014

    Note à l’attention des décideurs pour un système de recherche efficace qui tire la croissance puissamment vers le haut.

    « Ah vous êtes chercheur ? … mais la société a besoin de trouveurs pas de chercheurs ! »

    Dans ma vie extra-professionnelle, j’ai comme beaucoup de collègues chercheurs, souvent été confronté a cette boutade en demi teinte, un soupçon ironique, lancée à l’occasion d’une soirée ou d’une réunion de famille. Un peu dans l’embarras, et touché certainement dans mon amour-propre, j’essaie le plus souvent de répondre en montrant en quoi mon domaine de recherche, mes recherches sont tellement importantes pour la société. En vain… la distance est trop grande, le temps trop court, le vocabulaire trop étriqué, l’expérience trop différente, et finalement le lien trop ténu… Une évidence qui finalement n’en est pas une.

    Pourtant, cette boutade, dont la paternité est souvent attribuée à tort semble-t-il au Général De Gaulle (voir l’article de Pierre-Carl Langlais du 18/10/2014), pose trois questions essentielles sur la fonction du chercheur dans la société. Premièrement, la recherche est-elle utile à notre société ? Après tout la grande masse des individus de la société ne sont pas chercheurs. Ne pourrait-on pas tout simplement se passer de cette activité dont on n’a pas toujours l’impression qu’elle est essentielle, ici et maintenant ? Deuxièmement, en admettant tout de même que la société ait besoin de chercheurs, a-t-elle besoin d’une telle masse de chercheurs (dont une grande partie sont en France des fonctionnaires) pour progresser dans la connaissance et faire des découvertes ? Les chercheurs qui cherchent et ne trouvent pas ne sont ils pas inutiles ? Ne pourrait-on pas faire beaucoup d’économies en appointant uniquement des chercheurs qui trouvent ? Ne pourrait-on plus efficacement utiliser l’argent du contribuable en formant des trouveurs plutôt que des chercheurs, des sortes de super-chercheurs qui, en plus de chercher, trouveraient ?

    Et finalement, la recherche est-elle un bien ou un mal ? C’est la recherche qui permet de trouver de nouveaux vaccins, de construire des avions plus rapides, de rester en contact malgré les distances. Mais c’est également la recherche qui engendre des applications dont le risque mal évalué conduit à des accidents comme ceux de Tchernobyl ou de Fukushima, à l’accumulation de pollutions (gaz à effet de serre, déchets dangereux ou massifs) dont l’impact est maintenant mondial. En arrêtant de financer la recherche, ne supprimerions nous pas bien des maux dont souffre aujourd’hui notre société ? Ces questions sont tout à fait légitimes, et il faut y répondre. Cependant, je me suis progressivement rendu compte qu’elles ne posent pas le problème correctement (d’où mon embarras à y répondre), et que l’apparent bon sens derrière ces questions est en réalité lié à un malentendu commun mais, à terme, dangereux sur la fonction de chercheur dans la société.

    Formica_rufa_a1
    Source Wikimedia Adam Opiola

    Pour le comprendre, observons le comportement des fourmis. Vous vous êtes sans doute comme moi étonné au printemps de la terrible efficacité des fourmis pour repérer toute trace de nourriture : le moindre insecte mort, de morceau de sucre ou de pain tombé sur le sol est après quelques minutes seulement envahi de fourmis et acheminé vers la fourmilière dans un convoi ininterrompu. Cette efficacité n’est bien sur pas un hasard. C’est le fruit d’un processus comportemental sélectionné par la nature pour son efficacité redoutable. Pour explorer le territoire autour de la fourmilière, des fourmis spécialisées dans l’exploration se déplacent selon une trajectoire un peu aléatoire. L’ensemble des trajectoires de ces exploratrices réalise en permanence un maillage assez fin de la surface entière du territoire, de sorte qu’une source de nourriture sera vite repérée où qu’elle soit. En revenant à la fourmilière, une fourmi ayant fait une telle découverte, indique par l’odeur qu’elle dépose sur le chemin aux autres fourmis le lieu de sa découverte, attirant ainsi vers la source de nourriture très rapidement ses congénères qui intensifient alors l’exploitation du filon.

    Il est intéressant de s’arrêter un instant sur ce sur quoi repose une stratégie aussi efficace :

    1. les acteurs (les fourmis) sont nombreux et autonomes ;
    2. ils se déplacent en partie aléatoirement ;
    3. tous travaillent simultanément ;
    4. une fois une source de nourriture trouvée, un mécanisme collaboratif se met en œuvre afin de permettre aux fourmis d’exploiter cette source rapidement.

    En réalité, cette stratégie affinée par la nature pour explorer et exploiter une espace donné avec efficacité a une nature universelle. Elle peut être mise en œuvre par bien d’autres systèmes que celui des fourmis dès qu’il s’agit d’explorer un espace vaste et de découvrir en un temps raisonnable des éléments d’intérêt dans celui-ci. C’est en particulier en partie comme cela que la recherche procède chez les hommes.

    Pour les hommes, l’espace à explorer est le monde physique et biologique ainsi que le monde conceptuel que l’on peut construire par abstraction et déduction (monde économique, sociologique, mathématique, numérique). Cet espace est gigantesque, bien plus vaste que ce que nous pouvons imaginer. Pourtant, à travers l’histoire des sciences et des technologies, nous savons qu’il recèle une quantité formidable de sources de nouvelles connaissances et de propriétés à découvrir. Pour explorer cet espace, nous avons petit à petit mis en place une stratégie implacable, comparable à celle des fourmis : des individus spécialisés (les chercheurs) explorent cet espace et développent des trajectoires (travaux de recherche) qui ensemble couvrent à tout moment une grande partie de l’espace à explorer. Lorsqu’ils font une découverte, ils laissent une trace pour leurs collègues (publication) qui permet à toute la communauté de repérer et d’exploiter la nouvelle mine de savoir ainsi dévoilée. Il existe bien sûr une disparité dans la capacité de recherche, les compétences, l’intuition et l’efficacité de chacun des acteurs (comme chez les fourmis sans doute). Mais c’est bien l’ensemble de ces trajectoires et leur nombre qui garantit la terrible efficacité de notre système de recherche dans son ensemble. Et c’est là le point essentiel !

    fourmiliere
    Source : ElPadawan

    Comme toutes les métaphores, celle de l’organisation distribuée des fourmis explorant leur espace dans un mouvement essentiellement aléatoire a des limites lorsqu’on la compare à l’activité de recherche humaine. La plus importante est sans doute que les fourmis sont des acteurs doués de facultés de raisonnement limitées. Pour autant, elle nous fournit une grille de lecture très utile pour penser l’efficacité de notre système de recherche actuel et sa gouvernance. C’est ce point que j’aimerais maintenant discuter. Cette grille fait apparaitre 4 principes fondamentaux sous-tendant un système de recherche efficace :

    • Principe des moyens exploratoires
      Le premier principe est qu’il faut laisser les chercheurs faire ce pour quoi ils sont formés et payés : explorer systématiquement l’espace inconnu autour de nous tous. La condition principale d’une telle recherche est le temps : il faut laisser aux chercheurs l’essentiel de leur temps pour chercher. C’est un point d’une importance capitale, mais dont la fragilité tient en ce que, s’il n’est pas assuré, il est très difficile pour le système de détecter immédiatement qu’il y a un problème ; les effets se feront ressentir des années plus tard. Si on ne laisse pas suffisamment de temps d’exploration aux chercheurs, l’espace inconnu parcouru par l’ensemble de la communauté sera de faible étendue et le risque de passer à côté des découvertes clés largement accru. Ainsi, si on estime que l’efficacité d’un chercheur pour la communauté croit en proportion du temps qu’il met dans son exploration du monde, alors on voit bien que l’accumulation de tâches secondaires, non directement liées à ses capacités de chercheur (tâches administratives, tâches d’évaluation, rapports, rédaction de projets, tronçonnage excessif des publications pour faire « du chiffre », etc.) va nécessairement se faire au détriment de son travail d’exploration. Voir à ce sujet le témoignage de Marco Zito, physicien au Commissariat à l’Énergie Atomique : « Pris dans l’engrenage« . Il est essentiel pour bien prendre la mesure de l’ampleur du problème de rappeler les deux processus majeurs qui amputent aujourd’hui régulièrement des pans entiers au temps que les chercheurs peuvent consacrer à leur exploration.

      1. La surenchère de création de structures qui a sévi dans la dernière quinzaine d’années a eu des conséquences dévastatrices sur notre capacité de recherche. On a vu foisonner dans les dernières années un nombre incalculable de structures liées à l’organisation de la recherche UMR, UPR, IFR, FDR, USR, COMUE, PRES, Pôles d’excellence, Instituts Carnot, Alliances, LABEX, IDEX, EQUIPEX, Fondations, pôles de compétitivité, projets d’avenir, etc. La liste est longue.  Toutes ces structures s’empilent en un écheveau émergent d’une grande complexité où se multiplient à l’infini les tâches administratives des chercheurs qui appartiennent souvent à nombre d’entre elles. Le système s’étouffe de lui même, au point que l’académie des science a adressé à la sphère politique  des recommandations d’urgence pour simplifier du système et qui sont pour le moment pour l’essentiel restées lettre morte. (Voir son rapport.)
      2. Depuis une vingtaine d’années, les chercheurs consacrent de plus en plus de leur temps dans des processus compétitifs à l’échelle nationale et européenne pour obtenir des moyens de recherche. Cette stratégie peut inciter les collaborations entre équipes de recherche et fournir des compléments de moyens pour réaliser des projets innovants. Pourtant, poussée trop loin, elle est simplement naïve et dangereuse pour l’ensemble du système car elle détourne de façon significative les chercheurs de leur travail d’exploration (voir par exemple l’article de John Ionnadis dans la revue Nature).
    • Principe de complétude exploratoire
      Il est essentiel d’encourager les chercheurs à explorer tous les compartiments de l’espace inconnu qui nous entoure (et non seulement une partie de celui-ci). C’est cette complétude du balayage de l’espace de recherche qui peut garantir la meilleure efficience des découvertes (comme pour les fourmis). Ce mouvement d’exploration systématique prend sa source à l’échelle des équipes de recherche : il est l’équivalent du déplacement aléatoire des fourmis. Il n’est pas dirigé par une instance supérieure qui prétendrait savoir où chercher. C’est lui qui garantit la performance de découverte de l’ensemble du système. L’alternative est de laisser un individu ou un groupe décider pour la nation de ce qui est le plus prometteur en matière de retombées sociétales. Or, il est extrêmement difficile à quiconque de prédire dans quel domaine vont être faites les prochaines découvertes les plus significatives pour la société. Un exemple célèbre est celui de la vaccin contre la rage, ou celui de la découverte de pénicilline en médecine, d’autres sont ceux des découvertes de la radioactivité en physique, de l’invention des transistors en électronique, ou plus récemment celle du Web par exemple dans les sciences du numérique.
    • Principe de compétence des acteurs
      La nature de l’espace à explorer même exige que les chercheurs aient reçu une formation très spécifique. Il s’agit d’être capable de se déplacer dans ce monde des idées et de l’expérimentation. Ce type de « déplacement » exige une formation pointue, qui permette de reconnaitre les endroits où d’autres sont déjà passés, de trouver de nouvelles pistes (idées ou expériences) et de les mettre en œuvre. L’étape ultime de cet apprentissage est celle du doctorat. L’idée est qu’un jeune chercheur travaille pendant plusieurs années sur un sujet de recherche, et mette pour la première fois à l’épreuve du réel les compétences acquises au cours de sa formation théorique. Aujourd’hui, le temps de cet apprentissage a été réduit uniformément quelques soient les universités et les matières à 3 ans. Tous les financements sont obtenus pour cette durée. Les écoles doctorales au sein des universités sont évaluées sur leur capacité à faire respecter ces délais. Ceci est absurde.  Il est intéressant de noter qu’il en va tout autrement outre-Atlantique et que la durée d’une thèse peut être largement variable en fonction des cas. En revanche, il est essentiel de considérer ces jeunes chercheurs pendant toute leur période d’apprentissage comme des chercheurs à part entière et de les rémunérer en conséquence.
    • Principe de masse critique
      Le nombre de chercheurs doit être suffisant pour explorer l’espace accessible à la découverte. Ce point est également une pierre angulaire de tout le dispositif. Il se heurte aujourd’hui à deux difficultés. Il s’agit tout d’abord d’une crise des vocations et d’attractivité. Devant la grisaille des horizons qu’offre notre société, les jeunes sont de moins en moins attirés par un métier dont on ne sait plus bien ce qu’il constitue comme repère. Pour vouloir devenir un explorateur, il faut avoir envie de rêver le monde, d’inventer de nouveaux chemins, d’être convaincu que l’inconnu recèle un passage, une beauté cachés. Ce rêve est aujourd’hui comme un drapeau en berne. Il faut le raviver, susciter l’intérêt des plus jeunes pour le métier de chercheur, les faire rêver de leurs rêves. La recherche doit venir à leur contact, leur parler, les émerveiller, leur montrer la valeur intrinsèque de la connaissance et le plaisir de chercher. Il faut, au-delà encore, que notre espace de recherche national attire les esprits scientifiques étrangers, ou favorise le retour de chercheurs français un temps expatriés, et que tous aient l’ambition de faire ou de poursuivre leur parcours exploratoire sur un territoire fertile et stimulant. A l’attractivité scientifique, il faut adjoindre une attractivité financière. Si en général les chercheurs ne travaillent pas pour devenir riches, ils sont en revanche très sensibles à la reconnaissance que leurs collègues ou que la société pour laquelle ils travaillent leur témoignent. Le salaire est l’une des formes importante de cette reconnaissance. Enfin, pour atteindre une masse critique à la fertilité des découvertes, jouer sur les leviers des vocations ou de l’attractivité ne suffit pas. Il faut également qu’en fonction de sa taille la société se dote d’une densité d’explorateurs suffisamment importante pour répondre à ses attendus en matière de progrès, d’innovation, de compétition et d’adaptation.

    La recherche n’est bien sûr ni un bien ni un mal. Elle est la condition même de l’évolution de notre société. Il est essentiel que la société civile et les hommes et femmes politiques perçoivent cette réalité au delà des formes. Ainsi, l’exemple de l’organisation de l’exploration d’un territoire par les fourmis nous permet de prendre du recul sur la nature même et la fonction de l’activité de recherche dans nos sociétés. La comparaison de chercheurs à des fourmis, si elle est flatteuse pour les fourmis, n’en est pas moins utile pour analyser les enjeux derrière cette activité humaine très particulière, et finalement vitale à l’échelle de notre civilisation. C’est en reconnaissant la composante collective du travail de recherche que nous pourrons prendre les décisions adaptées à la manipulation de cet instrument complexe, mais tellement puissant si l’on s’en sert avec intelligence. Certains chercheurs, talentueux, audacieux et parfois chanceux (ou tout à la fois), vont être sous le feu des projecteurs. Et c’est très bien, car la société peut à travers eux prendre connaissance des fruits de l’immense effort consenti par tous : les contribuables, les entreprises qui investissent dans la recherche et les chercheurs eux-mêmes. Ils sont portés derrière eux par l’ensemble de la fourmilière des éclaireurs. Si la société a retenu le mot « chercheur » plutôt que celui de « trouveur », c’est bien qu’elle reconnait profondément la valeur essentielle de l’acte de chercher en soi ! Il ne nous reste qu’à accompagner dignement cette sagesse collective.

    … Vous rêviez de trouver ? J’en suis fort aise :
    Et bien ! Cherchez maintenant.

    Christophe Godin, Inria

    Pour aller plus loin

    • Quelques chiffres utiles sur la recherche française: « La dépense intérieure de recherche et développement s’élève à 45 milliards d’euros en 2011. Au total, 543 000 personnes participent à une activité de recherche en France dont 249 100 chercheurs (en équivalent temps plein). On compte 148 300 chercheurs dans les entreprises et 100 800 dans le publicEn 2012, la dépense intérieure de recherche et développement (DIRD) s’établit à 46,5 milliards d’euros, en hausse de 1,9 % en volume par rapport à 2011. »  rapport du Ministère de l’enseignement et de la recherche.
      Si l’on passait au même chiffre que l’Allemagne par exemple cela correspondrait à 60 milliards d’euros au lieu de 46.5 milliards d’euros en France, et 73 milliards d’euros si nous avions une politique similaire à la Finlande (soit 26 milliards d’euros en plus des 46.5 milliards d’euros du budget français R&D 2012).
      Comment déterminer alors la masse critique de chercheurs efficace pour une nation ? Il y aurait une étude complète à développer sur ce thème. Une solution pragmatique consiste à se reposer sur l’expérience comparée des différents pays. Par exemple, les chiffres donnant le pourcentage du PIB national utilisé pour la recherche et le développement par différents pays nous permet de faire une première estimation de cette densité. Par exemple, l’Espagne consacre 1.30% de son PIB à la recherche et au développement, l’Irlande 1.72, Royaume Uni 1.72, Pays-Bas 2.16, France: 2.26,  Etats Unis: 2.79, Allemagne: 2.92  Danemark: 2.98, Japon 3.39, Suède 3.41, Finlande: 3.55,  Israël: 3.93, Corée 4.05, Moyenne mondiale: 2.21 (ref  Banque Mondiale – dépenses en recherche et développement en % du PIB données 2012– ). Pour un pays comme la France, ce chiffre correspond actuellement à environ 100 000 chercheurs dans le secteur public. Un point supplémentaire (ce qui nous positionnerait à peu près au niveau du Japon) correspondrait à un investissement supplémentaire d’environ 20 milliards d’euros dans la recherche et le développement et 43 000 chercheurs supplémentaires (en supposant par exemple simplement que le nombre de chercheurs du public croit proportionnellement au PIB investi dans la recherche).
  • La nuit de l’info 2014

    Et voilà, la 7ème édition de la nuit de l’info s’est terminée le vendredi 5 décembre 2014 à 8h04 sur un nouveau record de participation avec plus de 2900 étudiants.

    Cette année, en lien avec l’actualité, les étudiants avaient à leur disposition toute une nuit pour inventer un système d’information a vocation humanitaire. C’était pour eux l’occasion de mettre leurs compétences au service des autres, dans un monde en crise où l’informatique pourrait être utilisée pour aider des populations en péril. Les scénarios sur lesquels ils ont travaillé permettraient d’aider les zones victimes d’épidémies ou de crise sanitaire, des réfugiés de guerre à la recherche de leurs proches, ou encore les ONG en charge des campagnes de prévention dans les zones à risques.

    Et cette année encore, les organisateurs de la nuit ont su répondre présent avec probablement l’un des plus beaux thèmes depuis le début de l’évènement : « UNE NUIT POUR INVENTER LES SYSTÈMES D’INFORMATION HUMANITAIRES DE DEMAIN »

    Les équipes, au nombre de 337, se sont affrontées dans ce challenge festif autour de l’informatique. Pendant toute la nuit, ils pouvaient répondre aux défis lancés par les nombreux partenaires industriels, pour tenter de décrocher les cadeaux associés. Défi du projet le plus surprenant, défi de la meilleure modélisation, il y en avait pour tous les gouts ! Chaque partenaire industriel, porteur de défi, amène dans la Nuit son cœur de métier, et défie les participants sur des problématiques qui lui sont chères, comme l’ergonomie ou encore la prise en compte du handicap.

    Mais la Nuit c’est plus que ça.  C’est avant tout un lieu de rencontres, d’échanges, de discussions où les entreprises partenaires viennent conseiller et soutenir les étudiants tout au long de la nuit. C’est l’occasion pour chacun de se faire remarquer, dans une ambiance festive : difficile d’imaginer dans un autre contexte de pouvoir discuter de développement logiciel avec un directeur d’agence alors que l’on est déguisé en panda ! La Nuit est aussi une formidable opportunité pour décrocher un stage ou un emploi auprès des entreprises soucieuses de faire connaitre leur nom mais aussi de repérer les petits génies de demain.  C’est une occasion unique où les étudiants de tous niveaux (DUT, Licence Pro, Master ou Ingénieur) éprouvent leurs compétences et sont confrontés à des exigences professionnelles sur une période inhabituelle.

    N’hésitez pas à consulter le site de la Nuit de l’info pour plus d’information. Qui sait, peut-être participerez-vous à l’édition 2015 ?

    Gaëtan Rey et Sébastien Mosser

  • Osons les cours d’informatique à l’école

    Tout le monde s’accorde (ou presque) pour dire que l’informatique est indispensable. En revanche, il y a un point qui fait frémir : quels cours supprimeriez-vous pour l’enseigner ? Retrouvez la tribune sur Slate.fr datée du 8 décembre 2014 de Colin de la Higuera, président de la Société Informatique de France (SIF) et Gilles Dowek, président du conseil du scientifique de cet espace de réflexion, de concertation sur les enjeux de l’informatique qu’est la SIF.

     

  • Barbie est moins conne qu’on le dit

    Barbie est moins conne* qu’on le dit.
    Barbie is ultimately not that a dummy**.

    Lorsque Casey Fiesler, Doctorante en Sciences Informatiques, a vu les fils de ces média sociaux déborder d’indignation à propos de l’incommensurable maladresse de la bande dessinée « Barbie: I Can Be a Computer Engineer » elle a fait une chose tout à fait constructive et utile pour toutes et tous nos enfants. Elle a réécrit ce qu’aurait du être une telle histoire. Et met en partage « Barbie, remixed : je peux (vraiment !) être ingénieure en informatique ». Un auteur du blog voisin bigbrowser.blog.lemonde.fr nous explique sa démarche.

    À notre tour*** d’aider parents et enfants à ne pas être victimes de tels poncifs. À réaliser que nous avons besoin des deux moitiés de l’humanité à égalité pour avancer au mieux sur tous les sujets. Voici la version française, à lire, offrir et partager sans modération ! Même la Mère ou le Père Noël pourrait glisser ces huit feuillets au pied du sapin.

    Barbie revisitée : « Je peux être ... ingénieure en informatique »

    Colin, Marie-Agnès, Pierre, Serge, Sylvie et Thierry.


    (*) Ici dans le sens de femme sotte, manquant d’intelligence et éventuellement prétentieuse.

    (**) [english traduction of this text] When Casey Fiesler, PhD student in Computer Science, discovered that her social media feeds have been full of outrage over the unboudned awkwardness of the comic « Barbie I Can Be a Computer Engineer » she simply did the constructive and useful think to do. For all small girls and boys: She rewrote what should have been such a story, i.e., « Barbie, remixed: I (really!) can be computer engineer« , as explained on bigbrowser.blog.lemonde.fr.
    It is our turn to contribute, helping parents and children not to be victims of such cliches. To help realizing that we need the two halves of humanity equaly treated to get the best on all subjects. Here is the French version of Casey’s work, to read, offer and share without moderation! Even Mother or Father Christmas can put some of them under the Christmas tree !

    (***) La traduction du travail de Casey Fiesler a été faite par Provence Traduction avec le soutien d’Inria .

  • Un algorithme : PageRank de Google

    Que se passe-t-il si on cherche Michael Jackson  sur Google ? On voit apparaître des liens vers des pages concernant le chanteur : sa vie, ses photos, ses clips, sa famille, ses fan clubs, sa mort, etc. Tout cela nous paraît bien logique a priori. Mais si l’on creuse un peu, cela devrait nous intriguer. Après tout, il y a des millions de pages avec la chaîne de caractères « Michael Jackson » sur le Web. Pourquoi Google ne nous propose rien sur Michael Jackson menuisier à Dallas ? Ou Michael Jackson professeur de chant à San Francisco ? Si vous étiez ce menuisier, vous pourriez même être outré de ne voir aucun lien vers une page qui parle de vous, alors que vous en avez publié des dizaines, en y incluant à chaque fois votre nom. Pourquoi de telles injustices ?

    En fait, Google propose des liens sur les pages du chanteur, car il suppose que c’est le chanteur qu’un internaute va chercher. Et il y a une forte probabilité que ce soit le cas… le plus souvent. Mais comment Google peut-il savoir qu’il y a une forte probabilité qu’un internaute recherche en général le chanteur plutôt que le menuisier ?

    Google ne le sait pas. Ce que Google sait, par contre, c’est que parmi toutes les pages qu’il gère et qui parlent de Michael Jackson (d’un certain Michael Jackson), celles concernant le chanteur sont les plus « importantes » (comprenez les plus « populaires »). La notion d’importance est mesurée par un algorithme, un de plus, parmi ceux qui régissent notre vie quotidienne.

    L’algorithme PageRank, inventé par Sergeï Brin et Larry Page, les deux fondateurs de Google, s’inspire des travaux de Jon Kleinberg d’IBM. PageRank était à l’origine du classement des résultats du moteur de recherche Google. Aujourd’hui, plus de deux cents autres critères sont utilisés pour classer ces résultats. La recette est secrète, ce qui ouvre la porte à toutes sortes de spéculations sur ce classement. Est-il vraiment neutre au sens de la neutralité des plateformes du Web ?

    Nous allons parler ici de l’algorithme PageRank original, dans une version très simplifiée, pour le rendre accessible à des non-informaticiens. Avant de se lancer dans sa description, il est important de savoir que PageRank travaille sur des pages indexées par des mots-clés, comme les mots « Michael » et « Jackson », des pages qui sont donc susceptibles d’être proposées à des utilisateurs comme réponses à une requête « Michael Jackson ». À l’heure actuelle, Google indexe près de 1012  pages. Il en indexait 109 en 2000. On est encore loin du 10100 : le fameux nombre « googol » qui a inspiré son nom à la société.

    En gros, PageRank calcule périodiquement l’importance relative des pages indexées sous forme d’un score. Lorsqu’on soumet une requête à Google, il nous affiche celles qui ont le score le plus élevé (id est celles du chanteur) parmi celles qui correspondent à cette requête (par exemple parmi toutes les pages connues du moteur de recherche contenant les mots  « Michael » et « Jackson »).

    Pour calculer le score des pages, PageRank se base sur les liens entre ces pages. En effet, chaque page cite un certain nombre d’autres pages : elle a des liens vers ces pages. Quelqu’un qui se trouve pendant sa navigation sur une page p peut y trouver un lien vers une page q et y aller directement. C’est ce qui se passe quand, dans une page Wikipedia sur PageRank, on rencontre un lien vers la page de Larry Page.

    L’idée de PageRank est de représenter le score d’une page p par la probabilité qu’un utilisateur qui se baladerait « au hasard » dans une bibliothèque constituée de toutes les pages du Web se retrouve sur la page p.  Cette probabilité est d’autant plus grande que :

    1. Il y a de nombreuses pages q qui ont des liens vers p ;
    2. Ces pages q ont elles-mêmes un score important (on a une forte probabilité de tomber sur elles) ;
    3. Ces pages q ont peu de liens vers d’autres pages qui pourraient distraire notre attention.

    Une manière de synthétiser (1), (2) et (3) est de faire la somme des scores des pages q ayant un lien vers p en divisant chacun par le nombre de liens sortant de q. Ainsi, en première approximation, si l’on représente par liens (q) le nombre de liens sortant d’une page q :
    Score(p) = Somme(Score(q)/liens(q))
    – pour toutes les pages q ayant un lien vers p

    Intuitivement, c’est comme si chaque page avait un certain nombre de votes, représenté par son score, et qu’elle pouvait partager ses votes entre toutes les pages qu’elle référence. Considérons le petit dessin ci-dessous représentant quatre pages : q ayant un lien vers p et p’ et q’ ayant un lien vers p’. Supposons par ailleurs que les scores de q et q’ sont 1.  On aura : Score(p) = 0.5 et Score(p’) = 1.5.

    En fait, l’algorithme PageRank prend aussi en compte le fait qu’un utilisateur qui se balade dans la bibliothèque peut aller directement d’une page à une autre sans passer par des liens, un peu comme s’il se téléportait par-dessus les murs de la bibliothèque. Plus précisément, PageRank relativise le score ci-dessus en le multipliant par un facteur d’atténuation d entre 0 et 1, auquel il rajoute (1-d) pour avoir une probabilité. Le facteur d’atténuation est pris par exemple 0.85.  Ainsi :

    PageRank(p) = 0.15 + 0.85 * Somme(PageRank(q)/liens(q))
    – pour toutes les pages q ayant un lien vers p

    Comme on calcule le score d’une page en fonction de scores d’autres pages, il est légitime de se poser la question : comment ont été calculés les scores des pages initiales q et q’ ci-dessus ? PageRank prend la même valeur pour toutes les pages du Web. Ensuite il applique les équations ci-dessus pour toutes pages. Il s’arrête quand les valeurs ne changent plus.

    On vous a caché des tas de détails. On pourrait dire pour vous effrayer qu’on calcule le « point-fixe d’une équation matricielle avec une matrice avec des milliards de lignes et de colonnes ». Plus prosaïquement, imaginez qu’il faut calculer plusieurs fois la fonction ci-dessus pour les milliards de pages indexées. C’est un gros calcul ? Non ! C’est vraiment un très, très… très gros calcul. Et il faut des tas d’ordinateurs pour le réaliser. Et ce n’est qu’une des fonctions d’un moteur de recherche…

    Rachid Guerraoui, professeur à l’Ecole polytechnique fédérale de Lausanne

    (*) Pour en savoir plus en vidéo: http://wandida.com/en/archives/571

  • Les blagues sur l’informatique #11 : parallélisme et maternité

    Après une longue pause, voici le retour des blagues (et de leurs explications, bien sûr !).
    Une blague d’informaticiens que vous ne comprenez pas ? Un Tee-shirt de geek qui n’a aucun sens pour vous ? Binaire vous explique l’humour des informaticien(ne)s!

    Neufs femmes ne peuvent pas faire un bébé en un mois.

    Cette citation attribuée à Fred Brooks montre la limite du parallélisme : si neuf femmes en travaillant pendant un mois chacune peuvent produire, par exemple, neuf mois de travaux scientifiques, et bien pour faire un bébé … difficile de paralléliser !

    En informatique aussi, le parallélisme consiste à utiliser plusieurs ordinateurs à la fois pour effectuer une tâche. Ce domaine de recherche permet d’accélérer significativement de nombreux programmes en se servant par exemple des cœurs d’un même ordinateur ou d’une grille de calcul de 5000 processeurs répartis dans des ordinateurs connectés par Internet.

    Parmi les grandes réalisations, le projet scientifique national GRID 5000 a pour objectif de ne faire qu’une seule machine avec 5000 processeurs mis en réseau sur 10 sites en France.

    Machine GRID 5000
    Machine GRID 5000
    © Inria / Photo C. Lebedinsky

    Mais on sait aussi que tout ne se parallélise pas : certains algorithmes sont tels que les calculs dépendent obligatoirement des calculs précédents, donc il faut attendre ces derniers et paralléliser ne sert à rien. On peut  essayer de changer d’algorithme, quitte à calculer plus (pour aller plus vite), mais ce n’est pas toujours possible.

    Vous voulez en savoir plus ? L’article de votre boulangerie à un système d’exploitation multiprocesseur, et ce document sur la gestion de la mémoire qui devient le goulot d’étranglement, bien plus que la puissance des machines vous aideront à aller plus loin que cette blague d’informaticien.

    Sylvie Boldo.

  • Choisis ton camp camarade !

    Mozilla, c’est un petit coin de liberté dans l’océan commercial numérique. Mais il ne faut pas se tromper : de tels havres sont indispensables pour éviter que l’écosystème ne dérive. À l’occasion de l’anniversaire de Mozilla, Binaire donne la parole à Tristan Nitot.

    nitot-rayclid-binaire@rayclid

    Tristan nous explique pourquoi, avec les téléphones intelligents, nous sommes en train de revivre la guerre des Operating Systems et pourquoi il va falloir choisir son camp. Binaire a choisi, le camp de Tristan, celui de Mozilla…

    Joyeux anniversaire Mozilla !

    annivGâteau d’anniversaire Firefox

    Il y a quelques jours, Mozilla fêtait les 10 ans de son logiciel Firefox, et un ami me demandait si développer un navigateur Web était toujours un problème d’actualité. Après tout, expliquait-il, le futur de l’informatique se joue sur les smartphones et leurs applications, pas sur les PC ni sur le Web, une technologie qui vient de fêter ses 25 ans. La vraie question aujourd’hui, est de savoir s’il faut un iPhone de chez Apple ou un Android de chez Google, souvent fabriqué par la marque Samsung.

     tnTristan Nitot © Christophe Rabinovivi – photographe@rabinovici.fr

    C’est alors que j’ai réalisé à quel point l’histoire à tendance à se répéter, dans le domaine de l’informatique comme ailleurs… En effet, dans les années 1980, l’utilisateur  d’ordinateur personnel (le fameux PC) se posait la question d’acheter une machine Windows ou un Mac. De même, les informaticiens se demandaient s’il fallait écrire des logiciels pour Windows ou pour Mac, car bien entendu, ces deux systèmes étaient incompatibles entre eux.

    Dans les années 1990, avec l’arrivée des services en ligne comme AOL ou Compuserve, on se demandait aussi lequel il fallait choisir. Ils étaient bien entendu incompatibles entre eux.

    Et puis à la fin des années 1990, une invention étrange appelée « Web » a changé toute la donne : peu importait Mac ou Windows, car si on avait un navigateur Web, on avait accès au Web. Le Web était dès le début « multi-plateforme », c’est à dire qu’il était prévu pour fonctionner sur tous les types d’ordinateurs. C’est même un de ses principes fondateurs. Son inventeur, Tim Berners-Lee était chercheur au CERN à Genève, et a inventé le Web pour que ses confrères scientifiques puissent partager des documents en s’affranchissant des incompatibilités entre ordinateurs.

    Le Web eu un effet comparable pour les services en ligne : pourquoi se limiter à un service ou à un autre, puisque le Web était universel ? Du coup, les services en ligne se sont vites transformés en fournisseurs d’accès à Internet (et donc au Web).

    Aujourd’hui, on accède aux grands services comme Facebook ou Google via un navigateur Web. Peu importe votre fournisseur d’accès à Internet ou la marque de votre PC (Mac ou Windows) ou le nom de votre navigateur Web : les développeurs écrivent des applications Web qui tournent sur tous les ordinateurs équipés d’un navigateur Web ; autrement dit, tous les ordinateurs.

    Pourtant, en 2014, on voudrait nous faire croire que pour ces petits ordinateurs tactiles qui tiennent dans la poche et qu’on appelle « smartphones », le problème est différent : il va falloir choisir son camp.

    Ne nous laissons pas succomber aux sirènes du marketing. Le Web a évolué ces dernières années, et il est capable de faire tourner des applications mobiles, des « apps », tout aussi performantes que des applications dites natives, c’est à dire spécifiques à un genre de téléphone.

    On aimerait nous faire croire le contraire, car cela pousse les consommateurs à une fidélité forcée au fabricant de leur smartphone : une fois qu’on a acheté pour des dizaines ou des centaines d’euros d’applications, et qu’on y a stocké toutes ses données personnelles, le coût de changer de système devient très élevé. Ah! Voilà un problème qu’on n’avait pas anticipé en entrant dans la boutique de téléphonie mobile et en choisissant le smartphone sur des critères souvent esthétiques ou par recommandation de proches. On pensait se faire plaisir avec une décision anodine, et nous voilà coincé, marié presque, à une marque de smartphone !

    C’est là qu’il faut avoir en mémoire les leçons de l’histoire de l’informatique… Si on n’utilise que des applications Web, il est alors facile d’utiliser ces applications sur tous types de smartphones et même d’ordinateurs, et nos données suivront.

    Tout le monde a intérêt à ce que le Web devienne l’outil de référence sur smartphone comme il l’est sur PC. Tout le monde, sauf les 2 ou 3 grosses sociétés américaines qui fabriquent des smartphones, trop contentes de coincer — pardon, de fidéliser — malgré eux des centaines de millions de clients.

    Il existe déjà un système pour smartphone qui fonctionne sur les principes du Web, il s’agit de Firefox OS. Il est pour l’instant destiné aux smartphones d’entrée de gamme car il est encore jeune, mais il monte progressivement en gamme. Malgré sa jeunesse, il pourrait bien être l’avenir du smartphone, et ceux qui ont compris les leçons de l’histoire de l’informatique le comprendront avant les autres.

    Tristan Nitot, fondateur de Mozilla Europe,
    « Principal Mozilla Evangelist », membre du Cnnum, @nitot

    5566851825_975635bdf9_bTristan sur sa Royal Enfield Bullet 500 EFI Classic
    Auteur : Fab. krohorl.free.fr/

     

  • Interstices fait peau neuve !

    Vous ne connaissez pas )i(nterstices ? C’est une revue de culture scientifique en ligne, qui vient d’avoir 10 ans ! Vous trouverez des podcasts, des jeux, des idées reçues et des articles de tous niveaux sur les sciences du numérique. Bref, des ressources pour les scolaires et pour les autres, écrites par des chercheurs pour vous !

    Vous connaissez )i(nterstices ? Eh bien, il faut y retourner car le site d’interstices vient de changer ! Pour ses 10 ans, le nouveau site est plus moderne et fait la part belle aux témoignages des lecteurs. Et en plus, les super contenus sont toujours là !

    Logo Interstices

    Mes préférés ? L’abécédaire et les podcasts. Et puis les jeux et les animations, et puis la nouvelle rubrique L’informatique – ou presque – dans les films, et puis…

    Bref, interstices nouveau est arrivé. Binaire salue sa re-naissance en lui souhaitant autant de succès pour les 10 prochaines années !

    Sylvie Boldo

  • Pixees, le monde numérique à portée de clic

    Vous en avez marre qu’on vous rabâche les oreilles avec des notions d’informatique ou de numérique, que l’on vous dise « Ah oui, mais c’est hyper important pour le monde d’aujourd’hui », alors que vous ne comprenez même pas pourquoi ? Et bien voici un moyen efficace et intéressant de comprendre ces notions.

    pixees-4Pixees, un site Inria, de la SIF (Société Informatique de France) et de Pasc@line (Association des Professionnels du Numérique) avec plus d’une vingtaine de partenaires, dédié à la médiation scientifique…

    Pixees, une solution pour décoder le monde du numérique

    La médiation… ?! D’accord ! On part déjà trop loin ? Et bien disons simplement que ce site regroupe toute sorte de supports pour nous initier aux notions d’algorithmes, à la représentation de l’information, à l’histoire de l’informatique, etc. C’est à travers des conférences, des vidéos, des interviews, des documentaires, des jeux, et on en passe, que nous pouvons nous documenter, et même apprendre à apprendre aux autres.

    pixees-2En effet ce site a été réalisé pour toute personne du niveau le plus sobre au plus élevé. Que nous soyons parent, élève ou étudiant, professeur, ou bien simplement curieux, ce site est fait pour nous. Des méthodes sont là pour vous accompagner pas à pas, par exemple pour expliquer à l’enfant comment utiliser et s’approprier ces machines omniprésentes au quotidien dans notre société : ordinateur, tablette ou smartphone… et au-delà de l’usage,apprendre également à créer grâce à elles.

    Peur de ne pas être à la hauteur ? De ne pas comprendre les articles ? Pas d’inquiétude, ils sont indexés et de multiples définitions sont là pour nous secourir en cas de problème.

    Spécial profs : profitez de la culture numérique en live.

    Cela tombe à pic, au moment où l’enseignement des fondements du numérique entre au collège et en primaire (on parle parfois de « codage », mais au delà de l’apprentissage de la programmation, il y a la construction d’une culture scientifique indispensable à la maîtrise du numérique).

    pixees-3Selon le lieu où on se trouve en France, il y a la possibilité de faire venir dans son établissement une ou un chercheur. Pixees propose différents types d’interventions, telles que des animations et/ou des conférences, consultables sur le site et répertoriées géographiquement sur la carte de France de tous les partenaires du projet.

    Vous préférez un contact direct de visu ? Cela tombe bien, car notre bureau en ligne est ouvert à partir du 8 septembre les mercredis et jeudis de 14h00 à 17h00. Vous n’aurez ensuite plus qu’à lancer la connexion en cliquant sur l’image affichée. Nous contacter par mail, téléphone, Twitter ou en remplissant un formulaire numérique est aussi possible.

    Le partage et la co-construction avant tout

    Pixees n’est évidemment pas réservé qu’aux enseignants, animateurs d’activité extra-scolaire ou parents. Le bureau en ligne est destiné à tous les futurs et bienvenus inconditionnels du site qui souhaiteront participer à cette aventure.

    En plus, Pixees peut vous répondre en anglais, espagnol, italien, allemand et en d’autres langues, grâce à notre bureau en ligne international. Certaines ressources sont mêmes déjà traduites.

    Pixees ou le mouvement perpétuel

    pixees-1Ça y est, mordu de Pixees ? N’oubliez alors pas de suivre son actualité et ses évolutions de publications et d’interventions. N’hésitez surtout pas à faire part de vos idées et remarques, afin que ce site évolue selon vos besoins.

    Un dernier argument pour vous montrer que ce site est celui de toutes et tous ? L’une de nous est une jeune prof de langues, l’autre une étudiante en communication. Aider à construire et nourrir Pixees a été notre job d’été. On en a profité pour découvrir plein de choses bien utiles dans notre vie quotidienne, dans le monde numérique. Et aussi des choses «inutiles» mais passionnantes pour avoir une meilleure vision de cet univers-là.

    Alice Viéville et Juliette Calvi

  • Un algorithme : EdgeRank de Facebook

    On n’arrête pas de vous dire que les algorithmes ont de plus en plus d’importance dans votre vie quotidienne. Vous êtes capable de comprendre comment Philae a fait pour atterrir sur la comète «Tchouri», mais vous ne seriez pas capable de comprendre comment ils fonctionnent ? Allons donc ! Binaire a demandé à un ami, Rachid Guerraoui, professeur à l’École Polytechnique Fédérale de Lausanne, de nous expliquer l’algorithme EdgeRank qui d’une certaine façon participe à votre vie sociale. N’hésitez pas à demander à Binaire des explications sur d’autres algorithmes.

    En préambule, si vous n’êtes pas familier de Facebook, ce réseau social qui est aussi le deuxième site web le plus visité au monde (après Google), nous vous conseillons d’aller lire la page de wikipedia qui l’explique en détail ou d’aller prendre 10 minutes pour consulter cette vidéo.

    edgerank-binaire-rayclid© Ray Clid

    Si vous êtes adepte du réseau social Facebook, vous aurez sans doute remarqué que toutes les activités concernant vos « amis » n’apparaissent pas dans votre fil d’actualité. Mais comment Facebook fait-il le tri? Pourquoi Facebook decide t-il d’afficher telle actualité plutôt que telle autre ? Ces décisions sont prises par un algorithme,  un parmi ceux qui régissent notre vie quotidienne aujourd’hui.

    Cet algorithme s’appelle EdgeRank. Le principe de cet algorithme n’est pas sorcier. Si on omet certains détails, en particulier de mise en oeuvre et d’optimisation, on peut l’expliquer de manière assez simple.

    Avant de décrire son fonctionnement néanmoins, quelques éléments de contexte.

    A la base, Facebook avait pour objectif de connecter les étudiants de l’Université de Harvard. Aujourd’hui, Facebook connecte près d’un milliard d’utilisateurs. Facebook permet à chacun de partager en temps réel toutes sortes d’informations avec ses “amis”: des notes décrivant ses états d’âme ou ses activités quotidiennes, des photos, de la musique, des recommandations pour des livres, des liens vers des articles de journaux, etc.

    En gros, chaque utilisateur possède deux espaces: un espace qu’il utilise pour décrire les informations qu’il souhaite partager, ses posts, et un espace dans lequel il voit défiler les posts partagés par ses amis.  Ce second espace est parfois appelé fil d’actualité.    L’algorithme EdgeRank fait une sélection radicale parmi tous les posts des amis d’un utilisateur Bob pour en afficher en moyenne 10% sur le fil d’actualité de Bob. D’une part EdgeRank fait cela pour ne pas inonder Bob d’informations qui disparaîtraient en une fraction de seconde à cause de leur trop grand nombre.  D’autre part EdgeRank filtre les informations afin que Bob trouve son fil d’actualité suffisamment intéressant pour rester connecté et être actif à son tour.  Plus il y a de personnes connectées et plus Facebook peut monnayer son support publicitaire. edgePour chaque utilisateur Bob, EdgeRank  détermine le score des posts partagés par les amis de Bob : plus le score d’un post p est élevé et plus B devrait trouver p intéressant.  EdgeRank affiche les posts dont les scores pour Bob sont les plus élevés.

    En première approximation, le score pour un utilisateur Bob, d’un post p émis par une utilisatrice Alice, correspond au produit de trois variables:  a * t * f.

    • La variable a désigne l’affinité d’Alice par rapport à Bob. Plus Bob  à l’habitude d’aimer ou de commenter des informations postées par Alice, voire d’envoyer des messages à Alice, et plus a sera grand.
    •  La variable t représente le poids du post. Une longue note, une photo ou une vidéo ont plus de poids qu’un petit commentaire par exemple.
    • La variable f représente la fraîcheur du poste: plus un post est ancien, plus diminue. Donc la priorité est donnée aux posts les plus récents.

    Il est important de remarquer ici que la notion de score est relative. Le score d’un post p posté par Alice peut être différent pour deux amis d’Alice, Bob et Jack. Cela peut s’expliquer par le fait que Bob soit un admirateur d’Alice mais pas Jack. Par ailleurs, la  notion d’affinité, sous-jacente au calcul d’un score, est asymétrique. Le fait que Bob  soit un admirateur d’Alice n’implique pas l’inverse. Ainsi, il se peut que les posts d’Alice soient systématiquement affichés sur le fil d’actualité de Bob et jamais l’inverse.

    En fait, EdgeRank ne fait pas simplement un produit, mais une somme de produits.  A chaque post p est associé un ensemble de liens. Le premier lien est celui de la création de p: il est généré par l’utilisateur Alice qui a partagé p.  A chaque fois qu’un autre ami Jack d’Alice souligne qu’il aime p ou le commente, un nouveau lien est généré par Jack : toujours concernant le post p. Si Jack est aussi un ami de Bob, il y a des chances que le lien qu’il vient de créer augmente le score du post p et le fasse apparaître sur le fil d’actualité de Bob.

    Plus un post p est “liké” ou commenté par des amis de Bob et plus p a de chances d’apparaitre sur le fil d’actualités de Bob. Cela explique parfois pourquoi on voit apparaître un « vieux » post sur son fil d’actualité.

    Chacun des liens sur p a donc un score qui correspond à un produit de variables a * t * f. Le score de p est la somme des scores des liens.

    Le nom de l’algorithme, EdgeRank, souligne le fait qu’il ordonne en fait des liens (vers des posts).

    (*) Pour en savoir plus une vidéo wandida

     

  • Comment semer quelques graines de sciences

    Graines de sciences est une Université d’automne pour les professeurs des écoles, organisée par la fondation « La main à la pâte ». On y  propose aux enseignants une formation sur des sujets scientifiques avec des ateliers qui les font participer de manière active. Depuis deux ans, cette formation inclut des ateliers sur les sciences du numérique, que l’éducation nationale aura à intégrer rapidement dans la formation des professeurs des écoles. Deux collègues du monde de la recherche en informatique témoignent.

    Les enseignants ont partagé leur expérience et les liens qu’ils peuvent tisser, entre ces grains de science et les enseignements qu’ils donnent déjà. Ils ont montrés comment ils peuvent adapter les contenus scientifiques qu’on leur propose pour les transmettre dans leurs classes. Bref, ils ont déjà ouvert la porte aux sciences du numérique dans leurs classes, mais parfois sans vraiment le savoir ! Petit retour sur ces liens qui ne demandent qu’à voir le jour…
    On parle ici de trois ateliers. Un atelier de robotique, un atelier d’informatique avec entre autres des activités débranchées et un atelier Scratch. Pour ce dernier, allons lire les retours de plus en plus nombreux que l’on peut trouver sur jecode.org (hélas encore trop limité à quelques enfants, puisque cantonné au domaine extra-scolaire). Ce billet va témoigner des ateliers « robotique » et « informatique ».

    retour_GDS_2014_DR_html_35209714
    Les enseignants, inspirés, proposent des messages autour de nos contenus

    Chaque atelier dure environ trois heures et concerne un groupe de dix enseignants. Le rôle des acteurs du monde de la recherche ? Faire de notre mieux pour leur expliquer nos sciences et discuter avec eux de ce qu’ils peuvent en retirer pour leurs classes. La limite ? Nous ne sommes pas en mesure de leur expliquer comment enseigner et comment faire passer des messages scientifiques dans les classes. Ce sont les enseignants les experts à ce niveau. Et cette démarche participative fait de Graines de sciences un enchantement.

    Les ateliers commencent par un tour de table, histoire de voir les attentes ou les appréhensions sur nos sciences et ce qui va se dérouler pendant l’atelier. Dans la majorité des cas, avec un peu d’inquiétude, la réponse est « Je suis curieux de voir comment on pourra expliquer le numérique aux élèves avec le contenu de cet atelier ». Mais vous verrez, une fois les ateliers faits : ils adorent et en redemandent. Le plus dur est donc de les amener à faire le premier pas.

    Pourtant ils ont conscience de l’ampleur que prend le numérique dans la vie des élèves et de la façon dont les enseignants peuvent les accompagner, pour que chacune et chacun ait les mêmes chances. Eh oui, ils en témoignent « Je les vois se servir de plus en plus de téléphones, ordis, tablettes, etc. mais ils sont utilisateurs et consommateurs… peut-on les aider à être acteurs et producteurs ? ». Gageons que, sans aller jusqu’à en faire des « acteurs ou producteurs », on pourra aider les enseignants à faire que les élèves deviennent des utilisateurs éclairés. Ce sera déjà pas mal. Enfin, une attente plus rare concerne la vie privée face à cette manipulation quotidienne et presque continue, sans réserve et sans précaution, d’outils qui les exposent publiquement.

    Dans ces ateliers, nous avons souvent demandé aux enseignants de jouer le rôle des élèves, histoire de reprendre des activités que nous connaissons et les appliquer directement avec eux. C’est une façon aussi de leur demander leur avis sur la façon de faire passer tel ou tel message. Nos contenus ont de nombreuses sources comme dessine moi un robot ou inirobot, la mallette « Sciences manuelles du numérique » initiée par Martin Quinson, l’ouvrage « Computer Science Unplugged » traduit en Français grâce à interstices, ou encore le site pixees qui contient une foule de ressources pour expliquer les sciences du numérique.

    Ah oui ! Nous vous avons promis de montrer des liens entre ces contenus et ce que les enseignants font déjà dans les classes. Alors allons-y !

    Les Thymio sauront-ils s’orienter dans ce labyrinthe ?

    Prenons l’exemple de la robotique avec le jeu du robot idiot. Ce petit exercice est très amusant et carrément facile à mettre en place avec un groupe d’enfants (de tous âges 🙂 ). Il s’agit de donner des instructions à un robot joué par l’animateur ou un autre enfant, et ce dernier va bien sûr oublier toute forme d’intelligence ou d’intuition pour appliquer scrupuleusement la liste d’instructions. Cette liste doit permettre d’atteindre un objectif (par exemple « sortir de la pièce ») et sera réduite à 3 instructions possibles comme « avance de X pas », « tourne d’un quart de tour à droite » et « tourne d’un quart de tour à gauche ». Cette activité, permet aussi de détendre un peu l’ambiance vu les « gamelles » que se prend le robot-animateur. Et cela montre combien on doit être précis dans ses instructions parce qu’il ne faut pas compter sur la machine pour être intelligente à la place de celui qui la programme. Nous voilà entrain de montrer le lien avec les sciences du numérique et là… Paf ! Une participante nous dit « Mais attends… moi je fais déjà un truc similaire avec ‘la carte au trésor’ ! ». Elle nous explique donc qu’il s’agit de découper un espace selon une grille, de fixer un point de départ et un objectif (le trésor) sur la grille et de trouver la séquence d’instructions qui permet d’atteindre le trésor. Tiens… un premier lien vient tranquillement de se tisser… et très facilement avec ça. A partir de là, cette enseignante sait qu’elle pourra parler d’algorithme au sens d’un enchaînement d’instructions qui permet d’atteindre un objectif. Mais elle peut aller encore plus loin sans difficulté. Par exemple, il lui est possible de modifier volontairement une instruction dans la liste… Ses élèves verront alors le résultat totalement faux sur le déplacement, et elle pourra expliquer qu’il y a un bug, avec plus ou moins de détails et d’explications, selon le niveau de la classe, et l’objectif pédagogique du moment.

    Le réglage des couleurs du Thymio

    Puisqu’on parle de robots, profitons-en pour voir quelques liens, avec la programmation de Thymio II qui faisait partie de l’atelier « robotique ». En voyant les possibilités de réglages du Thymio, comme par exemple la couleur de ses Leds, certains participants ont immédiatement réagi avec bonheur en disant que c’était un support idéal pour illustrer la palette et le mélange des couleurs. Et cette réaction se retrouve également quand il s’agit de faire jouer quelques notes à notre petit robot ludo-éducatif.

    Magic Makers et les machines de Rube Goldberg

    Puisque ces Thymio sont équipés de capteurs, les participants ont vu un lien très prometteur avec une activité qui se pratique souvent en classe. Ils ont suggéré que ces robots seraient de parfaits maillons dans la chaîne d’une machine de Rube Goldberg. Ces machines délirantes mettent en pratique la notion de réaction en chaîne et permettent d’étudier les transformations et transmissions de mouvements sur des séquences plus ou moins longues. D’après nos participants, il serait donc très intéressant d’ajouter un Thymio dans la séquence, avec une programmation adéquate de ses capteurs pour qu’il joue son rôle et permette à la séquence de continuer. D’ailleurs, cette idée des machines de Rube Goldberg est déjà employée par Magic Makers dans ses ateliers en famille grâce à des robots Légo équipés de capteurs.

    À leur grande surprise, les enseignants ont également vu des liens assez frappants entre ce qu’ils font déjà en classe et les contenus de l’atelier « informatique ». Il faut dire que le titre de l’atelier était « Informatique, algorithmique et cryptographie ». De quoi mettre la trouille à tout le monde ! En fin de compte, c’est plutôt une bonne chose. À leur entrée dans l’atelier, dans les yeux de certains participants, on pouvait voir la définition du mot « dubitatif ». Mais doucement, au bout de quelques minutes, quand l’algorithmique s’est faite avec 16 jetons, la correction d’erreur avec des cartes et un tour de magie, ou bien la cryptographie avec des boites en carton et des petits cadenas… l’’appropriation à des fins pédagogiques est devenue une évidence.

    Atelier titré ‘Informatique, algorithmique et cryptographie’ plus de peur que de mal en fin de compte..

    Cet atelier s’est tenu sous la forme d’une histoire… l’histoire de quelques uns des personnages qui ont contribué à nos sciences du numérique. Et cette histoire était régulièrement ponctuée d’activités débranchées, permettant de garder un rythme animé et de faire participer les enseignants de manière active. Voilà déjà un premier lien avec ce qui est enseigné par les participants puisqu’il s’agit d’un angle différent sur la façon d’aborder les cours d’histoire. Beaucoup sont repartis avec la ferme intention d’en savoir plus sur la vie de tel ou tel personnage. D’ailleurs, il nous semble que c’est Ada Lovelace qui a eu le plus de succès dans ce domaine.

    Les sciences du numérique : du raisonnement avant tout !

    Le jeu de Nim était la première activité de cet atelier. Très rapidement les participants ont pu faire le lien qui nous paraît le plus important avec leurs enseignements : « les sciences du numérique c’est du raisonnement ». Du raisonnement dans la mesure où il s’agit, par exemple, d’établir une stratégie gagnante pour un jeu (et on peut transposer facilement « stratégie gagnante pour un jeu » en « algorithme »). Mais aussi parce qu’il s’agit de bien étudier les conditions d’un problème avant de lui proposer une solution (« est-ce que je peux gagner si je commence ? » ou bien « est-ce que je peux gagner si le nombre de jetons au départ n’est pas un multiple de 4 ? »). Cet apprentissage et l’angle apporté par les sciences du numérique est donc capital non seulement en tant que matière, mais devrait aussi trouver son reflet dans la mise au point du programme et dans tous les domaines enseignés à l’école.

    Le nombre cible : de l’algorithmique sans le savoir.

    Après le jeu de Nim, et pour approfondir un peu la question des algorithmes, nous avons joué à trouver nos prénoms dans une liste. Une longue liste, contenant 105 prénoms, est affichée à l’écran pendant 3 secondes. Elle n’est pas triée. Après 3 secondes d’affichage, presque aucun participant ne sait dire si son prénom est dans la liste ou pas… Puis la même liste est affichée, mais triée cette fois, toujours pendant 3 secondes. Et là, par contre, presque tous les participants sont capables de dire si leur prénom est dans la liste ou pas. Ce petit jeu permet d’introduire l’algorithme de la dichotomie. On leur affiche ensuite une liste réduite dans laquelle on cherche un prénom pour illustrer le fait qu’à la première itération on enlève la moitié des données, ce qui simplifie le problème, puis on enlève encore la moitié de la moitié à la deuxième itération, puis… ainsi de suite. Et là… re-Paf ! Un participant nous dit « Mais attends, je viens de comprendre comment je devrais parler du nombre cible et de la file numérique avec mes élèves ! ». Euh… le nombre quoi, tu dis ? ? Nous demandons alors quelques détails et il nous explique le principe de ce jeu qui consiste à trouver un nombre entre 1 et 100, inscrit derrière le tableau. Bien sûr, sans stratégie, ça prend des heures. Alors on change le problème et il faut maintenant choisir un nombre X et poser la question « plus grand ou plus petit que X ? », ce qui renseigne le joueur et l’oriente dans sa recherche du nombre cible. Et là ça marche mieux mais c’est encore hésitant. On explique aux élèves qu’en prenant X au milieu de ce qui reste à explorer à chaque fois, alors c’est plus efficace. Ce participant nous dit enfin « Donc tu vois, je faisais déjà de la dichotomie sans le savoir ! ». En vérité, il faisait déjà de l’algorithmique sans le savoir. Et il est désormais mieux équipé pour expliquer pourquoi le fait de prendre le nombre « du milieu » c’est imbattable. Il n’aura pas forcément besoin de parler de complexité algorithmique, mais le terrain sera préparé pour les sciences du numérique.

    Photo @Marik. Le drap : « Après l’atelier il faut passer à la pratique ! »

    Certains participants sont même allés bien plus loin que trouver des liens avec ce qu’ils enseignent déjà. En particulier, une participante venait pour la deuxième fois et avait déjà ajouté des sciences du numérique dans sa classe après son premier Graines de science. Quel réconfort de l’écouter nous raconter comment elle a utilisé Computer Science Unplugged ou bien des activités débranchées auprès de ses élèves. Mais surtout, quel bonheur de discuter des activités présentées cette année et des modifications qu’on peut leur apporter. Par exemple, concernant le réseau de tri de Computer Science Unplugged, elle envisage de modifier le tracé de façon à le faire bugger volontairement et laisser ses élèves le réparer. Mais elle veut aller encore plus loin en utilisant cette activité au service de son enseignement existant. Comment ? Eh bien par exemple en leur demandant de trier des fractions (eh oui, comparer les fractions c’est en plein dans le programme). Et voici le drap qui va lui servir de support avec le réseau dessiné dessus. Tout est déjà prêt, et ses idées aussi !

    Voilà pourquoi et comment ces Graines de sciences sont un enchantement…

    Florent Masseglia et Didier Roy.

  • Concours Castor informatique 2014

    C’est le début du Castor Informatique ! Concours castorAfin de faire découvrir aux jeunes l’informatique et les sciences du numérique, et après le grand succès de la troisième édition 2013 (plus de 170 000 élèves dont 48% de filles et près de 1200 collèges ou lycées français ont participé), une nouvelle édition commence aujourd’hui : les épreuves 2014 se déroulent du 12 au 19 novembre 2014.

    « Le concours comporte quatre niveaux (6e-5e / 4e-3e / 2nd / 1ère-Term). Il couvre divers aspects de l’informatique : information et représentation, pensée algorithmique, utilisation des applications, structures de données, jeux de logique, informatique et société. Ce concours international est déjà organisé dans 21 pays qui partagent une banque commune d’exercices. Environ 734 000 élèves ont participé à l’épreuve 2013 dans le monde.

    Les points à retenir :

    • Entièrement gratuit,
    • Organisé en salle informatique sous la supervision d’un enseignant,
    • 45 minutes pour 15 à 18 questions,
    • Quatre niveaux : 6e-5e / 4e-3e / 2nd / 1ère-Term,
    • Du 12 au 19 novembre 2014, l’enseignant choisit le moment de la semaine qui lui convient,
    • Participation individuelle ou par binôme,
    • Aucune connaissance préalable en informatique n’est requise.

    Nouveauté 2014 : La version 2014 sera entièrement composée de sujets interactifs, pour lesquels il faut trouver une stratégie de résolution, et le score sera affiché en temps réel. Il n’y aura donc plus aucune question à choix multiple.

    Si vous n’avez plus l’âge, vous pouvez vous amuser à tester les exercices des années précédentes depuis 2010 ! Comme nous l’a expliqué Susan McGregor récemment sur Binaire : Explorez la pensée informatique. Vous pouvez le faire !

    Sylvie Boldo